revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  1 12
del facsímil  
¡Oh muerte!, ¿dónde está tu victoria?
 
 
Stephen Jay Gould
conoce más del autor
   
       
HTML ↓ PDF Regresar al índiceartículo siguiente
       
       
El pretendido caso clásico de extinción como resultado de la inferioridad competitiva ya no puede sostenerse. Durante la mayor parte del Terciario –la lla­mada era de los mamíferos—, Sudamérica era una isla continente, una especie de Súperaustralia, con una fauna autóctona que sobrepasaba en interés y particularidad a los marsupiales de Australia. Esa región posee sólo un orden exclusivo de mamíferos, los monotremas ovíparos—el equidna y el ornitorrinco—, mien­tras que, tiempo atrás, Sud­américa albergó varios órdenes que contenían anima­les singulares, desde los ta­xo­dontes, parecidos a los rino­ce­rontes pero no parientes de ellos —que Darwin descubrió durante su aprendizaje a bordo del Beagle—, hasta los litopternos, que le ganaron a los caballos en reducir los dedos de los pies de varios a uno solo —incluso las placas óseas laterales, vestigios de dedos que los últimos aún con­servan—, pasando por los perezosos gigantes y los gliptodontes. Había también otros seres singulares que aun cuan­do pertenecían a órdenes que también se encontraban en otros continentes, presentaban características propiamen­te sudamericanas; todos los grandes carnívoros, por ejemplo, eran marsupiales, incluyen­do a criaturas tan destacadas como el Thylacosmilus dientes de sable.
 
Todos estos animales han desaparecido, víctimas de la tragedia más grande ocurrida en los últimos cinco millones de años. Y por una vez no es culpa de los humanos, sino del surgimiento del istmo de Panamá, que aconteció hace apenas unos millones de años. Este istmo conectó Sudamérica con una fauna más cosmopolita, la de los continentes del norte. Los mamíferos de Nor­teamérica llegaron allí erran­do por el istmo y, desde la perspectiva tradicional, vieron y conquistaron. Lo que so­lemos ver como la moderna fauna “nativa” de Sudamérica –llamas, alpacas, jaguares y pecaríes— son emigrantes del norte que llegaron allí hace relativamente poco tiempo.

El punto de vista tradicional, con su tufo de metáfora ra­cista, opone una fauna septen­trional de formas armoniosas y rigurosamente adaptada, cur­tida por el rudo clima y una incesante competencia como consecuencia de las olas de emigrantes asiáticos y europeos, a una fauna sudamerica­na floja y estancada, que no conoce la competencia. ¿Qué posibilidad de ganar tenían los pobres taxodontes y liptoternos? Las formas norteame­ricanas llegaron por el istmo arrasando y las extinguieron. Mientras que sólo algunas de las formas inferiores de Sud­américa lograron desplazarse hacia el otro lado y sobrevivir. Por eso tenemos puercoespines, zarigüeyas y armadillos de nueve bandas; mientras que Sudamérica recibió todo un régimen nuevo.
 
Si esta historia fuese verdad, entonces también lo sería que la guerra es la ley de la vida y que la extinción implica derrota. Pero, ¿es correcta?, ¿la sostienen los datos exis­ten­tes?, ¿hubo más formas del norte que fueron al sur que lo inverso?, ¿en verdad fueron más elevadas las tasas de ex­tinción de las formas sudame­ricanas? L. G. Marshall y S. D. Webb se unieron a Raupp y Sep­koski en un segundo ar­tícu­lo, donde aplican los mismos métodos cuantitativos a la historia reciente de la fau­na en Sudamérica, y concluyen que varios aspectos de la his­toria tradicional no son verdaderos.
 
En primer lugar, el inter­cam­bio fue sorprendente­men­te simétrico. Miembros de ca­torce familias de Norteamé­rica residen actualmente en Sud­américa y representan 40% de la diversidad de fami­lias de Sudamérica; mientras que do­ce familias sudamerica­nas viven hoy en Norteamérica y cons­tituyen 36% de las familias norteamericanas. En la

es­cala más fina de género, la re­ducción fue también ba­lan­ceada en ambos lados del ist­mo. Los géneros nativos sudamericanos disminuyeron en 13% entre las faunas pre y postístmicas, mientras que los géneros norteamerica­nos lo hicieron en 11% duran­te ese intervalo. Es decir, casi el mismo número de familias se movieron con éxito en ambas direcciones y casi el mismo porcentaje de formas na­tivas se extinguió en ambos la­dos a raíz del intercambio ini­cial. ¿Por qué entonces el registro porta la imagen de una victoria de Norteamérica, de una hecatombe sudame­ricana?

Creo que tres razones sub­yacen en esta imagen: una so­cial, otra biológica pero más bien espuria, y una tercera, real e importante. Debemos considerar, en primer lugar, el chovinismo de la mayoría de los anglófonos de los Estados Unidos de Norteamérica —uf!, casi escribo “americanos”—; prácticamente todo aquello que se halla al sur del Río Bravo habla español y por tan­to está ligado con Sudamé­ri­ca. Sin embargo, una buena parte de Norteamérica se encuentra entre El Paso y Panamá, y la mayor parte de los emi­gran­tes de Sudamérica vi­ven allí, no en los Estados Uni­dos o en Canadá. Después de todo, el ecuador pasa por Qui­to, por una nación llamada Ecuador, y Sudamérica contie­ne más tierras tropicales que Nor­teamérica; es por ello que la mayoría de las formas sudame­ricanas emigrantes son tropi­ca­les o subtropicales en re­lación con sus preferencias cli­máticas, y su resi­den­cia natural en el norte es México y Centroamérica. La escasez de emigrantes sudamericanos en mi jardín trase­ro (a pesar de que una vez vi una zari­güeya) no es un argumento en con­tra de su abundancia o vigor.

En segundo lugar, la es­truc­tura taxonómica de las for­mas sudamericanas tuvo un ma­yor efecto sobre el con­junto de la diversidad de formas cuando ocurrió una re­duc­­ción similar en el porcentaje de géneros. Al emerger el istmo, muchos de los grupos autóctonos de Sudamérica se encontraban reducidos a una diversidad tan baja, que la desaparición de uno o dos géneros llevó a la extinción del gru­po entero. Mientras que pocos grupos norteamericanos se encontraban tan cerca del abismo. Si una de las faunas tiene veinte grupos, ca­da uno de ellos con un género, y la otra tiene dos grupos, cada uno con diez géneros, al ser removidos cuatro géneros de cada fauna desaparecerán cuatro de los grupos más grandes en la primera y ningu­no en la segunda.

Finalmente, aun cuando los emigrantes se movieron con igual éxito en ambas di­rec­ciones y las formas autóctonas declinaron de igual mane­ra, los de Norteamérica fueron mejores en una forma diferen­te e interesante. Cuando con­tamos los géneros derivados de los emigrantes después de que llegaran a sus nuevos lugares de residencia, encontra­mos una diferencia sobresaliente. Los géneros originarios de Sudamérica evolucionaron en Norteamérica de tal manera que engendraron pocos géneros nuevos, mientras que las formas norteamericanas fue­ron remarcablemente prolíferas en Sudamérica. Doce emigrantes primarios de Sud­américa dieron origen a tres géneros secundarios, mientras que veintiún géneros que migraron de Norteamérica ori­gi­naron a cuarenta y nueve gé­neros secundarios en Sud­amé­rica. Así, las formas norte­americanas tuvieron una radia­ción vigorosa en Sudamérica, llenando el continente con su fauna moderna, mientras que las formas sudamericanas tuvieron un éxito considerable en Norteamérica pero no una radiación tan extensa.

¿Por qué esta diferencia? Los cuatro autores citados plantean que una gran fase del surgimiento de los Andes creó una sombra de lluvia sobre la mayor parte de Sudamé­rica, lo cual llevó al reemplazo de la sabana arbolada que allí predominaba por bosques más secos, y desiertos y semidesiertos en algunas áreas. Quizá las formas norteamericanas tuvieron una radiación en un hábitat adecuado para su antigua forma de vida, mien­tras que las formas sudamericanas, al proseguirse la reduc­ción de su hábitat más favorable, vivieron un ocaso. O tal vez la explicación con­ven­cional es en parte verdadera, y las formas norteamericanas tuvieron una extensa radiación porque de manera inexplicable son competitivamente superiores a las originarias de Sudamérica. Sin em­bargo, la mayoría de las versiones de la superioridad competitiva no explican las tasas de especiación más elevadas, sino solamente el éxito en la batalla —lo cual lleva a una mayor duración de los emigrantes, asociada a tasas de extinción mayores entre los vencidos, ninguno de ellos componentes de esta historia. En cualquier caso, la vieja historia de “aclamemos al héroe conquistador que viene” –las olas de migración diferencial y las hecatombes que le siguen— no puede mantenerse más.
Stephen Jay Gould
Célebre paleontólogo y gran divulgador de la ciencia, creó junto con Niles Eldredge la teoría de la evolución de los equilibrios puntuados. Falleció en 2002.
Nota
 
Este texto es un fragmento del ensayo “O Grave, Where Is Thy Victory?”, publicado originalmente en la revista Natural History y compilado en Hen’s Teeth and Horse’s Toes, Norton, Nueva York/Londres, 1984, pp. 343-352.

Traducción
César Carillo Trueba.
_______________________________________________________________

 

como citar este artículo

Jay Gould, Stephen y (Traducción Carrillo Trueba, César). (2006). ¡Oh muerte!, ¿dónde está tu victoria? Ciencias 84, octubre-diciembre, 26-29. [En línea]
  ←Regresar al índiceartículo siguiente→
  1 12  
  semblanza  
Augusto Fernández Guardiola
 
 
Virginia Vargas R.
conoces del autor
   
       
HTML ↓ PDF Regresar al índiceartículo siguiente
       
       
Augusto Fernández Guardiola, uno de los excelentes re­presentantes de las artes y las ciencias que el exilio espa­ñol de 1939 legó a México, realizó valiosas aportaciones al estudio sobre el sueño, la epilepsia y al desarrollo y consolidación de las neurociencias en nuestro país. Hijo del artista, pintor y locutor Don Augusto Fernández Sastre, quien en la Radio República leía el parte de guerra, nació el 24 de marzo de 1921 en Madrid, donde cursó sus primeros estudios. La guerra civil lo obligó a salir de su país, junto con su familia, a bordo del barco inglés Stanbrook, que partió de Alicante el 2 de marzo de 1939.
 
Hombre incansable que no sabía negarse cuando lo in­vitaban a dar conferencias, par­ticipar en mesas redondas y simposios o intervenir como miembro de comités, se inició como investigador en el Institu­to de Estudios Médicos y Bio­lógicos de la unam en 1953. En ese año realizó su examen profesional de mé­di­co cirujano con mención ho­no­rífica en la Escuela Nacional de Medicina de la unam, con la tesis Estudios de algunos factores que determinan el curso de la regeneración en el nervio. Después obtuvo la especialización de neuropsiquiatría y en 1969 se tituló como Doctor en ciencias biológicas, men­ción Physiologie Animale (Neurophysiologie), en la Universidad de Aix, ubicada en Marsella, Francia, con la tesis La voie visuelle du Chat: mécanisme de contrôle et de régulation.

Treinta años después, durante una entrevista publicada en abril de 1999 en el diario La Jornada, declaró: “Co­mo alumno de los maestros Dio­nisio Nieto, Efrén del Pozo y Ramón de la Fuente, me interesó mucho la neuroanatomía, la neurofisiología y la psi­co­fisiología, lo que ahora lla­ma­mos neurociencias. Hacíamos muchos experimentos para ver cómo se modificaba la ac­tividad cerebral de animales sometidos a estimulaciones eléctricas y a sustancias que sabíamos actuaban sobre el cerebro […] En los ma­ni­co­mios observamos a muchos pacientes epilépticos que tenían ataques durante la noche, mientras dormían. Nos interesó entonces, tanto en re­la­ción con los mecanismos de la epi­lepsia como con los del sueño, analizar los elec­troen­ce­falo­gramas —registro de la actividad eléctrica cerebral— durante el sueño de toda la noche. Encontramos que muchos tenían ataques epilépticos de diverso grado, pero que cuando aparecía la fase mor, los paroxismos epilépticos desaparecían o aminoraban notoriamente. Por eso de­signamos a esa etapa mor co­mo anticonvulsiva […] La fa­se mor se repite durante toda la noche en cuatro o cin­co etapas que duran unos 18 mi­nutos. Las lesiones y fármacos alteran esa distribución y cantidad de mor. Por ejemplo, en jóvenes que inhalan solven­tes orgánicos puede desaparecer esa fase, al igual que en los alcohólicos crónicos y en general en los que usan dro­gas depresoras […] En los años setentas surgió un modelo de epilepsia experimental en animales que tenía la virtud no sólo de provocar ata­ques, sino de estudiar desde el mecanismo de su origen. Ese modelo se conoce en inglés como kindling, activación progresiva o algo que crece. Desde entonces hemos traba­jado en ese modelo”.

Entre 1963 y 1965 parti­ci­pó en la creación del Institu­to de Investigaciones de la ac­tividad Nerviosa Superior en La Habana, Cuba. En México, fue nombrado de jefe del Departamento de Electrofisiología Clínica Experimental del Ins­tituto de Neurología de la Secretaría de Salubridad y Asis­tencia (ssa) para el perio­do que va de 1965 a 1968; allí impulsó la fundación de la Unidad de Investigaciones Ce­rebrales en el Instituto Nacional de Neurología y Neurociru­gía de la ssa en 1969.

Su brillante carrera como profesor e investigador lo llevó a obtener el nombramiento de Profesor Emérito por la Fa­cultad de Psicología de la unam y el ingreso al Sistema Na­cional de Investigadores en junio de 1993. Recibió importantes premios como el otorgado por la Industria Química Farmacéutica en 1973; los premios Dr. Eduardo Liceaga en 1975, Chinoin Alejandro Celis en 1977 y Dr. Ma­ximiliano Ruiz Castañeda en 1994, que le otorgó la Aca­demia Nacional de Medicina de México; el premio Miguel Otero de la ssa en 1980, el premio nacional de psiquia­tría Dr. Manuel Camelo en 1987; el premio anual de investigación en epilepsia otorgado por la ssa y el programa universitario de investigación en salud de la unam en 1989; el Premio Universidad Nacional 1992 en el área de Investigación en Ciencias Naturales y el Premio Nacional de Ciencias Físico-Matemáticas y Naturales 1999 que le otorgó el gobierno mexicano.

El admirable profesor emé­rito falleció el 19 de ma­yo de 2003, pero su trabajo, su obra, ha quedado en la historia, vivirá por siempre en los antecedentes importantes de la investigación biomédica bá­sica. Recuerdo dos trabajos publicados en prestigiadas re­vistas internacionales que, aun­que pasaran los años, per­manecían como referencias im­portantes. Uno, titulado The influence of the ce­rebe­llum on experimental epilepsy, lo realizó con el doctor R. S. Dow, en 1962; el otro, Amygdaloid kindling enhances the enkephalin content in the rat brain, lo hizo con el doctor Os­valdo Vindrola en 1981. En­tre su vas­ta obra también se en­cuen­tran libros como La aven­tura del cerebro, La Concien­cia y Las Neurociencias en el Exilio Español en Mé­xico.

En un pasaje de es­te último escribió: “Es posible que la muer­te no exista como un hecho final y único. Tal vez ­só­lo en la muerte accidental de los muy jóvenes. En realidad la muerte es un proceso que comien­za con el nacimien­to. Cada época que pasa mo­rimos un poco, pero no me refiero a que sea un proceso continuo, como el envejecimiento gradual. No, morimos un poco puntualmente con ca­da fraca­so, con cada desilusión, con cada ser amado ­per­dido, con cada teoría reconocida como equivocada y que nos guió por años; también morimos un poco con los éxitos tardíos, que llegaron con retraso y nos hacen gol­pear­nos y rebotar contra el te­cho, a deshora. Por eso la muer­te final de los viejos es la suma de todas las pequeñas, fugaces, muertes. ¡Es la gota que colmó la copa! Lo único que ha­ce tolerable esta situación es que la vida, la exis­tencia, se comporta de la mis­ma manera, como un proceso puntual de momentos de tal felicidad y entusiasmo, que parece que vamos a estallar […] Sería muy fácil decir entonces que el camino a seguir es disminuir en lo posible las muertes periódicas y aumentar los mo­mentos felices. En realidad en esta búsqueda estamos em­peñados todos, pero con muy poco éxito, tal vez por falta de un método realmente adecuado. Pero, en realidad, no podemos negar que sin la muerte la vida sería aburridísi­ma. Supe de alguien que tenía un amigo que leía todos los días las no­tas necro­ló­gi­cas de los periódicos para tener la satisfacción de que él no estaba en ninguna, pero al mismo tiempo le divertía la idea de que el día en que sí apareciera su obituario, él no lo leería.”
Virginia Vargas Rangel
Instituto de Investigaciones Bibliográficas,,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
 
Fernández Guardiola, A. 1961. “The influence of the ce­rebellum on experimental epilepsy”, en Electro­enceph. Clinical Neurophysiology, núm. 13, pp. 564-576.
1962. La aventura del cerebro. Universidad de La Habana, Cuba.
1979. La Conciencia. Editorial Trillas, Mé­xico.
1981. “Amygdaloid kindling enhances the en­kephalin content in the rat brain”, en Neuroscience Let­ters, núm. 21, pp. 39-43.
1997. Las Neurociencias en el Exilio Es­pa­ñol en México. sep, Fondo de Cultura Económica, conacyt y Universidad Internacional de Andalucía, Mé­xico.
La Jornada. 1999. Entrevista al Dr. Fernández Guardiola, 5 de abril.
 _______________________________________________________________

 

como citar este artículo

Vargas Rangel, Virginia. (2006). Augusto Fernández Guardiola, un incansable científico. Ciencias 84, octubre-diciembre, 64-66. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Biogeografía y darwinismo social
En este texto, el Dr. Bowler trata de responder la pregunta ¿hasta qué punto la ciencia se ve influenciada por los valores culturales, políticos e ideológicos del entorno en el que surge? Para ello, explora las formas en que las primeras generaciones de biogeógrafos han tratado de explicar, por medio de metáforas, el origen y la evolución de la vida.
Peter Bowler
conoce más del autor
 
     
HTML ↓  PDF Regresar al índiceartículo siguiente
     
     
 
El tema de biogeografía y darwinismo social es, en mi opi­nión, una reflexión sobre un asunto de sumo interés para la historia de la ciencia, ya que tiene que ver con una pre­gunta: ¿hasta qué grado la ciencia interactúa con su en­torno, en este caso, con los valores culturales, políticos e ideoló­gi­cos? Mi actual trabajo sobre la ciencia popular está cen­trado en la pregunta de qué tan informada está la gente común sobre la ciencia y hasta qué grado los mismos científicos tratan de controlar la forma en que se disemina la informa­ción científica hacia el resto de la sociedad. Sin em­bargo, mi interés aquí va en el sentido opuesto, esto es, explorar hasta qué grado la propia ciencia refleja los valores sociales y hasta dónde hay una interacción directa de la forma en la que los científicos buscan describir el mundo natural y la forma en que la sociedad dentro de la cual viven per­cibe algunas de sus activi­dades.

El tema del darwinismo social es uno de los tópicos más de­batidos en la historia de la ciencia. Cuando era estu­dian­te de historia de la ciencia en la Universidad de Cam­bridge, hace ya más años de los que quisiera mencionar, original­men­te me dedicaba a las ciencias físicas, pero como podrán ver, hice carrera en la historia de las ciencias biológicas. La razón fue que uno de los mejores maestros en Cam­bridge era un personaje llamado Robert Young, quien era mar­xista y estaba muy interesado en la interacción del dar­wi­nis­mo y el pensamiento social conocido como darwinismo so­cial. Por mucho, era el conferencista más brillante; me vol­ví his­toriador de la teoría de la evolución básicamente por su in­fluencia, y en ese sentido fue el darwinismo so­cial el que me condujo hasta donde ahora estoy.

Como marxista, Robert Young estuvo muy preocupado por un debate que persistió durante largo tiempo sobre los orígenes de la teoría de la selección natural de Darwin y la búsqueda por vincularla con los valores políticos del ca­pitalismo del siglo XIX.
 
El capitalismo, el sistema de la libre empresa, depende de las ideas del individualismo y de la sociedad como un agre­gado de individuos esencialmente en competencia, don­de cada persona trata de tener éxito a expensas, hasta cier­to grado, de otros miembros de la sociedad. En el nivel de los individuos, la sociedad es esencialmente competitiva y desde los tiempos de Marx y Engels se ha resaltado que la teoría de la selección natural de Darwin parece re­fle­jar una imagen muy similar en los reinos animal y vege­tal, con cada especie constituida por poblaciones de in­divi­duos que com­piten entre sí. El resultado de la competencia es que los más aptos sobreviven y se reproducen mientras que los me­nos adaptados son desplazados y mueren, de modo que el mundo natural se ha edificado sobre el sis­tema de competencia del capitalismo del siglo XIX. Así, no sor­prende que al cons­truir la imaginería y las metáforas del capitalismo dentro de la biología, Darwin proporcionó los medios con los cua­les se justificaron quienes pretendían defender y promover el capitalismo, diciendo: “bien, Darwin ha mostrado que es así como funciona el mundo natural; la lucha y la competencia son parte integral de la propia naturaleza; por tan­to, es natural que los asuntos hu­manos deban seguir el mismo patrón esencial; de ahí que el sistema capitalista sea natu­ral e inevitable, porque es así como opera la naturaleza”.

Por supuesto, para quienes criticaban esta postura, in­clui­do mi mentor Robert Young y, en el siglo anterior, Marx y Engels, tal razonamiento muestra la circularidad de todo este asunto; primero se importa la política hacia la ciencia y después se usa la ciencia para justificar la política. Es cla­ramente un argumento circular.

Para quienes usaron este enfoque con el fin de criticar el darwinismo, la implicación es que existe algo sospechoso en el darwinismo como ciencia; que es una mala ciencia porque importa las metáforas y los modelos del capitalismo. Éste es el argumento que han usado tradicionalmente aquellos que creen que el darwinismo representa una dirección errónea hacia la cual se ha dirigido la biología.
 
No hablaré aquí de esa clase de darwinismo, sino acerca de la relación entre darwinismo y biogeografía, y de una ge­neración posterior de darwinistas sociales que se basaron, no sólo en la competencia individual del sistema capi­ta­lis­ta, sino en la competencia nacional y racial, que fue la ideología del imperialismo de fines del siglo xix, cuando las naciones europeas conquistaban el mundo, sometiendo a los pueblos de distintas regiones a su control político, en al­gunos casos esclavizándolos y exterminándolos, utili­zan­do el lenguaje del imperialismo para proyectar la ima­gen de es­pecies animales y vegetales que se extendieron por todo el mundo y, en algunos casos, ya habían despla­zado y ex­terminado formas tempranas que existían en el territorio conquistado.

Es un caso de importación del lenguaje político y de me­táforas hacia la ciencia que se usa para justificar la ideo­lo­gía misma, pero ahora no se tata de competencia indivi­dual al interior de una población, sino de competencia en­tre poblaciones, entre naciones, entre razas y, en el mo­delo biológico, entre especies. El problema esencial es saber cómo funciona esa interacción y si debe considerarse mala ciencia la que emplea metáforas políticas o ideológicas para construir sus propios modelos. Se necesita pensar con mu­cho cuidado en esa idea de mala ciencia, de ciencia políti­ca­­men­te corrupta, políticamente contaminada, ya que de hecho, muchas teorías científicas obtienen modelos, metá­foras e inspiración de fuentes externas, como la política, la re­li­gión y el mundo del arte; existen muchas fuentes de ins­pira­ción, y si se desecha cada teoría científica que use al­gún ele­mento de inspiración externa en la forma en que repre­senta la na­turaleza y se le considera como mala cien­cia, me temo que entonces no quedará mucha buena ciencia, si es que queda­ra alguna. Así que tenemos que ser muy cuidadosos para sa­ber de dónde vienen las metáforas; esto es particular­men­te importante en la escena política, cuando se usan las metá­foras para justificar el sistema. No estoy su­giriendo que to­memos una actitud relajada frente a este asunto, sino que de­bemos estar muy atentos sobre la forma en que la ciencia puede reflejar los valores sociales y ser así usada para de­fen­der ideologías particulares. Pero la idea de que si esto ocu­rre es razón suficiente para considerarla mala ciencia resulta problemática, porque si las metáforas realmente fun­cionan cuando se les pone a prueba en la naturaleza, me temo que tendremos que vivir aceptando el hecho de que funcionan bien, de que entonces sirven para hacer buena ciencia, incluso si no nos hace felices conocer la fuente de la cual provienen.

La ciencia y la expansión imperial

Ahora, tratemos de ver la interacción de la ciencia y el im­perialismo en las postrimerías del siglo XIX. Iniciaré con una breve mención de la relación práctica de la ciencia con el imperialismo; en particular, la recopilación de información sobre la distribución de animales y plantas por todo el mun­do. Un buen ejemplo es Charles Darwin a bordo del Beagle. ¿Por qué un barco de la marina británica pasó cinco años car­tografiando la línea de costa de Sudamérica? En sentido estricto, este caso no es imperialismo, porque los británicos no colonizaron directamente Sudamérica. Sin embargo, Gran Bretaña tenía una gran cantidad de comercio con esta re­gión y el objetivo del Beagle fue asegurar que el comercio fluyera libremente, proporcionándoles a los barcos me­jo­res mapas de las aguas que rodeaban las costas suramericanas. De modo que el Darwin del Beagle es en esencia parte del pro­yecto imperial, de la forma en que Gran Bretaña se las arreglaba para extender su control y su influencia alrededor del mundo, incluso en áreas donde no tenía colonias. Hubo muchos otros viajes con el mismo tipo de propósitos prácticos de controlar y manipular el mundo para los fines de la conquista imperial. Todos hemos oído sobre el viaje del Bounty, del capitán Bligh y del amotinamiento. Lo que hacía el Bounty era transportar el fruto del árbol del pan desde Tahití hasta las Antillas para alimentar a los esclavos de las plantaciones de caña de azúcar. Esa vez, por supuesto, no llegó debido al motín; todos recordamos a Marlon Brando en la famosa película sobre ese episodio, pero lo que fre­cuentemente se olvida es que el capitán Bligh fue reivindicado a su regreso a Inglaterra, que volvió a transportar el fruto del árbol del pan a las Antillas y como el proyecto para alimentar a los esclavos no funcionó, el barco se dedicó a colectar plantas y animales para propósitos prácticos del imperio.

En el siglo XIX se fundaron varios jardines botánicos, el Kew Garden, en Londres, se convirtió en un centro de re­co­pilación de información sobre las plantas de todo el mun­do y particularmente del imperio, pero también en un cen­tro para analizar la adaptación de las plantas europeas a los paí­ses extranjeros, donde podían usarse como cultivos co­merciales, así como para llevar plantas de los nue­vos terri­torios al imperio. De igual manera, el Jardin des Plantes sir­vió como centro para la ciencia imperial francesa. Así, el caucho de Sudamérica se llevó al Sud­es­te de Asia, donde se convirtió en la base de toda una nue­va in­dus­tria, y como éste, hay muchos otros casos. La fun­da­ción de jardines botánicos en la India, Su­dáfrica y Australia ­sirvió para fines similares, permitiendo la aclimatación de plantas que interesaban a las metrópolis. La ob­tención de in­for­mación para crear el cuerpo de conocimientos sobre el cual funcionó la biogeografía del siglo XIX fue posible gracias a la expansión del imperio y al papel prác­tico de la ciencia, de modo que no es ningún acciden­te que la ciencia y el im­perio se hayan hermanado en ese siglo.

El asunto aquí es el uso que hicieron los científicos de la información obtenida mediante este proceso de expansión imperial, y el punto que quiero desarrollar es que el intento por explicar la distribución de animales y plantas por todo el mundo utilizó estas metáforas del imperialismo, de la conquista, la exterminación, la lucha y el conflicto. Esto representa una nueva forma de darwinismo social, ba­sada en la lucha entre los imperios y las naciones, em­pleada para modelar la lucha entre las especies cuando querían ocu­par más territorios en el mundo.

Las regiones biogeográficas

A mediados del siglo XIX los europeos habían obtenido la in­formación que requerían para dividir el mundo en provincias botánicas. El mapa que en esta página mostramos es producto de los intentos por dividir el mundo en regiones biogeográficas. Se caracteriza por la unión de Norte­amé­rica y Eurasia en una sola región holártica; Sudamérica es la re­gión Neotropical, el sur de África la Etiópica, la Oriental incluye la India y el Sureste de Asia, y la región Austra­liana en el extremo sur. Una división del mundo de acuerdo con sus habitantes animales y vegetales básicos. Se ha su­ge­rido que está hecha con base en la división del conti­nen­te euro­peo en naciones. Los límites que se dibujan en­tre re­giones son exactamente análogos a los que marcan la di­visión en­tre Francia, Alemania y España, por lo que he di­cho que es un modelo estático basado sobre límites políticos estáti­cos, aunque por supuesto, los límites pueden cambiar debido a que las naciones van a la guerra y se conquistan te­rri­torios unas a otras, lo cual lleva a intentar explicar las re­gio­nes en que está dividido el mundo, tal como podemos ver en este mapa, en términos de migración y evolución, de la expansión de poblaciones desde centros de origen has­ta nuevos territorios que las especies invadían y ocupaban. Janet Browne, quien escribió una importante biografía de Darwin, subrayó el uso del lenguaje de conquista y exter­mi­nación en el trabajo del autor de la teoría de la selección na­tural y de su colega botánico Joseph Dalton Hooker. Éste es el enfoque que quiero seguir y parte del cual lo he ex­pre­sado en mi libro Life’s Esplendid Drama.

Gran parte de este proyecto no despegó directamente del trabajo de Darwin, sino del de su colega Alfred Russel Wa­llace, mejor conocido como codescubridor de la selección natural; aunque personalmente no me tomo muy en serio esta historia. De cualquier forma, Wallace es un científico de primer nivel. En 1876 publicó un libro en dos vo­lúmenes, La Distribución Geográfica de los Animales, en el cual trató de explicar ese patrón de distribución en términos del origen de las especies y su dispersión hacia nuevas re­giones del mundo, y el lenguaje que empleó fue el mismo que el usado por Darwin y Hooker, aludiendo explícita­men­te a términos de migración y conquista. Lo que ­quiero re­saltar aquí es que puede usarse un lenguaje diferente al del imperialismo, uno menos cargado políticamente, para des­­cribir el proceso mediante el cual una especie se origina en un lugar y después se expande para ocupar un territorio en otro. Se puede hablar de migración o emigración, que no necesariamente implican conquista y exterminio. Ni siquie­ra es ineludible pensar que las especies tienen algún tipo de imperativo para extenderse hacia nuevos territorios. Al­gunos biólogos pensaban que las especies estaban comple­tamente a gusto en el lugar donde fueron creadas o donde evolucionaron y que no se moverían de allí a menos que fue­ran forzadas por presiones ambientales. Pero la gran ma­yoría de los biogeógrafos de finales del siglo xix suponía que las especies tenían una tendencia natural a expandir el territorio que ocupaban. Una noción derivada del princi­pio malthusiano de expansión de la población, la cual siem­pre tiende a extender cada vez más su suministro disponible de comida, y ello implica que las poblaciones tratarán de procurarse nuevos territorios, provocando lo que De Can­dolle llamó “la guerra de la naturaleza”, una lucha compe­titiva entre las especies en la cual una buscará adentrarse en el territorio de sus vecinos, y si puede, ocuparlo con éxi­to, conduciendo a sus habitantes originarios a la extinción.

Aquí cito al propio Wallace: “Los animales se multiplican tan rápidamente que podemos considerar que continuamen­te tratan de extender su área de distribución y, de esta for­ma, cualquier nueva porción de tierra que haya emergido del océano, inmediatamente se ve poblada por una multi­tud de habitantes que compiten entre sí, siendo los mejor adaptados los que tendrán éxito para retener sus posesiones”. Un lenguaje similar se encuentra en un atlas de zoo­geo­grafía publicado por la Royal Geographical Society en 1911, en donde se cita: “En la permanente lucha por la su­premacía, la tendencia natural de cualquier especie que sea exitosa es extenderse sobre un área cada vez más amplia, lu­chando para expandir su territorio”. Este proceso de expan­sión es descrito en un lenguaje imperialista de invasión y conquista, incluso tal vez de colonización y exterminación. En biogeografía hubo quienes se resistieron y trataron de en­contrar otras formas de explicación, pero en general fue­ron una minoría.

La migración norteña

A principios del siglo xx este modelo se hizo muy común. En 1914, el paleontólogo canadiense-americano William Di­ller Matthew afirmaba que ocurrieron grandes invasiones de los animales norteños hacia Sudamérica cuando el Istmo de Panamá se elevó, lo que permitió que tales animales, usando sus propias palabras, barrieran con todos los grupos nativos, en un flujo de colonización y exterminio que provenía del norte, un proceso de oleadas sucesivas.

En otro libro llamado La Invención del Progreso he descri­to los paralelismos entre las metáforas del surgimiento de los grupos animales en evolución, el de los dinosaurios, y el del Imperio Romano y de otros grandes imperios de la historia humana. Se trata de una suposición de que cada gru­po exitoso, sea de animales o de naciones imperialistas, después de expandirse y conquistar nuevos territorios, de­cae y retrocede gradualmente conforme el siguiente poder imperial lo empuja y lo desplaza, de modo que en este mo­delo está la noción de olas de expansión.

Una de las ideas más poderosas de este modelo es que la fuente real de todos los nuevos grupos exitosos de ani­ma­les y de plantas en el curso de la evolución es la región ho­lártica, como se muestra en el mapa de la página anterior. Norteamérica y, especialmente, Eurasia se muestran como los centros más activos de la evolución progresiva, desde los cuales migran olas de tipos cada vez mejores ha­cia Sudamérica, África y a través de Asia hasta Australia. La mejor forma de ilustrar este concepto es el trabajo de W. D. Matthew, quien usó una proyección centrada en el Polo Norte, alrededor de la cual están las grandes masas de tierra emergida. Creía que el norte, donde el clima es más severo, estimulante y desafiante, suministraba la mayoría de grupos animales superiores, pues allí se crían las especies exitosas que tienen que luchar contra el frío y la esca­sez de alimentos. Esta lucha contra un ambiente severo lle­va a la evolución a ser cada vez más progresiva.

Mientras tanto, las regiones sureñas, que están en la pe­riferia, tienen condiciones ambientales menos severas, y aunque ciertamente allí ocurre un proceso de evolución, no es progresiva, sino que simplemente produce adaptación lo­cal. El recinto real del progreso es el norte, donde evolu­cio­nan las especies exitosas, expandiéndose hacia la periferia, en todas las direcciones que pueden. Así, desde Norte­amé­rica presionan el sur, Sudamérica; las de Eurasia presionan África, India, el sureste de Asia y finalmente Australia, de modo que tenemos una serie de grupos migrantes descendiendo hacia el hemisferio sur desde el centro de evolución progresiva localizado en el norte.

Así, Climate and Evolution de Matthew promovió esta ima­gen de la poderosa casa septentrional de la evolución, de la misma forma en que Darwin lo hizo del poder norte­ño de evolución, desde donde las especies se expanden suce­sivamente hacia el sur.

Pues bien, esto conduce a un modelo de distribución de plantas y animales en el cual las regiones sureñas, Sud­amé­rica, África y particularmente Australia, son considera­das como áreas donde las formas de vida más primitivas evolucionaron durante largo tiempo en el pasado, quedan­do al margen al ser empujadas hacia la periferia por las es­pe­cies más exitosas que evolucionaban en el centro. De esta forma, lo que se espera es tener animales y plantas más avanzados en el norte y formas más antiguas en la lejana periferia.
Los mundos perdidos

En ese entonces, Australia fue ampliamente identificada como la fuente de animales primitivos. El ornitorrinco y otros mamíferos primitivos que posiblemente se originaron en el Mesozoico, quedaron allí como relictos, en un área ais­lada, protegidos hasta cierto grado por el agua de la in­vasión de los tipos superiores provenientes del norte. Así sur­ge la imagen de que en las partes periféricas del mundo sobreviven remanentes de las formas más primitivas de vida. Son los mundos perdidos. Seguramente algunos recor­darán la famosa historia de Sir Arthur Conan Doyle de El mundo perdido, precisamente publicada en esta época, en 1912. Se trata de unos exploradores británicos que fueron a descubrir una tierra en Sudamérica, donde por un accidente de la geología sobrevivían aún ciertas formas de vida antigua. Hallaron dinosaurios y hombres de la edad de pie­dra, así como una amplia variedad de especies de periodos geológicos remotos. Es un cuento inverosimil aunque es una historia maravillosa que resume la noción de que en las regiones remotas del sur pueden encontrarse relictos de la evolución pasada, relegados y preservados hasta el pre­sen­te. Australia fue identificada como el relicto más obvio de formas sobrevivientes del Mesozoico.

Recientemente descubrí otra versión de esta historia. En un libro sobre la exploración del Polo Sur, en particular, el famoso viaje del capitán Scott, explorador británico que llegó allí en 1911 y encontró que lo había derrotado el ex­plo­rador noruego Amundsen, así como el pasaje de la muer­te de Scott y su equipo al regresar hacia su campamento base.

Los británicos lo consideraron como una especie de triun­fo irónico, porque al menos Scott y su equipo fueron buenos científicos y no simples exploradores; muchos no saben que al morir llevaban cincuenta kilogramos de mate­rial geológico, lo cual refleja una dedicación hacia la cien­cia tan grande que no abandonaron sus colecciones ni para sal­var sus propias vidas.

Pero esa no es la historia. Justo antes del viaje al Polo Sur, otros tres miembros de su expedición fueron a buscar, en una remota parte del continente antártico, al pingüino em­perador. Querían colectar sus huevos y llevarlos para investigación embriológica. Casi mueren en el intento, pues los atrapó una tormenta de nieve y cuando regresaron al cam­pamento base, el capitán Scott les dijo que nunca había visto a tres hombres tan cerca de la muerte como lo habían estado ellos. El líder de la expedición, un hombre con el im­probable nombre de Garrard, describió este episodio en un libro llamado El peor viaje del mundo.

¿Para qué fueron a buscar huevos? Porque circulaba la teoría de que los pingüinos eran las aves más primitivas, los relictos más primigenios de las aves orillados a los límites extremos de la Tierra. Los habían desplazado de Australia al continente antártico. La idea no tiene absolutamente nin­gún sentido; por supuesto, los pingüinos son aves especia­lizadas, pero la teoría fue elaborada, y era promovida por la expectativa de que se encontrarían los tipos más primiti­vos en el mundo perdido, en la periferia más lejana del sur, idea ampliamente extendida. Mi opinión es que esta noción de la expansión desde el norte y la conquista de tipos su­pe­riores que de ahí provienen es parte de un imaginario vie­jo y de metáforas usadas para describir el proceso por medio del cual el mundo es poblado por animales y plantas.

Así, se importa el lenguaje del imperialismo y la conquis­ta a la ciencia, pero también camina en sentido contrario, porque si se cree que este modelo es adecuado para anima­les, también puede serlo para la especie humana, y cuando se trata de describir la evolución de la última, entonces se asume la sorprendente premisa de que las razas más primi­tivas que sobreviven actualmente serán aquellas que están en la periferia, y las razas superiores, adivinen…, estarán en el norte. Esto, se acopla directamente con la idea de la su­premacía del hombre blanco, ya que sugiere que los habitantes de otras partes del mundo son primitivos, formas tempranas de humanos empujados hacia los márgenes, qui­zá sobreviviendo allí por barreras biogeográficas protecto­ras. Por ello, en la paleoantropología de fines del siglo XIX y principios del XX, los humanos sobrevivientes más primi­tivos, para usar el lenguaje de ese tiempo, eran los aboríge­nes australianos. Como las formas primitivas de animales se encuentran en Australia, los humanos también estuvie­ron aislados y protegidos en ese continente, conducidos ha­cia el sur por la emergencia de razas superiores del norte. William John­son Sollas, paleoantropólogo de principios del siglo XX, describió a los aborígenes de Australia como nean­der­thales vivientes. Relación que pronto desapareció, pues los neanderthales no se consideraban humanos, pero la idea de que los australianos son las formas humanas más primi­tivas perma­neció.

Otro famoso paleoantropólogo de ese tiempo, Sir Arthur Keith, afirmó que si quisiéramos entender por qué los hu­manos modernos extinguieron a los neanderthales, debíamos observar lo que ocurría en Australia, donde la gente blan­ca estaba exterminando a los aborígenes. La idea de con­quista y exterminación de los tipos inferiores por la invasión de los tipos superiores es explícitamente usada por los blan­cos, que se ven a sí mismos como la raza superior, para jus­tificar el exterminio.

Así, el lenguaje del imperialismo es empleado para justificar la conducta de las naciones imperiales del mundo mo­derno. Y este es el fin de mi historia, que concluiré con algunos breves comentarios sobre el asunto de si creemos que el darwinismo y los modelos biogeográficos de fines del siglo XIX y principios del xx estuvieron plagados del lengua­je de una ideología política.
¿Podemos decir que fue una mala ciencia, una ciencia con­taminada?, ¿tendremos que demeritar toda la teoría dar­winiana como un callejón sin salida por el que los científi­cos han transitado guiados por sus prejuicios políticos?

Las metáforas en la ciencia

Muchos biólogos modernos creen que siempre han existi­do metáforas de modelos e interpretaciones que han de­sem­peñado papeles válidos, inspirando a los científicos en la construcción de modelos funcionales de la naturaleza, así que creo que deberíamos ser muy cuidadosos antes de deme­ritar a la ciencia que usa su inspiración de modelos deri­va­dos de la política, la religión o el arte. No deberíamos ser rudos y describirla como mala ciencia porque en ese caso quedaría muy poca ciencia. Sin embargo, actualmente de­bemos ser extremadamente cuidadosos cuando examinamos las formas en que la gente busca usar la ciencia para justificar posiciones políticas. Si la ciencia refleja la sociedad en la que funciona, difícilmente sorprende que entonces la sociedad pueda usar a la ciencia para justificar algu­nos va­lores. Y así, sin pretender demeritar ninguna materia como mala ciencia, considero el tema que hemos esbo­za­do como una valiosa lección que nos enseña que debemos ser extremadamente cuidadosos al examinar la forma en que la ciencia refleja la naturaleza, y particularmente la for­ma en que esas representaciones son descritas por la gen­te común, porque éstas son usadas para justificar sistemas políticos. Por ejemplo, todos podemos constatar el mal uso que actualmente se hace de la genética. Así, la historia nos proporciona una valiosa lección al advertirnos que debemos tener mucho cuidado para determinar de dónde viene la ciencia y reconocer esta circularidad que justifica un va­lor del sistema mediante una ciencia que en sí misma re­fleja ese valor del sistema.
Peter Bowler
Queen’s University of Belfast,
Reino Unido.
Nota
 
Texto de la conferencia impartida el viernes 28 de octubre de 2005 por el Dr. Peter Bowler en el auditorio Carlos Graef de la Facultad de Ciencias, Ciudad Universitaria.
Traducción
 
A. Alfredo Bueno Hernández y Carlos Pérez Malváez.
Referencias bibliográficas
 
Bowler, P. J. 1996. Life’s splendid drama. The University of Chicago Press. Chicago y Londres.
Bowler, P. J. 1990. The invention of progress: The Victorians and the past. Blackwell. Oxford.
Matthew, W. D. 1915. “Climate and evolution”, en Ann. New York Acad. Sci., núm. 24, pp. 171-416.
Peter J. Bowler es un destacado historiador del darwinismo, tema sobre el cual ha publicado una vasta obra, tanto en libros como en revistas especializadas. Algunos de sus libros se han convertido en clásicos. Actualmente es profesor de la Queen’s University of Belfast, en el Reino Unido. Fue vicepresidente de la British Society for the History y presidente de la British Society for the History of Science.
 _______________________________________________________________

como citar este artículo

Bowler, Peter. (2006). Biogeografía y darwinismo social. Ciencias 84, octubre-diciembre, 4-13. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Elecciones del 2006, un análisis del conteo rápido
En este espacio presentamos de manera breve algunos elementos del conteo rápido del 2006, pero sobre todo, los valores estimados obtenidos la noche de la elección y una serie de figuras que ilustran gráficamente algunos aspectos de los resultados numéricos obtenidos.
Guillermina Eslava
conoce más del autor
 
     
HTML ↓ PDF Regresar al índiceartículo siguiente
     
 
 
 
 
Para estimar los resultados electorales se han realizado nu­merosos y muy diversos ejercicios estadísticos, desde en­cuestas preelectorales, hasta encuestas de salida, conteos rápidos y encuestas postelectorales. En general, están basados en muestras probabilísticas y producen estimaciones en distintos tiempos y con diferentes grados de incertidumbre, que son inherentes a cualquier valor estimado partiendo de una muestra probabilística. También conllevan la incertidumbre propia de la calidad del proceso de recolección y procesamiento de la información.

Las encuestas preelectorales toman la información de vo­tantes potenciales, generalmente ciudadanos que dicen te­ner credencial para votar. Además de estimar los porcenta­jes de votación en favor de los distintos partidos, candida­tos o fuerzas contendientes, obtienen información adi­cio­nal que permite a los diversos partidos construir un perfil del votante potencial, así como aquella de interés para quien planea las campañas preelectorales y de publicidad. Los resultados difundidos tienen cierto tiempo de des­fase respecto al tiempo en que se recolecta, pues se pone a disposición del público una vez que la información fue levantada, filtrada y procesada. La metodología es va­riada, no sólo en cuanto al diseño muestral usado, que depende de la forma en que se construye, y del tamaño y la distribución de la muestra, sino también en cuanto a los métodos de recolección en el campo y los métodos de estimación.

Un tipo particular de encuestas preelectorales son las telefónicas, las cuales proporcionan resultados que reflejan la opinión de sólo una parte de la población, si consideramos que la penetración del teléfono en el país es de aproximadamente 37%, y va de acuerdo con las estimacio­nes de la muestra asociada al Censo General de Población y Vivienda 2000 de 12% en el estado de Chiapas a 67% en el Distrito Federal.

Las encuestas de salida toman la información de votan­tes consumados; esto es, se selecciona una muestra, en prin­cipio probabilística, de personas que han votado, las cuales son entrevistadas al salir de la casilla. La muestra probabilística la conforman las casillas donde se realizan las entrevistas. Estas encuestas producen estimaciones du­rante el día de la elección en diversos cortes hasta terminar al momento del cierre de casillas, a las 18 horas del tiempo local.
Los conteos rápidos se realizan la misma noche de la elec­ción y toman la información del resultado de la casilla reportado, sea en la hoja de operaciones de cómputo o en el acta de escrutinio y cómputo aprobada por los funciona­rios de casilla. Al igual que en el caso anterior, las casillas seleccionadas donde se recoge la información constituyen una muestra probabilística. El producto de un conteo rápi­do generalmente estima el resultado final de los cómputos distritales del 5 de julio, hasta antes de considerar imputa­ciones y ajustes finales realizados y aprobados por el Tribu­nal Electoral del Poder Judicial de la Federación (tepjf).

Finalmente, las encuestas postelectorales son un ejercicio que se realiza después de la elección y que recoge la información de ciudadanos para dar estimaciones y perfiles de los votantes consumados, y de los no votantes, de acuerdo con su opinión o inclinación hacia los distintos partidos.
 
Todos estos ejercicios, basados en muestras probabilísticas, se realizan en diversos niveles: municipal, distrital, estatal y nacional. Algunos son difundidos en los medios de comunicación y otros son empleados para monitoreo interno de los partidos o grupos de interés.

Existen otros dos ejercicios que no están basados en muestras, sino que se enfocan al registro de los resultados por casilla para el total de las casillas, son el Programa de resultados electorales preliminares (prep) y los cómputos distritales.

El prep registra, de forma electrónica y secuencial, los resultados de cada casilla electoral tomando el dato que apa­rece en la hoja de escrutinio y cómputo destinada específicamente al programa, y entregada por el funcionario de casilla en la oficina de cómputo del distrito que le corres­ponde. Inicia el registro de la información el día de la elec­ción al cierre de las casillas y ofrece resultados desde las 20 horas del tiempo del centro del país.

Sin embargo, el resultado oficial se basa en los cómpu­tos distritales de todas las actas de casilla realizados el 5 de julio en cada uno de los 300 distritos electorales. Finalmen­te, las cifras reportadas por estos cómputos sufren cambios o ajustes derivados de las impugnaciones, correcciones o can­celaciones aprobadas por el tepjf. Así, puede decirse que el resultado de los cómputos distritales de actas, inicia­dos el 5 de julio y reportados el día 6, también aproximan el resultado final oficial emitido por el tepjf. La fuente de información en este cómputo oficial es el acta de escrutinio y cómputo de cada casilla electoral.
 
Los ejercicios de conteo rápido para estimar, la noche de la elección, los porcentajes de votos en favor de cada par­tido contendiente, y por lo tanto del candidato ganador, son realizados con cierta regularidad, en los niveles nacio­nal, estatal, distrital y municipal, por instituciones guberna­mentales, no gubernamentales, empresas privadas y medios de comunicación.

Para las elecciones presidenciales de 2006 se efectuaron va­rios conteos rápidos, algunos públicos y otros no, con una diversidad de estrategias en cuanto al diseño muestral y al tamaño de muestra. Este tipo de ejercicios inició en 1994 para las elecciones presidenciales con la intención de ofre­cer resultados casi inmediatos a la sociedad. En ese año, fue­ron comisionadas por las autoridades federales tres em­presas independientes para realizar tres conteos rápidos, y los resultados no se presentaron al pú­blico. En las elec­ciones federales de 2000, nuevamente fue­ron comisio­nadas tres empresas independientes; pero esa vez se les en­comendó recolectar la información en las ca­sillas electo­rales correspondientes a tres muestras independientes y un comité técnico se encargó de procesar la información y obtener los valores estimados de los porcen­tajes de vota­ción en favor de cada partido o coalición; en aque­lla ocasión, los resultados fueron difundidos por el ife la misma noche de la elección. En 2006, por primera vez el ife realiza un conteo rápido de forma independiente y autónoma; todo el proceso lo realizó personal interno bajo la coordinación de un Comité técnico asesor para los con­teos rápi­dos (ctacr), el cual se encargó de diseñar la mues­tra y de pro­cesar la información recabada la noche de la elec­ción. A pesar de que se obtuvieron estimaciones puntuales de los porcentajes, dos de los intervalos de confiabi­lidad aso­cia­dos no se separaron por más de 0.006, margen acor­dado para poder proporcionar los resultados la misma noche. Por esta razón no se difundieron las cifras estimadas, sino solamente el aviso de que estadísticamente no era posible distinguir con un alto grado de confiabilidad a un candida­to ganador. Las estimaciones se hicieron públicas el día 3 de julio en conferencia de prensa.
 
Desde el punto de vista metodológico, el conteo rápido es un ejercicio que, basado en una muestra probabilística de resultados de casillas electorales, estima el porcentaje de vo­tos en favor de cada uno de los partidos o coaliciones con­tendientes. Esta estimación lleva asociada un error acotado en términos probabilísticos.
A
donde ˆPA es la estimación de PA; PA es la proporción de vo­tos en favor de un partido o coalición A; δ es la cota del error y α es un valor entre 0 y 1 que determina el nivel de confianza o el grado de incertidumbre de la estimación. El error depende directamente de la variabilidad de la ca­racte­rís­ti­ca de interés que pretende medirse en las unidades pobla­cionales, e inversamente del tamaño de la ­muestra.

Para determinar el diseño y la estimación de la cota al error, se hizo uso de los resultados por casilla registrados en el prep de las elecciones presidenciales del año 2000 —es­tos valores estimados aparecen en el cuadro 4. En la figura 1 se presentan gráficamente la información del prep 2000 y el desarrollo de las estimaciones clásicas del conteo rápido del mismo año.

Por su parte, las principales características del conteo rápido de 2006 son las siguientes: un marco muestral de 130 500 casillas contenidas en 300 distritos electorales y listadas en el padrón electoral; el diseño muestral es un muestreo estratificado simple de casillas; el tamaño y la distribución de muestra fue de 7 636 casillas en 481 estratos; el criterio de estratificación fue distrito y tipo de sección —urbana, no urbana—; la información en el campo fue recopilada por capacitadores asistentes electorales del ife; la unidad de observación fue la hoja de operaciones de cómputo de la casilla; la transmisión telefónica se efectuó hacia un centro de acopio distrital y luego, en forma electrónica, hacia una central de cómputo, donde se realizó el procesamiento, el análisis y la producción de las es­timaciones.
 
Fue un proceso largo, complejo y un trabajo de equipo coordinado. La información inicial viaja y se procesa para lle­gar hasta la conformación de una estimación final; en for­ma esquemática puede verse como sigue: voto → urna → con­teo de votos → hoja de operaciones de cómputo → ofi­cina distrital vía telefónica → oficina central vía elec­tró­nica → computadoras personales → procesamiento de la in­formación y generación de estimadores → análisis de con­sistencia y cotejo de resultados para alcanzar una conclusión → comunicación de resultados.

El conteo rápido, por ser de carácter institucional y cu­yos resultados serían la base de un comunicado difundido a la ciudadanía la misma noche de la elección, estuvo sujeto a acuerdos previos y a restricciones como guardar la confidencialidad de la muestra; realizar estimaciones por intervalos de cuando menos una confiabilidad de 95%; que para identificar un partido o coalición ganadora, los intervalos asociados a los porcentajes estimados de votos para los partidos mayoritarios deberán distar en al menos 0.6% (0.006); el ejercicio se realizaría entre las 18 y las 22:30 o 24 horas; y respetar el formato de comunicación de resultados aprobado por los consejeros electorales y los representantes de los partidos.

Los resultados numéricos

Las estimaciones presentadas se obtuvieron con tres méto­dos: el clásico, el bayesiano y el robusto. El cálculo se rea­lizó con base en la información recibida en la remesa de las 22:15 horas, donde se tenía resultados de 7 263 casillas dis­tribuidas en 480 estratos y en los 32 estados —estos ­datos se presentan en el cuadro 1, que además muestra los re­sul­tados procesados a partir de la base de datos de los cómpu­tos distritales, que esta disponible en forma electrónica en el portal del ife.
X
En las figuras 2 y 3 se ofrecen las gráficas que ilustran la evolución de las estimaciones para llegar hasta las esti­ma­ciones presentados en el cuadro 1. En la figura 4 se presen­ta la evolución del registro secuencial de resultados en el prep. Queremos comentar que los valores observados en las gráficas 2 y 3 correspondientes a horas tempranas, no pueden considerarse como estimaciones específicas, bási­camente por insuficiencia de la muestra. Sin embargo, el historial de las estimaciones para llegar al resultado repor­tado sirve de guía para tomar decisiones sobre la suficiencia de la muestra y la estabilidad en las estimaciones.
Y
La riqueza del conteo rápido 2006

El diseño muestral del conteo rápido, incluyendo el ta­ma­ño de la muestra, permitió generar estimaciones estadís­ti­ca­mente confiables para subpoblaciones de interés. Por ejem­plo, para la subpoblación contenida en los 28 distritos con alta presencia indígena, y para cada una de las cin­­co cir­cuns­cripciones. La primera circunscripción corres­ponde a Baja California, Baja California Sur, Chihuahua, Du­ran­go, Jalis­co, Nayarit, Sinaloa y Sonora; la segunda, Aguas­ca­­lientes, Coahuila, Guanajuato, Nuevo León, Querétaro, San Luis Potosí, Tamaulipas y Zacatecas; la tercera, Campeche, Chiapas, Oaxaca, Quintana Roo, Tabasco, Veracruz y Yuca­tán; la cuarta, el Distrito Federal, Guerrero, Morelos, Pue­bla y Tlaxcala; y la quinta, Colima, Hidalgo, Estado Mé­xico y Michoacán. El diseño muestral usado fue un diseño autopon­derado, con ajustes ligeros para evitar estratos muy pe­queños, lo cual hace que la información sea ro­busta cuando se emplean distintas técnicas de estimación, además, el tamaño y la distribución de la muestra fue lo suficientemente grande para poder obtener estimaciones en niveles más desagregados de la población. En los cuadros 2 y 3 se presenta información desagregada con estimaciones gene­radas bajo el método clásico.
 
En el cuadro 2 puede observarse las estimaciones gene­radas en el nivel de circunscripción, junto con los valores de los cómputos distritales del 5 de julio —esto se muestra gráficamente en la figura 5, mientras que en el cuadro 3 se presentan las estimaciones puntuales y por intervalo para la subpoblación conformada por los 28 distritos electorales con alta presencia de población indígena, y para su complemento contenido en los 272 distritos restantes.
 
Finalmente, aunque quizá sólo de interés metodoló­gico, en el cuadro 4 presentamos los errores esperados apro­xi­ma­dos, éstos son valores estimados en base con los resul­ta­dos por casilla reportados en el prep de 2000, y son aproximados porque existió una redistritación entre 2000 y 2006, por lo que el marco muestral o padrón electoral de 2000 difiere del correspondiente a 2006. Estos errores los contras­tamos con los errores estimados observados el día de la elec­ción, basados en la muestra del conteo rápido de 2006. Por último, una vez pasada la elección, y haciendo uso de los resultados por casillas de los cómputos distritales, se eva­lúa el error esperado, considerando el diseño muestral usado en el conteo rápido de 2006.

Comentarios


En general, la realización del conteo rápido resultó exi­toso y generó estimaciones muy cercanas a las reportadas con base en los registros del conteo distrital de actas, como pue­de constatarse al comparar los valores estimados con los valores reportados.
 
Es de esperarse que además del error de estimación del conteo rápido, que se acota desde el diseño bajo una medi­da de probabilidad y no de certeza, existen discrepancias respecto al resultado final oficial emitido por el tefpj, pues en esta instancia ocurren modificaciones al resultado emitido por los conteos distritales, las cuales son producto, como ya se señaló, de las modificaciones derivadas de im­pugnaciones, anulaciones o correcciones en los resultados de las actas.
 
Por otro lado, es un ejercicio estadístico que enriquece las formas de registro y de estimación para elecciones fu­turas, dejando constancia de un procedimiento con resultados obtenidos tanto de forma global como desagregada y que, junto con los registros electrónicos del prep y de los conteos distritales, son de gran utilidad, no sólo para la aca­demia, sino también para la ciudadanía interesada en ello, y desde luego para las instituciones encargadas de conducir las elecciones en cualquier nivel en el país.
Guillermina Eslava
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Agradecimientos
 
Todo este trabajo es parte, como ya lo indiqué, del proceso preparado y generado por el ctacr, su coordinador y personal del ife, a quienes expreso mi gratitud por la colaboración de equipo para la obtención de resultados. El Comité técnico asesor para los conteos rápidos estuvo conformado como sigue: Act. M. Cervera Flores (ip), Dra. G. Eslava Gómez (fc), Dr. R. Hernández Cid (itam), Dr. I. Méndez Ramírez (iimas), Dr. M. Mendoza Ramírez (itam); y fue coordinado por el Dr. A. Alonso y Co­ria (ife). Agradezco también al Dr. R. Mena Chávez (iimas), quien elaboró el programa de cómputo usado la noche de la elección para la generación de una de las tres estimaciones clásicas. Las gráficas presentadas en este trabajo fueron elaboradas por Gonzalo Pérez de la Cruz, pasante de actuaría de la Facultad de Ciencias, a quien agradezco su atenta colaboración. Finalmente agradezco al Dr. Ramón Peralta y Fabi, director de esta Facultad, por el apoyo durante el semestre que partici­pe en el ctacr y la invitación para escribir este tra­bajo.
Guillermina Eslava Gómez es Actuaria y Maestra en estadísticas por la unam, y Doctora en estadística por la Universidad de Oxford, Inglaterra. Actualmente es Profesora de Tiempo Completo de la Facultad de Ciencias, unam.
 _______________________________________________________________

como citar este artículo

Eslava, Guillermina. (2006). Las elecciones de 2006, un análisis del conteo rápido. Ciencias 84, octubre-diciembre, 30-37. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Incertidumbre y errores en las elecciones de julio de 2006
En este documento se analiza la base de datos del prep, y la de los Cómputos Distritales para estimar la magnitud de los errores esperados durante el conteo de los votos y se concluye que es mucho mayor que la diferencia final de votos entre Felipe Calderón y Andrés Manuel López Obrador.
W. Luis Mochán
conoce más del autor
 
     
HTML ↓  PDF Regresar al índiceartículo siguiente
     
     
 
Todo proceso de medición lleva aso­cia­do una incertidumbre. Por ejemplo, es imposible distinguir dos objetos mi­cros­cópicos, separados por una distan­cia menor a unas cuantas décimas de millonésima de metro, si para ello em­pleamos un microscopio óptico con­ven­cional, sin importar su calidad o per­fección. Esto es consecuencia del lí­mite de resolución que enunció ­Ernst Abbe en 1873 y está basado en carac­terísticas fundamentales de la luz, del mo­vimiento ondulatorio y sus propie­dades matemáticas. Las limitaciones fundamentales de algunos procesos de medición fueron reconocidas por Hei­sen­berg, quien enunció en 1927 su aho­ra famoso principio de incerti­dumbre.
 
A diferencia de otros procesos de me­dición, el proceso de contar pue­de rea­lizarse en forma esencialmen­te exac­ta. Sin embargo, para conseguir­lo se requiere una ausencia total de erro­res. En un proceso tan complica­do co­mo una elección federal, en cuyo con­teo intervienen cientos de miles o quizás millones de actores, ciudadanos ordinarios en su mayor parte, es prác­ticamente imposible que no se co­me­tan errores. Los funcionarios mejor ca­pacitados y más honestos cometen oca­sionalmente errores. Por lo tanto, es importante tener elementos que per­mitan evaluar los errores para aco­tar su importancia. Si el monto de los erro­res acumulados fuese significati­va­men­te menor que la diferencia entre el nú­me­ro de votos obtenido por los con­ten­dien­tes, simplemente podríamos igno­rar­los. Pero si fuera similar o si sobrepasaran dicha diferencia, re­sol­verlo sería una tarea imposible sin un recuento más cuidadoso en el que se iden­tifiquen y eliminen las fuentes de error en la medida de lo posible. De acuerdo con la sentencia sup-jin-212-2006-Inc2, y otras emitidas por el Tribunal Electoral del Poder Judicial de la Federación (tepjf), el día 5 de agosto de 2006: “Tener certeza sobre la to­ta­li­dad de los votos emitidos y el sentido de ellos adquiere relevancia en las elecciones democráticas para determi­nar al candidato electo, porque tanto los partidos contendientes como la so­ciedad en su conjunto, tienen mayor interés sobre la certidumbre de que el cómputo de los votos se llevó a cabo adecuadamente, y que en verdad la de­cisión mayoritaria es la que se advierte en un primer momento o si las po­si­bilidades de error en el cómputo de varias casillas pudieran llevar, luego de una verificación o recuento, en los términos previstos en la ley, a un resul­tado diferente”.
 
Afortunadamente, entre los datos electorales que recopila el Instituto Fe­deral Electoral (ife), y que los pone dis­ponibles a la ciudadanía, existen muchos que son redundantes; es decir, no son independientes entre sí, por lo que deben obedecer a una serie de constric­ciones, a pesar de ser obtenidos por se­parado. Por ejemplo, consideremos el número total de votos en una urna; éste puede obtenerse sumando los vo­tos que recibió cada candidato, los que recibieron los candidatos no registrados y los votos anulados. También se obtiene contando el numero de boletas depositadas en la urna. Otra forma de obtenerlo consiste en contar cuántos votantes se registraron, ya que cada uno de ellos debió, en principio, depo­si­tar una boleta en cada urna. El núme­ro de ciudadanos que votaron resulta del número de sellos que los funciona­rios de casilla deben estampar sobre la lista nominal para cada ciudadano que vota. Los tres métodos deberían arro­jar el mismo resultado. En algunas ocasiones excepcionales podría esperarse que no lo hicieran; quizás un elec­tor se llevó su boleta, por lo que el nú­mero de boletas es menor al número de sellos; o bien, el elector puede equi­vocarse y depositar su boleta en la ur­na equivocada, en cuyo caso en una ur­na sobrarían y en otra cercana falta­rían votos. Incluso, no es impensable que el elector confunda las urnas de su casilla con las de una contigua. Otra fuen­te de error es una suma mal reali­zada o una captura de datos incorrecta. No es inconcebible que hubiera otras fuentes de error, incluyendo manipulaciones dolosas de boletas, paquetes, actas y datos. En las mismas sentencias, el tepjf señaló: “La comparación de todos esos elementos sirve de control o candado para verificar la corres­pon­dencia del número de votos”.

La existencia de redundancia es in­dispensable para juzgar los resultados de una elección. En otros campos de la actividad humana la empleamos co­tidianamente. Por ejemplo, nuestra expresión facial y nuestro tono de voz suele mostrar alegría cuando damos una noticia particularmente buena o tristeza cuando comunicamos una ma­la. Si nuestro tono de voz o expresión facial fuera inconsistente con el mensaje que comunicamos, la persona con quien hablamos sospecharía que ha habido un malentendido e intentaría aclararlo. En forma similar, la comuni­cación entre dos computadoras requie­re redundancia para poder detectar y corregir errores que inevitablemente induce el ruido electromagnético en algunas transacciones.
 
Para evaluar la existencia y la mag­nitud de los posibles errores en un re­cuento, las actas de la elección contie­nen campos redundantes, los cuales deben ser llenados por los funcionarios de casilla y posteriormente captu­rados en los centros de acopio y trans­misión de datos. El entrenamiento que reciben los funcionarios pretende capa­citarlos para llenar estos campos, ade­más de los campos usuales sobre los votos recibidos por cada partido, alian­za o coalición.

El análisis de algunos de los errores evidentes que se desprenden de la in­for­mación puesta a disposición del pú­blico por el ife, permite sostener que los errores esperados en los resul­ta­dos de la elección son mucho mayo­res que el máximo error tolerable en una elec­ción tan cerrada. Por lo tanto, es indis­pen­sable volver a realizar un conteo de los votos de manera tal que disminuya significativamente el error esperado. De otro modo, no se cumpli­ría el re­qui­sito legal ni técnico de certeza. Re­cor­de­mos que el tepjf, en las sen­tencias men­cionadas, se basó en la definición que proporciona Guiller­mo Cabanellas en el Diccionario enciclopédico de derecho usual, que dice: “La certeza es la cla­ra, segura y firme convicción de la verdad; la ausencia de duda sobre un hecho o cosa”.

La noche de la elección

La noche de la elección, el ife pro­por­cio­nó los resultados parciales del Programa de Resultados Electorales Pre­limi­na­res (prep) a través de páginas web instaladas en varios servidores de cómpu­to. Mediante un pequeño programa, acumulé copias de las páginas publicadas en el sitio http://www.elec­ciones2006.unam.mx/prep2006/index contenido.html y las guardé en mi computadora. Alfonso Baqueiro hizo un programa similar y me envió copias de las páginas capturadas (ambos juegos de páginas están disponibles en http://em.fis.unam.mx/public/mo­chan/elecciones/prep y http://em.fis.unam.mx/public/mochan/elecciones/prep1).

Los datos obtenidos de estas páginas fueron empleados en la fase inicial de un análisis de la elección pre­si­den­cial, el cual puede consultarse en http://em.fis.unam.mx/public/mochan/elecciones/. Aquí voy a referirme únicamente a los errores evidentes que observé al analizar el número de votos por acta que en promedio ob­tuvo cada partido. Este número se con­siguió de la siguiente manera: pri­mero, con una serie de programas simples, extraje los datos relevantes del código html de cada una de las páginas captu­radas; después, armé un archivo con to­dos los datos ordenados de acuerdo con el número total de actas procesadas (http://em.fis.unam.mx/public/mochan/elecciones/diferenciasporcasilla.dat); finalmente, para cada dos registros consecutivos, resté los votos acumulados por cada candidato y divi­dí el resultado entre la diferencia del total de casillas procesadas.
 
En la figura 1 se muestran los resultados.
FIG1
Además del comportamiento de la votación recibida por cada can­didato y de ciertas peculiaridades que requieren ser explicadas (http://em.fis.unam.mx/public/mochan/elec­cio­nes/), aparece una serie de errores evi­dentes cerca del final de la vota­ción, cuando se han procesado cerca de 128 000 casillas. La gráfica muestra una serie de oscilaciones violentas de magnitud tan grande que se salen de la escala de la figura, alcanzando valores mayores a 6 000, y por otro lado, toman­do valores negativos menores a –1 000. Estos resultados, evidentemente erró­neos, fueron consecuencia de una ma­nipulación en el reporte de resultados del prep como se muestra a continuación. En el cuadro 1 se ilustran algunos de los datos obtenidos el día 3 de julio, directamente de las páginas web que reportaron los resultados del prep al término de la elección (http://www.elecciones2006.unam.mx/prep2006/index contenido.html).
FIG2
De acuerdo con los primeros dos renglones de di­cha ta­bla, en cada una de las tres actas re­cibidas después del acta número 127 710, Felipe Calderón (fc) obtuvo en promedio 1 825 votos, Roberto Ma­dra­zo (rm) 6 657 votos y Andrés Manuel Ló­pez Obrador (amlo) 1 216 votos. Si­milarmente, los renglones tercero y cuar­to muestran que en las ocho actas recibidas después de haber procesado 127 724 casillas, fc recibió un promedio de 605 votos negativos, rm 2 416 y amlo 501 votos negativos. Estos núme­ros, así como otros no mostrados por la tabla, son absurdos. Sin embargo, su explicación es sencilla. Observando la última columna, la cual muestra la ho­ra en la que se preparó cada reporte, no­tamos que los renglones de la ta­bla no están ordenados cronológicamen­te. Por ejemplo, a las 12:39 se ha­bían pro­cesado 127 772 casillas y una hora des­pués, a las 13:50, se habían procesado 127 713 casillas; es decir, se elimi­na­ron del reporte no menos de 59 ca­si­llas procesadas con anterioridad. En la figu­ra 2 se muestran los reportes del prep correspondientes. Aparentemen­te, es­te error está relacionado con la eli­mi­na­ción de los votos provenientes del ex­tranjero, los cuales regresaron más tarde, generando otra serie de errores. Aun corrigiendo las actas me­dian­te la incorporación de los votos del extranjero (Rici Lake, http://em.fis.unam.mx/public/mochan/elecciones/archivos/msg00494.html), quedan erro­res en el reporte de los datos.
FIG3
Figura 2. Reporte del prep en tiempo real.

Es importante hacer notar que las ano­malías señaladas en esta sección son errores en el reporte del prep, no en la captura de los datos. Por lo tanto, no tienen una incidencia directa en los resultados de la elección. De hecho, po­dría considerarse que estos erro­res son inofensivos. Cometer errores es hu­mano, así como admitirlos, co­rre­gir­los y explicarlos, hubiera sido una mues­tra de decencia. Sin embargo, en vez de ello, se ha realizado una in­ten­sa campaña de propaganda con el pro­pó­si­to de sembrar, a fuerza de repetición, la noción de que todos los aspectos del proceso electoral fueron impecables y perfectos. Ante esto, es importante en­fa­tizar que: 1) el reporte del prep pre­sen­tó errores obvios como los aquí do­­cumentados; 2) dichos errores muestran la capacidad de funcionarios del ife de interferir con el funcionamiento de las computadoras que elaboraron esos reportes, añadiendo, eliminando y modificando datos; 3) el sistema de cómputo del ife, o al menos la parte en­cargada de reportar los resultados del prep, no es robusto y su funciona­mien­to puede ser interferido; y 4) la ausencia de una explicación de estas anomalías y la enorme campaña de pro­paganda pretendiendo inducir la noción de un proceso perfecto no pue­de más que generar una actitud de des­confianza en cuanto a las otras etapas del proceso electoral.

La base de datos del prep
Unos días después de la elección, el ife liberó una serie de bases de datos don­de se reportan los resultados del prep, las cuales estuvieron disponibles en di­versos sitios de la red. Inicialmen­te, uti­licé una tomada de http://prep2006.grc.com.mx/extraccion-serv­lets/presidente.txt, donde parece ya no estar accesible. Sin embargo, en http:// em.fis.unam.mx/public/mochan/elec­ciones/fullprep.txt monté una co­pia. Ver­siones posteriores y más com­ple­tas —por ejemplo, con campos adi­cio­na­les— de las mismas bases de datos es­tán disponibles en http://www.ife.org.mx/documentos/proceso 2005-2006/prep2006/bd prep2006/bd prep2006.htm, a través del sitio oficial del ife (http://www.ife.org.mx/). De un análi­sis de la base de datos de las actas con­tabilizadas en el prep para la elección presidencial (http://www.ife.org.mx/documentos/proceso 2005-2006/prep2006/bd prep2006/bd prep2006.htm), se desprende que:

1. Contiene 117 287 registros.

2. Están ausentes 13 201 registros ne­cesarios para completar las 130 488 casillas instaladas —excluyendo las co­rrespondientes al voto en el extranjero— y otros 300 registros para incluir los resultados del voto en el extranjero. Existen muchos motivos para expli­car estas ausencias, el principal es la detec­ción de inconsistencias que impidió con­tabilizar dichas actas en el prep.
 
3. Entre los registros que sí están pre­sentes en la base de datos, hay 24 148 incompletos. En estos, hay 31 302 campos numéricos que se dejaron vacíos. En el cuadro 2 se muestran los campos ausentes y el número de veces que quedaron vacíos.
FIG4
4. Los campos ausentes en los re­gis­tros correspondientes a las actas que sí fueron contabilizadas en el prep son aque­llos que aparentemente no afec­tan directamente el resultado de la elec­ción, porque no se referían a la vo­tación obtenida por ninguno de los can­di­da­tos registrados. Las actas con cam­pos au­sentes que sí afectaban directa­mente el resultado de la elección fueron re­gis­tradas en otras bases de datos. Sin em­bar­go, es indispensable enfatizar que los campos ausentes en las actas que sí fueron contabilizadas en el prep son pre­cisamente aquellos que proveen la re­dundancia necesaria para permitir verificar si hubo o no errores o irregu­la­ridades en la casilla correspondiente. En ausencia de dichos campos es im­po­sible aplicar las pruebas de consistencia diseñadas para identificar errores o manipulaciones en los resultados elec­torales. De esa manera, no hay forma de saber si los campos que sí están pre­sentes en dichas actas son correctos, son erróneos o son fabricados.
 
5. Por lo tanto, hay 24 148 registros que corresponden a 21% de las actas con­tabilizadas en el prep y 18% del to­tal de actas de la elección presidencial donde no se pueden aplicar las diversas pruebas de consistencia.

6. En 8 153 de ellos —6% del total— es imposible saber si el número de bo­letas depositadas en la urna es mayor o menor al número de boletas recibidas menos el número de boletas so­bran­tes. Por lo tanto, no podemos sa­ber si en las casillas correspondientes hubo ciu­dadanos que —ilegalmente— se lle­varon boletas que debían haber deposi­tado en las urnas, o si hubo boletas sus­traídas o añadidas de manera irregular.

7. En 19 497 registros —15% del to­tal— es imposible saber si el número de votos contabilizados corresponde al número de ciudadanos que votaron, pues falta este último dato o falta el nú­mero de votos anulados o para candida­tos no registrados, por lo cual el núme­ro total de votos es incierto.
 
8. En 9 862 registros —8% del total— es imposible saber si el número de boletas depositadas en la urna corresponde al número de ciudadanos que votaron, pues algunos de los campos correspondientes están ausentes.

9. En 22 147 registros —19% del to­tal— es imposible saber si el número de votos contabilizados corresponde al número de boletas depositadas en la ur­na, pues falta este último dato o igual para el nú­mero de votos anulados y pa­ra candi­datos no registrados.

10. En algunos registros es imposi­ble aplicar más de una de las pruebas pre­vias. Es por ello que la suma de re­­gis­tros —8 153 + 19 497 + 9 862 + 22 147 = 59 659— con diversos tipos de campos ausentes supera al total de registros —24 148— incompletos.

11. De los 109 134 registros donde sí se puede comparar el número de bo­letas depositadas en la urna con el nú­mero de boletas recibidas y el nú­mero de boletas sobrantes, hay 17 465 (16%) en los cuales el número de boletas de­positadas es mayor en 788 077 a la res­ta del número de boletas recibidas me­nos el número de boletas sobrantes. Es decir, en promedio sobran 45 bo­letas en cada una de estas urnas. También hay 32 758 registros (30%) donde el nú­mero de boletas depositadas es menor en 716 489 a la resta del número de bo­letas recibidas menos el número de bo­letas sobrantes. Es decir, en promedio faltan 22 boletas en cada una de es­tas urnas. En total hay 50 223 casillas (46%) con este tipo de error, el cual involucra 1 504 566 boletas. Restando las boletas que faltan de las boletas que sobran, obtenemos un exceso neto de 71 588 boletas.
 
12. De los 97 790 registros donde sí se puede comparar el número de vo­tos contabilizados con el número de ciu­da­danos que votaron, hay 22 419 re­­gis­tros (23%) en los que el número de vo­tos su­pera en 719 857 al número de ciu­da­danos que votaron. Es decir, en promedio sobran 32 votos en cada una de estas casillas. También hay 22 391 registros (23%) en los cuales el núme­ro de votos contabilizados es menor en 1 043 907 al número de ciudadanos que votaron. Es decir, en promedio fal­tan 47 votos en cada una de estas casillas. En total hay 44 810 registros (46%) con este tipo de error, el cual involucra 1 763 764 votos. Restando los votos que faltan de los votos que sobran obtenemos una deficiencia de 324 050 votos.13. De los 107 425 registros donde sí es posible saber si el número de bo­le­tas depositadas en la urna co­rres­pon­de al número de ciudadanos que vo­taron, hay 17 681 (16%) en las que el nú­mero de boletas supera en 876 422 el número de ciudadanos que votaron. Es decir, en promedio sobran 50 boletas de­posi­tadas en cada urna. También hay 26 342 registros (25%) en los que el número de boletas depositadas es menor en 1 474 589 al número de ciudadanos que votaron. Es decir, en pro­medio faltan 56 boletas en cada urna. En total, hay 44 023 registros (41%) con este tipo de inconsistencia, la cual in­volucra 2 351 011 boletas. Restando las boletas que faltan de las que sobran obtenemos una deficiencia de 589 167 ­boletas.

14. De los 95 140 registros en los que sí se puede comparar el número total de votos contabilizados con el nú­mero de boletas depositadas en las ur­nas, hay 17 889 (19%) en los cuales el numero total de votos es superior en 457 415 al número de boletas depositadas. Es decir, en promedio hubo 26 vo­tos contabilizados por casilla que no corresponden a boletas depositadas en la urna. También hay 9 357 registros (10%) en los que el número total de vo­tos es inferior en 230 927 al número de boletas depositadas. Es decir, en pro­medio hubo 25 boletas depositadas que no fueron contabilizadas por cada una de estas casillas. En total, hay 27 256 re­gistros (29%) que muestran este ti­po de inconsistencia, la cual involucra 688 342 votos. Restando los votos faltantes de los sobrantes obtenemos un exceso de 226 448 votos por arriba del número de boletas depositadas.

Estos resultados están resumidos en el cuadro 3. Como puede apreciarse, todas las inconsistencias verificables involucran cientos de miles o in­cluso millones de boletas.
FIG5
Existen algunas explicaciones ten­ta­tivas para algunas de estas in­con­sis­ten­cias, las cuales es indispensable eva­luar. Por ejemplo, no es inconcebible que un número importante de ciudada­nos se hubiera equivocado en aquellas secciones que contenían casillas contiguas, además de una básica, depositando su boleta en la urna que no le co­rrespondía. Este error, aparentemen­te inofensivo —lo que sobraría en una casilla faltaría en la vecina— es fácil de eliminar de la cuenta de inconsistencias si se realizan las pruebas ante­rio­res no de manera individual, casilla por casilla, sino de forma agregada, sec­ción por sección. Así, la confusión se eliminaría al sumar los datos de, diga­mos, una casilla básica con los de sus casillas contiguas. Si quedan errores, sería necesario encontrar explicaciones alternativas.

En la base de datos de las actas que fueron procesadas y contabilizadas en el prep hay datos de 59 084 secciones. Apliqué las pruebas anteriores pa­ra aquellas secciones cuyos registros con­tenían información suficiente. Es decir, si un registro de una sección no es verificable, considero toda la sección como no verificable. Por lo tanto, los si­guientes datos se refieren a un núme­ro ligeramente menor de casillas que los datos ­previos.
 
De las 51 538 secciones en las que se puede comparar el número de bole­tas depositadas en las urnas con el nú­mero de boletas recibidas y el número de boletas sobrantes, hay 8 299 (16%) en las cuales el número de boletas de­positadas supera en 632 682 a la resta del número de boletas recibidas menos el número de boletas sobrantes. Es de­cir, en promedio sobran 76 boletas en las urnas de cada una de estas secciones. También hay 19 117 secciones (37%) en donde el número de bo­letas depositadas es menor en 580 875 a la resta del número de boletas recibi­das menos el número de boletas so­bran­tes. Es decir, en promedio faltó de­po­sitar 30 boletas en las urnas por cada una de estas secciones. En total, hay 27 416 sec­ciones (53%) con este tipo de error, el cual involucra 1 213 557 boletas. Restan­do las boletas que faltan de las boletas que sobran, obtenemos un exceso ne­to de 51 807 boletas depositadas en las urnas.

De las 42 093 secciones en las cua­les se puede comparar el número total de votos contabilizados con el número de ciudadanos que votaron, hay 11 209 (27%) en las que los vo­tos supera en 517 866 el número de ciudadanos que votaron. Es decir, en pro­medio sobran 46 votos en cada una de estas sec­ciones. También hay 11 289 secciones (27%) en las que el núme­ro de vo­tos contabilizados es menor en 761 954 al número de ciudadanos que vo­ta­ron. Es decir, en promedio faltan 67 votos en cada una de estas secciones. En to­tal, hay 22 498 secciones (53%) con es­te tipo de error, el cual involucra 1 279 820 votos. Restando los votos que faltan de los que sobran obtenemos una deficiencia de 244 088 votos.

De las 50 035 secciones en las que es posible confirmar si el número de bo­letas depositadas en la urna corres­pon­de al número de ciudadanos que vo­taron, hay 9 312 (19%) en las que el número de boletas supera en 685 298 el número de votantes. Es decir, en pro­medio sobran 74 boletas depositadas en las urnas de cada una de estas sec­cio­nes. También hay 15 838 secciones (32%) en las cuales el numero de bole­tas depositadas es menor en 1 213 921 al número de ciudadanos que votaron. Es decir, en promedio faltan 77 boletas depositadas en las urnas que conforman cada sección. En total hay 25 150 secciones (50%) con este tipo de incon­sistencia, la cual involucra 1 899 219 bo­letas. Restando las boletas que faltan de las que sobran obtenemos una defi­ciencia de 528 623 boletas.

De las 40 057 secciones en las que se puede comparar el número total de votos con el número de boletas depositadas en las urnas, hay 11 039 (28%) en las que el número de votos contabilizados supera en 345 112 el número de boletas depositadas. Es decir, en pro­medio hay 31 votos contabilizados por cada sección sin que correspondan a ninguna boleta depositada en las urnas correspondientes. También hay 5 508 secciones (14%) en las que número de boletas depositadas supera en 156 094 al número total de votos. Es decir, en pro­medio hubo 28 boletas depositadas que no fueron contabilizadas en ca­da una de estas secciones. En total, hay 16 547 secciones (41%) que muestran es­te tipo de inconsistencia, la cual in­vo­lucra 501 206 votos. Restando los vo­tos faltantes de los sobrantes obtene­mos que el número de votos contabili­zados supera en 189 018 al número de boletas depositadas en las urnas.

Los resultados anteriores están re­su­midos en el cuadro 4, y muestra que, aun agregando los datos por secciones, los errores e inconsistencias per­sis­ten, disminuyen marginalmente su ta­ma­ño, pero continúan involucrando cientos de miles e incluso millones de boletas, votos, votantes.
FIG6
Debo enfatizar que los datos presentados arriba son co­tas inferiores al número de inconsis­tencias, pues hubo numerosos regis­tros y secciones en las que no se pudie­ron aplicar las pruebas.

Existen muchas otras anomalías en las bases de datos del prep, como 127 re­gistros de casillas no especiales en los cuales el total de ciudadanos que vo­taron (total_ciudadanos_votaron) supera en más de 10 a la lista nominal. Otro tipo de errores se pone de manifiesto al observar la hora de recepción en los Centros de acopio y transmisión de datos (cedat), que arroja datos de 68 casillas recibidas el día anterior de la elección y 1 278 casillas recibidas el día de la elección pero antes del cierre. Es­tos y muchos otros errores y anomalías en el prep están descritos en http://em.fis.unam.mx/public/mochan/elecciones/ y en http://analisis.elec­cio­nes2006.unam.mx/index.php, así co­mo en los trabajos ahí referidos.

Los Cómputos Distritales

El miércoles 5 de julio del 2006, se ini­ciaron las sesiones de los Cómputos Distritales (cd) en cada uno de los 300 Consejos Distritales. El 13 de julio con­seguí las bases de datos del mismo pu­blicadas por el ife en http://www.ife.org.mx/documentos/computos2006/bd computos06.htm. Desgraciadamen­te, dichas bases no contienen los cam­pos redundantes que permitirían verificar la consistencia de los datos que contienen. Por ejemplo, no mencionan el número de boletas depositadas en las urnas —que era el campo llama­do num_boletas_depositadas en las ba­ses de datos del prep—, número de bo­letas recibidas —num_boletas_recibidas—, número de boletas sobrantes —num_boletas_sobrantes—, ni el número de ciudadanos registrados como votantes —total_ciudadanos_votaron. Por lo tanto, es imposible verificar si las in­con­sistencias descritas en la sección anterior fueron corregidas durante el recuento. Sin embargo, puede hacerse un análisis somero del contenido de la base de datos y de su comparación con la del prep.
 
A pesar de que los cd no tienen las fuertes constricciones de tiempo impuestas sobre el prep, y que en ellos deben eliminarse todas las ambigüeda­des, su resultado no es impecable, co­mo muestra el hecho de haber 311 re­gistros con campos en blanco —tipo _acta, paquete_entregado y casilla_instalada.
 
Otra muestra de descuido son los 20 registros —14 de Oaxaca, 2 del Esta­do de México, 2 de Guerrero, 1 de Ba­ja California y 1 de Hidalgo— en los que el total de votos por presidente fue nulo: no hubo votos por ningún partido, alianza o coalición, no hubo votos por ningún candidato independiente y no hubo votos anulados.
 
La base de datos de los cd para la elec­ción de presidente contiene 13 501 actas que no se habían contabilizado en el prep. Los resultados en estas actas son notablemente distintos de los resultados globales —por ejemplo, el pan baja a 31.02%, la apm sube a 30.86% y la cpbt permanece casi invariante con 35.59% de los ­votos.

Los registros que están presentes tanto en la base de datos de los cd co­mo en la del prep difieren únicamente en 4 151 registros.

De entre estos registros, sólo hay 1 243 en donde se modifica el número de votos obtenido por el pan, 1 278 en los que se modificaron resultados pa­ra la apm y 1 458 que afectaron a la cpbt. Un análisis estadístico (http://em.fis.unam.mx/public/mochan/elecciones/) de los cambios que afectaron a ca­da partido muestra que son incompa­tibles —probabilidad menor a 10–17— con la hipótesis de una simple corrección de errores accidentales sin sesgo.

De acuerdo con el ife, sólo se abrie­ron 2 873 paquetes durante los cd. Es in­sólito que, con tantas inconsistencias en la base de datos del prep, su revisión al preparar la base de datos de los cd afectara tan pocos registros. Como se eliminó la redundancia que permitiría revisar la existencia de inconsistencias, no hay más remedio que dar por hecho que las inconsistencias en los cd son del mismo orden de magni­tud que la que hubo en el prep; es de­cir, hay decenas de miles de casillas, más de 50% del total, en donde existen inconsistencias que involucran millones de votos.

Conclusiones

Este trabajo muestra que hubo errores y manipulación en el sistema de cómpu­to encargado de reportar los re­sultados del prep en tiempo real durante la noche de la elección y al día siguiente.
También muestra que hay un gran nú­mero de inconsistencias en las actas del prep, tal y como fueron reporta­das en las bases de datos hechas pú­bli­cas por el ife. Con frecuencia, el número de boletas depositadas en las urnas no fue consistente con el núme­ro de boletas sobrantes; el número de boletas recibidas y el número de votos no coin­cidió con el número de ciu­da­danos que votaron, el número de bo­letas deposi­tadas difirió del número de ciudadanos que votaron o del nú­mero de votos con­tabilizados. Cada tipo de error abarca decenas de miles de casi­llas e involucra cientos de miles y, en ocasiones, millones de votos. La magnitud de los errores, distribuidos en aproximadamente la mitad de las más de 130 000 casillas, supera varias veces la diferencia entre el número de votos obtenido por el pan y por la cpbt.

Es probable que muchas de las inconsistencias tengan su origen en sim­ples errores humanos cometidos sin dolo. Una explicación sobre la cual se ha especulado consiste en la confusión de algunos ciudadanos ante la cercanía de las casillas básicas y contiguas de la misma sección. Como parte de es­te trabajo verifiqué que dicha confu­sión pudo producir parte de las incon­sis­tencias, pero que es insuficiente pa­ra explicar su magnitud, la cual no de­crece significativamente al agregar datos por sección.

Otros errores pudieron originarse en simples confusiones de los fun­cio­na­rios electorales al momento de llenar las actas. Probablemente el proce­so fue complicado y la capacitación insufi­cien­te. Por ejemplo, hay alrededor de 1 000 registros donde coinciden las bo­le­tas sobrantes con las recibidas y al­re­de­dor de 600 donde coinciden las de­po­si­ta­das con las recibidas. Seguramente, los funcionarios de esas casillas no supieron diferenciar los campos correspondientes de las actas. De nuevo, este tipo de confusiones no lo­gra explicar la magnitud de los errores. Por otro lado, no deben descartarse a priori otras explicaciones menos inocentes.
Las fallas evidentes en el prep de­bie­ron corregirse de oficio durante los Cómputos Distritales. Sin embargo, el número de paquetes electorales revisados en los cd y el número de actas en las que se registraron cambios es mu­cho menor al número de inconsistencias del prep, evidencia de que la ma­yor parte de ellas no fueron corregidas. Desgraciadamente, las bases de datos de los cd no contienen los campos redundantes que permitirían verificar esta afirmación.

En resumen, he presentado errores e inconsistencias evidentes en va­rias de las etapas de la elección presidencial de julio de 2006. El análisis ha de­jado de lado las anomalías en los resul­tados electorales, en su comporta­miento estadístico y en la evolución tem­poral de su captura durante el prep y durante los Cómputos Distritales, los cuales son temas relativamente con­troversiales que requieren cierto grado de interpretación.

Muchos de los análisis relacionados con dichos aspec­tos pueden hallar­se en http://em.fis.unam.mx/public/mo­chan/elecciones/ y http://analisis.elec­ciones2006.unam.mx/index.php. En cambio, los re­sultados aquí pre­sen­ta­dos pueden considerarse co­mo simples datos ­duros.

Independientemente de su origen, los errores e inconsistencias hallados son tan grandes que mientras no se eli­minen, impedirán designar con cer­teza un ganador de la contienda electoral. Ante una medición que resultó no tener la suficiente resolución, no veo otra alternativa más que realizar otra medición, esta vez más fina. Es indispensable realizar un recuento to­tal para poder resolver la elección.
W. Luis Mochán
Centro de Ciencias Físicas,
Universidad Nacional Autónoma de México.
Nota
Este texto fue publicado en Internet el 27 de agosto de 2006 en el sitio http://em.fis.unam.mx/public/mochan/elecciones/paperMochan.pdf
W. Luis Mochán Backal es Doctor en Ciencias (Física) de la Facultad de Ciencias, unam. Actualmente es investigador titular C Catedrático ii-unam, profesor de la Facultad de Ciencias de la Universidad Autónoma del Estado de Morelos y Nivel III del sni.
_______________________________________________________________

 

como citar este artículo

Mochán, W. Luis. (2006). Incertidumbre y errores en las elecciones de 2006. Ciencias 84, octubre-diciembre, 38-49. [En línea]
  ←Regresar al índiceartículo siguiente→
  1 12  
  bibliofilia  
La vida en los desiertos mexicanos
 
 
Patricia Magaña
conoce más del autor
   
       
HTML ↓ PDF
       
       
 
Esparcidas en todas las regio­nes del mundo, las tierras áridas ocupan alrededor de 12% de la superficie continental y, a pesar del enorme esfuerzo y las grandes carencias que significa vivir en un desierto, casi 500 millones de personas habitan estas áreas del mun­do. Por ello, la Organización de las Naciones Unidas y el Pro­grama de Naciones Uni­das para el Medio Ambien­te realizan esfuerzos para el es­tudio de estos ecosistemas, enfocado en su conservación y en la creación de alternativas productivas para los habi­tan­tes de estas zonas.

En general, los desiertos es­tán marcados por una aridez crónica; es decir, una per­sistente falta de humedad en la atmósfera y en el suelo. La escasa precipitación, menor que la pérdida potencial de agua mediante la evaporación y la transpiración de las plantas, genera la aridez. Además, en muchos casos las tempera­turas son muy altas durante el día y caen rápidamente en la noche. Para afrontar estas condiciones, los organismos del desierto han desarrollado, por medio de procesos evolu­tivos, adaptaciones notables que les permiten sobrevivir.

La palabra desierto, según la Real Academia de la Lengua, significa un sitio despo­bla­­do, solo e inhabitado. En con­traste, el libro La vida en los desiertos mexicanos del Dr. Héctor Hernández, define los desiertos, particularmen­te los de climas cálidos, como “sistemas ecológicos comple­jos, ricos en organismos que interaccionan entre sí y con su medio físico”. El autor se­ña­la que “hablar de los desier­tos es hablar de un fascinante repertorio de plantas y ani­ma­les con adaptaciones inusua­les, en donde la evolución biológi­ca ha sido creativa; es hablar de especies geográficamente restringidas al extremo, de for­mas de vida extraordinarias y de interacciones ecológicas únicas”. Además, añade que en el caso de México, la rica biodiversidad de los desiertos contradice el viejo estereotipo que percibe estos ecosistemas como tierras desoladas, estériles y desprovistas de ma­nifestaciones de vida.

En el área de Norteamé­­ri­ca existen cuatro enormes regiones desérticas: los desiertos de la Gran Cuenca, el de Mojave, el Sonorense y el Chi­huahuense. En México, casi 50% del territorio es árido o se­miárido, la mayor parte en los desiertos Chihuahuense y Sonorense, y una región ­semiárida relativamente pe­que­ña: el complejo del Valle de Te­huacán-Cuicatlán, ubicado en­tre los estados de Puebla y Oaxaca.

La primera parte del libro del Dr. Hernández, el cual con­tribuye a que los estudiantes y el público en general aprecien y conserven estas regiones, trata el tema de la adaptación. Comienza por las plan­tas, que son capaces de sobrevivir los periodos secos en un estado latente o tienen algún me­ca­nis­mo para enfrentar las bajas con­diciones de humedad. Así, las plantas desérticas han ­de­sarrollado suculencia, raíces verticales profundas, es­pinas, modificaciones fisiológicas, par­ticularmente los dis­tintos tipos de metabolismo fotosintético, o ciclos de vida cortos. Muchos animales, al igual que las plantas, también poseen adaptaciones tan­to físicas co­mo conductuales, que les per­miten enfrentar las variaciones de temperatura y la baja dispo­nibilidad de agua.

Más adelante, el libro nos introduce en la historia natural de los desiertos, incluyendo su historia climática, sus carac­terísticas ecológicas contemporáneas y la descripción de sus subregiones, de los tipos de vegetación y de la biodiver­sidad.

Particularmente interesan­te, y era de esperarse ya que es una de las áreas de espe­cia­lización del autor, resulta la descripción de la diversidad de cactáceas. La familia Cactaceae es americana, con alre­dedor de 1 500 especies. Mé­xico se distingue por ser el mayor centro de riqueza de es­pecies en el mundo, con 50 géneros y más de 550 especies, la mayoría endémicas. Desgraciadamente muchas de ellas están en riesgo por el intenso saqueo al que se les somete. El autor hace un deta­llado análisis del fenómeno de las colecciones de cactáceas en el mundo y de sus efectos sobre las poblaciones naturales.

En las zonas áridas, también los suelos son muy he­tero­géneos. Recientemente, cre­ció el interés por su estudio dada la importancia de las costras biológicas, sea por su funcionamiento, por la interac­ción de distintos tipos de organismos, su influencia en la infiltración del agua o su apor­tación de nutrimentos al suelo. Aunado a ello, pueden con­vertirse en sitios seguros para la germinación de semillas. Sin embargo, la gran sensibilidad al disturbio de las costras del suelo y su lenta re­cu­pe­ra­ción hacen necesario profundizar en el conocimiento de su desarrollo y de sus in­terac­cio­nes, así como de las condicio­nes que las mo­difican.

La segunda mitad del libro la dedica a la presencia hu­ma­na en las zonas desérticas, des­de su historia hasta los dis­tintos usos que hacen de las plantas. Casi al término de la sección, el autor se pregunta ¿es sustentable la utilización de los recursos del desierto? Responde positivamente, siem­pre y cuando se modifiquen las prácticas tradicionales de extracción y se incrementen las actividades de investigación interdisciplinaria sobre los recursos potenciales, in­clu­yendo estudios agronómicos que conduzcan a la domesticación de muchas de las especies. Además, será fun­da­mental involucrar a los pro­duc­tores en proyectos de industrialización que vayan más allá de la extracción de los re­cursos.

En un pequeño apartado fi­nal, el autor se aboca al con­trovertido y no resuelto tema de la conservación. Afirma que, aunque la declaración de áreas naturales protegidas es la forma más directa y efec­tiva de conservar la riqueza bio­ló­gica, hace falta ampliar el estu­dio desde diversas dis­ciplinas para definir con criterios científicos las áreas y los mecanis­mos de protección que requie­ren los ecosistemas y algunos organismos en específico.

Por otra parte, aunque el autor no toca los procesos de desertificación, es bueno se­ña­lar que representan la de­gra­dación de las tierras áridas, se­miáridas y zonas subhúmedas secas, causada, principal­men­te, por las actividades ­hu­ma­nas y las variaciones cli­máticas. La desertificación no es la expansión de los desiertos existentes, se presenta por­que los ecosistemas de las tierras áridas son extremadamente vulnerables frente a la sobreexplotación y el uso inapropiado de la tierra. Tal co­mo lo definió la Convención de las Naciones Unidas de Lu­cha contra la Desertificación, “combatir la desertificación es esencial para asegurar la productividad a largo plazo de las zonas no pobladas de las tierras áridas […] con una acción efectiva a través de programas locales innovadores y cooperación internacional de apoyo […] la batalla para proteger las tierras áridas se­rá muy larga —no habrá una so­lución inmediata. Ello se de­be a que las causas de la desertificación son muchas y complejas, y habrá que trabajar para lograr cambios”.

El 5 de junio se celebró el  Día Mundial del Medio Am­bien­te. El lema de este año, de­­nominado Año Internacional de los Desiertos y la De­ser­ti­ficación, es “¡No abandones los de­siertos!”, lo que en pa­labras de Kofi Annan se refiere a la im­portancia de cuidar las vastas extensiones de tierras áridas y semiáridas del mundo.
La vida en los desiertos mexicanos. Hernández M. H.
La ciencia para todos. Fondo de Cultura Económica.
México, 2006. 188 p.

Patricia Magaña Rueda
Facultad de Ciencias,
Universidad Nacional Autónoma de México.

_______________________________________________________________

 

como citar este artículo

 

Magaña Rueda, Patricia. (2006). La vida en los desiertos mexicanos. Ciencias 84, octubre-diciembre, 76-78. [En línea]

  ←Regresar al índice
  1 12  
  de la red  
Los avatares de un hoyo negro
 
 
Susana Biro
conoce más del autor
   
       
HTML ↓
PDF Regresar al índiceartículo siguiente
       
       
Cuando consultamos una pá­gi­na en la red, normalmente nos fijamos en el individuo o la ins­ti­tución que la generó, pero ca­si nunca vemos la sección de créditos. Dentro de las infinitas maneras que hay de recorrer esta red de redes, una mirada tras bambalinas para conocer cómo se armaron las páginas puede condu­cirnos por caminos muy interesantes. Un buen ejemplo es la página sobre hoyos negros que se encuentra en el sitio de difusión del Telescopio Espacial Hubble (hubblesite.org/explore_astronomy/). En su sección Discoveries, encontramos una atractiva ilustración del entorno de un hoyo negro y al entrar en ese tema tenemos la alternativa de jugar con un programa interactivo o consultar una enciclopedia para conocer el fascinante mundo de estos objetos tan masivos que ni siquiera dejan escapar la luz. Si después de jugar con ambas minas de información, observamos los créditos, encontraremos algunas cosas evidentes y otras no tanto.

Como es de esperar, la página fue diseñada por especialistas en el tema científico junto con expertos en el manejo de los medios visuales. Además, tras haber recorrido la página, no sorprende que haya obtenido el Premio Pirelli para multimedia en comunicación de la ciencia y la tecnología. Lo que sí llama la atención es la cantidad y variedad de fuentes de las imágenes utilizadas. Y la sorpresa más agradable es encontrar que en los créditos para la imagen de la entrada se agradece al doctor Wolf­gang Steffen y al grupo Cosmovisión de Guadalajara, en México. Podríamos preguntarnos ¿cómo llegó una imagen desde Guadalajara hasta las páginas del Hubble, y por lo tanto a todo el mundo?

Hoy, la respuesta se obtie­ne en Baja California, pues el doctor Steffen trabaja en la se­de de Ensenada del Instituto de Astronomía de la unam (www.astrosen.unam.mx/~wsteffen/). Wolfgang es de origen alemán y trabajó un tiempo en la Universidad de Guadalajara. Se especializó en hacer simulaciones por computadora de objetos astronómicos gaseosos, como las nebulosas planetarias, y en el camino de su trabajo encontró que necesitaba una po­derosa herramienta para visua­lizar mejor los objetos teóricos que estudiaba y para realizar comparaciones con las obser­vaciones de los objetos reales. Aunque en la comunidad astronómica existen algunos programas sencillos que ayudan en esta dirección, él quería más, y por eso desarrolló el programa Shape, que permite modelar cuerpos co­mo una nebulosa planetaria y luego manipularlos para verlos de distintas maneras. Pen­só, y con razón, que podrían ser­virle las herramientas que se utilizan para hacer las impresionantes animaciones de tres dimensiones que vemos en el cine y la televisión.

Cuando aún trabajaba en Guadalajara, Wolfgang reunió un grupo de estudiantes y for­maron un laboratorio para la pro­ducción de animaciones en temas científicos. Este gru­po multidisciplinario, que se lla­ma Cosmovisión (www.cos­mo­vision.com.mx), sigue ha­cien­do este tipo de animaciones y actualmente es una com­pañía independiente de la universidad. Su primer pro­yec­to fue un audiovisual acerca de la gravitación en el universo, el cual puede verse en el planetario de Guadalajara u ob­tenerse en formato dvd. Este documental, que contiene una simulación del entorno de un hoyo negro, se ha utilizado para apoyar conferencias tanto de divulgación como de investigación. En 2002, la ima­gen principal de esta animación apareció en los boletines de prensa relacionados con un artículo de Alan Marscher, quien además la colocó en la página de su grupo de tra­bajo (www.bu.edu/blazars/research.html). Ahí, para responder nuestra pregunta, fue donde la encon­traron los constructores de la página del Hubble.
 
Este ejemplo Made in Mex­ico nos muestra que, con­tra­ria­mente a los hoyos ne­gros que engullen cualquier co­sa que se les acerque para sumarla a su oscura masa, ­Internet acepta una pieza de ­información y multiplica las ma­neras en que se puede transmitir y utilizar. Sólo hoy es ­posible que una ilustración ideada por un astrónomo alemán y realizada por un grupo de estudiantes mexicanos dé la vuelta al mundo apareciendo en diversos medios, tanto para investigación como para divulgación.

Susana Biro
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México.

_______________________________________________________________

 

como citar este artículo

 

Biro, Susana. (2006). Los avatares de un hoyo negro. Ciencias 84, octubre-diciembre, 50-51. [En línea]

  ←Regresar al índiceartículo siguiente→
1 12
     
Metáforas biogeográficas del imperialismo
En este artículo se revisan las diversas explicaciones sobre los patrones biogeográficos elaboradas entre fines del siglo XIX y las primeras décadas del siglo xx, enfatizando los cambios en las metáforas empleadas por los evolucionistas para reconstruir la historia de la vida.
Alfredo Bueno y Carlos Pérez
conoce más del autor
 
     
HTML ↓   PDF Regresar al índiceartículo siguiente
     
     
 
En la segunda mitad del siglo XIX, los bio­geógrafos tuvieron el objetivo común de elaborar una visión integrada del mundo. La fría descripción de los hechos requería ser interpretada. El co­nocimiento empírico disperso, pro­ducto de las travesías patrocinadas por los estados europeos, fue racionalizado por los naturalistas para redistribuirlo a sus contemporáneos en la forma concreta de mapas de regiones biogeo­gráficas, los cuales representaban patro­nes, que a su vez implican causalidad.
 
La distribución geográfica de la vi­da fue una de las líneas clásicas de evi­den­cia en los estudios de evolución. A me­diados del siglo XIX, los naturalistas in­gleses reconocían que la distribución geográfica de la vida era un factor clave para comprender el mundo natu­ral. En una carta fechada en 1845 dirigida a Hooker, Darwin se refería al estudio de la distribución geográfica como “la piedra angular de las leyes de la creación”. Aunque desde inicios de ese si­glo se conocían los principales patrones bio­geográficos, faltaban las explicacio­nes. ¿Por qué había regiones con climas ca­si idénticos que prácticamente no com­partían especies?, ¿por qué al­gu­nas áreas con condiciones físicas di­fe­ren­tes tenían biotas muy similares?, ¿por qué existían formas muy parecidas en áreas separadas por grandes distancias? El determinismo ecológico linnea­no, según el cual cada especie se disper­só desde una isla-montaña primigenia hasta encontrar las áreas que les fueran propicias, se mostraba claramente insuficiente para explicar la regionalización de la biota y las distribuciones disyuntas.

El periodo de explosivo interés que se despertó por la biogeografía entre fi­nes del siglo xix y principios del siglo XX se ha estudiado poco. No obstan­te, abordar este tema conlleva un ries­go, pues sabemos que los debates sobre los continentes hundidos se volvieron fútiles a mediados del siglo XX, al confir­marse la teoría de la deriva continental.
 
Uno de los primeros naturalistas que adoptó un enfoque histórico en la biogeografía fue Edward Forbes. En la década de 1840 intentó explicar el ori­gen de la flora de las Islas Británicas postulando la existencia de una masa terrestre ubicada en lo que hoy es el océano Atlántico, a través de la cual las plantas migraron desde España hasta Irlanda. Darwin rechazó la existencia de esas hipotéticas uniones, al menos en un pasado geológico reciente. En los capítulos dedicados a la biogeografía de El Origen de las Especies, él defen­dió la hipótesis monofilética: cada es­pecie se originaba a partir de un par de individuos en una sola localidad, desde donde se expandía hasta alcanzar su distribución actual. Resulta así que el compromiso con el principio mono­filético generó la necesidad de la dispersión. Esta idea se remonta al menos a Linneo, además del obvio anteceden­te bíblico. En sus Fundamenta Botanica, Linneo afirmaba: El único par se­xuado, de todas las especies vivientes, fue creado en el inicio de las cosas. El razonamiento era puramente lógico; si se admite que las especies crecen geo­métricamente, entonces cuanto más se vaya hacia el pasado más decrece el número de individuos de cada especie, hasta llegar al límite de su origen mismo, donde habría un solo par —o un solo individuo en el caso de las especies hermafroditas. Así, para alcanzar su área actual de distribución, la disper­sión era indispensable, ya fuera como mera expansión de las poblaciones o bien mediante grandes saltos sobre ba­rreras físicas en el caso de las distribu­cio­nes disyuntas, en ese tiempo llama­das anómalas.

Los extensionistas como Forbes no aceptaban que las dispersiones a gran distancia pudieran explicar las distribuciones disyuntas. Creían que las es­pecies se habían extendido a través de puentes terrestres y continentes antiguos actualmente sumergidos. Por su parte, Darwin sostenía una postura per­manentista, es decir, que los prin­cipa­les rasgos de la superficie terrestre ha­bían pemanecido invariables en el pasado geológico reciente.

A pesar de la férrea oposición de Dar­win, el enfoque extensionista se sos­tuvo como una influyente corriente en las últimas décadas del siglo XIX. Jo­seph Dalton Hooker, amigo y admirador de Darwin, fue uno de sus principales proponentes. Sustentado en una amplia experiencia de campo, Hoo­ker concluyó que las dispersiones a gran distancia no eran una causa suficiente para explicar los patrones biogeográficos de las floras sureñas. Con base en la evidencia florística propuso la hipó­tesis de que todos los componentes de las floras del hemisferio sur habían es­tado una vez unidos en un gran continente austral.

Un destacado ornitólogo inglés, Phi­lip Lutley Sclater, le respondió. En su cé­lebre trabajo On the general distribution of the members of the class Aves, pre­sentado en 1857 ante la Linnean So­ciety of London y publicado el año si­guiente, propuso “las divisiones ontológicas más fundamentales y naturales de la superficie terrestre”. Cada una de sus seis regiones representaba un área de creación particular. Su sistema fue la base del esquema que propondría Alfred Russel Wallace en 1876, en su clá­sica obra The Geographical Distribu­tion of Animals. Sin embargo, Wallace no aceptó la explicación teista de Scla­ter. Rectificando sus primeras ideas ex­tensionistas, terminó explicando la composición de cada región biogeográ­fica mediante migración y divergencia, añadiendo la idea de que los nuevos grupos se originaban en un centro norteño de evolución progresiva.

En 1886, Andrew Murray negó ex­plí­citamente que las poblaciones tuvieran cualquier tendencia automática hacia la expansión. Creía que las pro­vin­cias biogeográficas se mantenían por cierto instinto individual que hacía que cada criatura se mantuviera en el mismo lugar donde se había origina­do. Los animales sólo se movían forzados por los cambios geológicos. El rechazo a este concepto de inercia de Murray, así como la aceptación de la presión mal­thusiana, algo que ha sido señalado por Bowler fueron en parte el éxito de la visión dar­winiana del mundo.

Al final del siglo XIX, la idea de que la población de cualquier especie tendía a crecer era aceptada incluso por na­turalistas que rechazaban la teoría de la selección natural como mecanis­mo evolutivo. La literatura biogeográfi­ca estuvo dominada por metáforas pro­pias de una era en la cual los estados occidentales buscaban deliberadamen­te dominar el resto del mundo. Las es­pecies surgían y se extinguían guiadas por la urgencia de conquistar y dominar nuevos territorios. Entendida la dis­persión en un sentido laxo, no sólo como dispersión por saltos sino también como expansión, tanto los biogeó­grafos extensionistas como sus rivales antipuentistas eran dispersionistas. Am­bos compartían la idea de que las especies se originaban en una sola lo­calidad y tenían una tendencia natural a expandirse. Por ello, el centro de la discusión fue determinar cuáles eran las áreas donde aparecían las innovaciones evolutivas.

Los antidarwinistas cuestionaron la tesis monofilética. La expresión más clara del enfoque de evolución inde­pen­diente provino de Angelo Heilprin, quien sostenía que la misma especie podía evolucionar no sólo en distintas áreas, sino también en diferentes épo­cas geológicas. El renombrado mastozoólogo Richard Lydekker aceptaba que los caballos habían evolucionado en ambos lados del Atlántico. Karl von Zittel arguyó que las similitudes entre las faunas del Eoceno de Norte­amé­ri­ca y de Europa se explicaban por una evolución paralela y no por migración. Es significativo que Croizat, fundador de la escuela moderna antidispersionista, también recurrió al paralelismo para crear un modelo antidarwinista de la historia de la vida, el cual rechaza la búsqueda de centros de origen. Pe­ro la implicación era grave para el dar­winismo, si las especies no se origina­ban sólo en un área puntual, sino que podían evolucionar independiente­mente en más de una localidad, el fun­­da­mento de todo el programa dar­wi­nis­ta se derrumbaba. Perdía todo sentido trazar las migraciones y se volvía imposible distinguir entre los efectos de la evolución paralela y la dispersión. Así, enfatizar el poder de la dispersión se convirtió en una necesidad urgente para Darwin.

Los evolucionistas de fines del siglo XIX y principios del xx concluyeron que el debate sólo podía zanjarse con una mejor taxonomía y con co­rre­la­cio­nes estratigráficas más precisas. Para trazar las migraciones pasadas se re­que­ría establecer con certeza cuáles estra­tos se habían depositado al mismo tiem­po en Europa y en América, tarea a la cual se abocaron coordinadamente una serie de paleontólogos europeos y norteamericanos durante los últimos años del siglo XIX.

En la segunda década del siglo XX, la idea popularizada por Wallace fue re­vivida por William D. Matthew. Los grandes continentes norteños, Eurasia y Norteamérica, constituían las áreas de evolución progresiva. Sin embargo, permanecía latente la hipótesis rival de Hooker sobre la existencia de un gran continente sureño, la cual implicaba que el sur también habría sido un im­por­tante centro de evolución.

El debate sobre la importancia relativa del norte y el sur como centros evolutivos estuvo ligado a la discusión sobre la existencia de continentes de­sa­parecidos. Darwin y Wallace primero, y Matthew después, afirmaron que, al menos en el Terciario, los rasgos de los continentes y océanos no habían sufrido cambios importantes y negaron la posibilidad de que el lecho profundo del océano hubiera quedado expuesto. La escuela rival de geología, encabeza­da por Eduard Suess, sostenía que ha­bía ocurrido una subsidencia constante en ciertas áreas de la corteza de la Tie­rra a lo largo de su historia y por tanto, podían haber existido grandes continen­tes en donde actualmente hay océanos profundos.

Quienes apoyaban la permanencia de continentes y océanos sólo po­dían explicar las distribuciones dis­yun­tas mediante dispersiones accidentales a grandes saltos. En cambio, los exten­sio­nistas creían que todos esos casos anó­malos podían explicarse por expan­sión a través de tierra emergida. Cada parte podía acusar a su rival de soñar hipóte­sis acomodaticias. Siempre era posible postular conexiones hipotéticas o migraciones accidentales entre dos áreas cualesquiera de la superficie te­rrestre.

En 1882, Angelo Heilprin propuso que Norte­américa y Eurasia debían unir­se en una sola región a la que de­no­minó Holártica. Aunque Wallace se opu­so, finalmente el concepto de región ho­lártica fue la base sobre la que Matthew propuso su modelo dispersionista.

Los mundos perdidos

La creencia popular de que en ciertas áreas del mundo se habían preservado formas características de etapas an­teriores de la historia de la vida fue otro ingrediente del modelo dispersionista. Las formas evolutivamente inferio­res eran desplazadas hacia el sur por los nue­vos grupos. Australia era el ca­so pa­radigmático. Muchos científicos creían que los organismos de este con­tinente —incluidos sus habitantes hu­ma­nos— eran primitivos y por tanto in­capaces de competir con los invaso­res europeos. Sin embargo, los hechos pronto desvanecieron las esperanzas. Desde 1862, el naturalista australiano Frederick M’Coy había protestado con­tra la creencia casi universal del ca­rác­ter pri­mitivo de la biota de Australia. Los da­tos geológicos revelaban que Aus­tralia había estado bajo el mar du­ran­te gran parte del Terciario. Cuales­quiera que hu­bieran sido sus habitan­tes antiguos, habrían sido destruidos, y el continen­te tendría que haber si­do repoblado en tiempos relativamente modernos.

A pesar de los argumentos de M’Coy, la expedición pionera de Murray en 1866 reforzó la mayoría de los prejuicios tradicionales. Murray creía en el enfriamiento gradual de la Tierra y en la existencia de grandes masas te­rrestres sureñas desde el Mesozoico. Australia había preservado formas de vi­da del Eoceno hasta la actualidad. Es­ta idea de refugios que protegían a sus habitantes de la invasión de formas más avanzadas fue parte importante de la teoría que desarrollaría Matthew.

Los orígenes norteños

La teoría de las invasiones norteñas apa­reció en las discusiones paleonto­ló­gi­cas y después se popularizó hasta con­vertirse en una poderosa aunque con­tro­versial herramienta explicativa. Es obvia su afinidad con la ideología de que los europeos estaban destinados a gobernar el mundo. En 1865, Os­wald Herr, paleobotánico de Zurich, notó que las plantas del Mioceno de Europa eran equivalentes a las de los trópi­cos modernos. A finales de ese siglo, la evi­dencia de que había habido climas fríos desde el Paleozoico puso en en­tre­di­cho la teoría de Suess sobre el en­fria­miento continuo. Más que un en­fria­miento progresivo, ocurrieron fluc­tuaciones cíclicas entre climas templados y severos. Entonces se volvió po­pular asociar los episodios de evolu­ción progresiva con los periodos de cli­mas severos.

La mejor versión de las oleadas su­cesivas de migración que barrían a sus predecesores hasta los márgenes meridionales terrestres fue articulada por Matthew en su Climate and Evolution de 1915, quien fue tanto el paleontó­lo­go de vertebrados más importante co­mo el zoogeógrafo teórico más in­flu­yen­te de su tiempo. Con base en la evidencia paleontológica disponible, sostuvo que los vertebrados se habían originado en los climas rigurosos de las áreas del norte y después se dispersaron en oleadas sucesivas para llenar los nichos de las tierras sureñas. A tra­vés de George Gaylor Simpson, las ideas de Matthew sobre la evolución y el clima se mantuvieron como la explicación es­tándar en biogeografía, hasta que ocu­rrió la revolución de la tectónica de pla­cas en la década de 1960.

Matthew hizo una sólida defensa de la permanencia de los continentes con base en la diferente naturaleza de las rocas continentales y las del lecho marino. Al igual que Darwin y Wallace, recurrió al transporte accidental para explicar anomalías ocasionales. La su­posición común de que el área actual de distribución de un grupo fue alguna vez su hogar ancestral era exactamen­te lo opuesto a la verdad, según Mat­thew. Como muchos de sus contempo­ráneos, creía que Asia central era la cu­na evolutiva de la humanidad y que la raza blanca era el último y el más al­to producto de la evolución.

La alternativa más simple a la tesis de los orígenes norteños fue la teo­ría bipolar, la cual proponía que los conti­nentes sureños también fueron centros de evolución importantes. El des­cubrimiento de reptiles semejantes a mamíferos sugirió que habían ocurrido episodios evolutivos relevantes en el sur de África durante el Paleozoico. En 1876, W. T. Blanford sostuvo que la fauna de la India tenía un origen africano más que asiático. Se propuso que África había sido un gran centro de evo­lución independiente desde el cual de­rivaron antílopes, jirafas, elefantes e hipopótamos.

Sudamérica era el hogar de una fau­na única de edentados que surgieron du­rante su aislamiento en el Terciario. Después de su reconexión con Norte­amé­rica a través del istmo de Panamá ocurrió un intercambio en ambos sen­ti­dos y algunos de los tipos sureños se dispersaron exitosamente hacia el nor­te. La radiación desde Sudamérica no fue de ningún modo un fracaso evolutivo.

A principios del siglo XX, los paleo­botánicos disponían de una evidencia más sólida de la que tenía Hooker sobre la existencia de una flora continua en el hemisferio sur a fines del Paleo­zoi­co. Se habían hallado semillas fó­siles del helecho Glossopteris en Sud­amé­ri­ca, África, Australia e incluso en la mis­ma Antártida. Muchos aceptaban que estas uniones habían existido hasta el Mesozoico, pero la pregunta crucial era si habían perdurado hasta principios del Terciario.

Alfred Lothar Wegener rechazó la idea de que la tierra emergida y las cuen­cas oceánicas profundas fueran intercambiables. Reintepretó la eviden­cia de las relaciones intercontinentales en términos de su propia teoría, conclu­yendo que la unión fue directa y no me­diante puentes. La deriva continen­tal proporcionaba la mejor explicación para la distribución disyunta de la flora de Glossoopteris y de Mesosauridae en Sudamérica y África.

La escuela de los puentes terrestres se defendió vigorosamente de los ataques tanto de Matthew como de We­ge­ner. En América, uno de los líderes puen­tistas, opositores a Wegener, era Charles Schuchert, quien extendió las hipótesis puentistas hasta el Ceno­zoi­co, entrando en conflicto directo con Mat­thew. En una nota póstuma de la edición de 1939 de Climate and Evolution, Matthew admitió que si se encon­tra­ra un mecanismo geofísicamente plau­si­ble para la hipótesis de Wegener, se re­solverían los casos de distribucio­nes anómalas en el Paleozoico y Me­so­zoico.

La progresión lineal encubierta

Las metáforas que emplearon los naturalistas de fines del siglo XIX y principios del XX para describir la historia de la vida reflejaron sus sentimientos sobre la naturaleza humana y la socie­dad. Particularmente, en la discusión bio­geográfica se usó un lenguaje que mostraba las aspiraciones colonialistas de los estados europeos.

Aunque es común que los cientí­ficos no admitan que sus ideas están in­fluidas por conceptos derivados de otras áreas de la cultura humana, es evi­dente que muchos biólogos emplea­ron metáforas provenientes de asun­tos hu­manos. Tal prurito parece excesivo, pues de hecho se han usado metáforas no sólo en la biología, sino en todas las áreas del conocimiento humano. Lo ex­traordinario sería que las hipóte­sis biogeográficas de esa época fueran ajenas a la ideología imperialista prevaleciente.

Si las metáforas resultan heurísticas, su uso se justifica. Lo lamentable sería que se retuvieran modelos malos por razones ideológicas; aunque, co­mo señala Bowler, siempre es polémi­co de­cidir cuáles son los modelos ma­los. Es innegable que los debates biogeográficos efectuados alrededor de 1900 es­tuvieron influídos por factores externos, aunque no habría que caer en la burda simplificación de creer que to­da la empresa no fue más que una pura imposición de metáforas sociales a la naturaleza.

Bowler ha hecho notar que en los debates sobre la historia de la vida par­ticiparon naturalistas que no estaban comprometidos con un mecanismo evo­lutivo particular. Sin embargo, com­partían el uso de conceptos tales como progreso, lucha y conquista. Varios de los científicos que empleaban este len­guaje no creían que la selección natu­ral fuera el mecanismo del cambio evo­lutivo e incluso algunos eran oponentes activos del seleccionismo.

Así, en esa misma época, muy pocos evolucionistas podían tolerar la idea de que la especie humana no fue­ra superior a todas las demás en varios sentidos importantes, a pesar de que el modelo de evolución progresiva li­neal estaba ya desacreditado. De cual­quier forma, el antropocentrismo resurgió en una versión más sutil, si bien varias ramas principales del árbol de la vida habían progresado hacia niveles superiores de complejidad, la nues­tra avanzó más que cualquier otra. En su versión simplificada, esta idea se re­presentó mediante un árbol de la vida con un tronco principal que conducía a la especie humana, mientras que to­das las demás formas de vida se ubicaban en ramas laterales que al separarse del tronco principal cesaban de progresar.

Los evolucionistas modernos re­cha­zan frontalmente la idea de que exis­tan ramas que hayan cambiado tan len­ta­mente que puedan emplearse para ilus­trar estadios tempranos de la evolución. Sin embargo, desde Haeckel hasta prin­cipios del siglo XX, la tentación de usar formas vivientes como representantes de los estadios tempranos de la evo­lución fue muy grande, especialmente en el caso de la evolución humana.

El gran énfasis que los paleontólo­gos del siglo XX, como Matthew y Hen­ry F. Osborn, proporcionaron a las es­pecializaciones divergentes representó un rompimiento importante con la tra­dición establecida en tiempos de Hae­ckel. En lugar de tratar la evolución en secuencia lineal, los biólogos resaltaron deliberadamente la diversidad de la vida en cada periodo geológico. El en­foque de Osborn sobre la divergencia fue el fundamento para concebir a las razas humanas como especies distintas, lo cual resultaba particularmen­te adecuado para establecer el carácter único de la raza blanca.

A las condiciones ambientales se les asignó un papel fundamental en la evolución. El ambiente físico era esen­cialmente cambiante y las poblaciones luchaban contra los desafíos que éste les imponía. Según la intensidad de los cambios, las migraciones ocurrían lentamente o con celeridad. De ahí que el progreso fuera más rápido en un ambiente severo y sujeto a rápi­das fluctuaciones. Los habitantes de ambientes más estimulantes tendrían mayores probabilidades de progresar. Por el contrario, los ambientes constan­tes podían conducir a la degeneración —los parásitos eran el caso paradigmá­tico. El estímulo ambiental resul­taba un arma de dos filos. El prominente dar­winiano de Oxford, E. Ray Lankester creía firmemente que la civilización humana comenzó a degenerar cuan­do dejó de enfrentarse a nuevos desafíos. E. William MacBride, destaca­do la­mar­ckista y discípulo de Sedwick, propuso la teoría de que los invertebrados eran vertebrados que habían degenerado por su poco estimulante hábito de arras­trarse sobre el lecho marino. Convencido eugenecista, Mac­Bride también planteó limitar la reproducción de los irlandeses, porque los consideraba in­fe­riores en virtud de haber evoluciona­do en ambientes menos estimu­lantes.

En los inicios del siglo XX, los pa­leon­tólogos enfatizaron la idea de que el poder activo de los ambientes cambiantes constituyen el verdadero deto­na­dor de los cambios en la vida ani­mal. La historia de la vida ya no se entendía en términos de fuerzas progresivas que surgían del interior de los organis­mos. Creció la con­vicción de que el ca­rácter episó­dico de la evolución reflejaba el de la his­toria física de la Tie­rra. Esta idea concordaba con el recha­zo de Darwin a cualquier noción de una tendencia interna de los organismos hacia la per­fección y con su idea de que la evolución era esencialmente una respuesta al ambiente, que incluía a otras especies en el mismo proceso. Los lamar­ckistas también consideraron al estímu­lo ambiental como el fac­tor clave del progreso. Los evolucionis­tas, darwi­nia­nos o no, terminaron por aceptar que a las principales innovaciones le seguían un proceso de per­fec­cionamien­to y refinación que gene­raba las diver­sas especializaciones dentro de cada clase.

Un corolario de esta idea era la im­pre­decibilidad de la evolución, pues si estaba condicionada por cambios ambientales azarosos entonces era impre­decible. Si bien para la mayoría de los darwinistas modernos el azar es parte integral de su visión del mundo, al prin­cipio esta idea encontró una gran resis­tencia.

El reemplazo de las civilizaciones

Para explicar la historia de la vida, otra imagen a la que se recurrió con fre­cuen­cia fue la del surgimiento y la caí­da de los grandes imperios de la historia hu­mana. El modelo cíclico de la historia, con su sucesión de razas y ci­vilizaciones dominantes, fue un ele­men­to cen­tral de la historiografía con­ser­vadora del siglo XIX. Algunas de las versiones del darwinismo se adaptaron para responder a las demandas de un imperialismo nuevo y más materialista, que requería mantener las di­visiones y rivalidades entre los grupos humanos.

Muchos científicos británicos sabían que su trabajo era parte de la em­presa imperial. Jugaron su papel en la apropiación de las áreas vírgenes del mundo por parte de los estados europeos. Los grandes museos de historia natural, las universidades, los zoológi­cos y los jardines botánicos de las prin­ci­pales ciudades del mundo occidental, simbolizaron la participación de la ciencia en el uso y el control del mun­do natural. Esta política imperialista tam­bién permitió adquirir una precisión sin precedente en los datos bio­geo­gráficos y geológicos de áreas re­mo­tas. Así, las metáforas del imperialismo no surgieron simplemente de modelos trans­plantados de la historia humana hacia la biología, sino también de nue­va evidencia empírica.

Con el ciclo de juventud, madurez y muerte de los individuos se hizo la ana­logía entre el surgimiento y la caída de los grupos biológicos, tornán­do­se común la noción de que cada era geo­lógica se caracterizaba por la domi­nancia de ciertos grupos, como la famosa edad de los reptiles. La historia de la vida podía dividirse en varias épo­cas discretas, concepción que estaba en consonancia con una filosofía más general que afirmaba el carácter cí­cli­co y discontinuo de la naturaleza. El in­terés por conocer las causas del origen, declinación y extinción de los prin­cipales grupos promovió un modelo de la historia de la vida análogo al usado para describir el surgimiento y la caída de los grandes imperios de la civilización humana.

Apareció la propuesta de que cada nuevo grupo estaba dotado de cierta can­tidad de energía evolutiva, la cual iba gastando gradualmente hasta final­mente agotarla, idea que adoptaron los paleontólogos alemanes durante la era nazi. Entre ellos, Othenio Abel pensa­ba que el periodo de de­clinación ­estaba marcado por un au­mento en el nú­me­ro de individuos de­generados. La adap­tabilidad se volvía eventualmente tan rígida que producía resultados dañinos. Había una cau­sa interna de decli­namiento inser­ta en cada grupo des­de su origen y nin­guno podía escapar a sus consecuencias.

Aunque la teoría del sobredesarro­llo como resultado de la ortogénesis man­tuvo cierta popularidad, los evolu­cionistas se fueron apartando de esta interpretación, adoptando un enfoque cada vez más darwiniano. La causa del ascenso y la caída era la competencia que ejercían los nuevos grupos incesan­temente generados por la evolución. La declinación de un grupo es­taba ín­ti­mamente ligado al surgimiento de otro. La historia de la vida podía expli­car­se como una permanente lucha por la supremacía, con especies exitosas que tendían de manera natural a ex­pan­dirse en un área cada vez mayor, y con consecuencias a me­nudo desas­tro­sas para los habitantes de las áreas invadidas. El éxito inicial conducía in­evi­tablemente a la sobreespecialización y finalmente a la extinción.

La metáfora de la invasión se volvió un lugar común en las descripciones paleontológicas y biogeográficas de alrededor de 1900. En su discusión sobre Sudamérica, Matthew narraba có­mo la gran invasión de los animales norteños había barrido todos los grupos de animales de pezuña y todos los carnívoros marsupiales. La expansión de los blancos europeos en América y Australia, con el subsiguiente extermi­nio de los pueblos aborígenes que­da­ba así explicada no por la codicia de los es­tados europeos, sino como con­se­cuen­cia de una ley natural.

Conclusiones

Bowler sostiene que hubo un cambio en las metáforas usadas para ilustrar la historia de la vida. La declinación de la morfología condujo al desuso del modelo lineal de evolución, mientras que el desarrollo de la paleontología y de la biogeografía histórica promovió la articulación de nuevas metáforas im­perialistas. Al inicio del siglo XX, los evo­lucionistas percibieron la historia de la evolución de una forma claramen­te diferente de como la concebían los de la primera generación.

Según la historiografía darwinista tradicional, la teoría sintética surgió a partir de la asimilación de la gené­tica de poblaciones a la teoría dar­wi­nis­ta. En su clásico Tempo and Mode in Evo­lution de 1944, Simpson afirmó que el nuevo desarrollo de la teoría genética de la selección natural sirvió para qui­tar toda la paja de las explicaciones evo­lucionistas. Sin embargo, el análisis de Bowler apunta hacia una opinión muy diferente. La interpretación convencio­nal de la teoría sintética ignora una se­rie de desarrollos en la investigación filogenética que sentaron las bases pa­ra una forma de pensamiento darwi­nia­no más moderna. Los filogenetistas de inicios del siglo xx desarrollaron la importante idea de que la selección na­tural podía ser, después de todo, la ex­plicación más efectiva sobre cómo ope­raba la evolución. Su influencia es innegable, pese a que no se involucra­ron en la síntesis de la genética y el dar­winismo. Pero la conclusión más im­portante de Bowler es la afirmación de que el darwinismo incluye algo más que una simple lealtad a la teoría de la selección. El darwinismo moderno mantiene ciertas ideas claves que fue­ron desarrolladas explícita o implícita­mente por el mismo Dar­win y luego ignoradas por muchos biólogos de la generación posterior. La investigación filogenética contribuyó a la articulación de estas concepciones generales en forma completamente independien­te del surgimiento de la nueva teoría ge­nética de la selección, y en ella participaron incluso evolucionistas no se­leccionistas.

Esta revaloración de la historia mues­tra que gran parte del evolucio­nis­mo de fines del siglo xix tomó un rum­bo más desarrollista que dar­wi­nia­no. Los primeros evolucionistas adop­ta­ron un enfoque que presentaba la vida como un proceso, en buena medi­da, predeterminado y dirigido casi in­evitablemente hacia el surgimiento de la humanidad. Sin embargo, este enfo­que pasó por alto una de las ideas cru­cia­les de Darwin, según la cual la evo­lu­ción era guiada por las respuestas de los organismos a los cambios perennes del ambiente, lo que la hace un pro­ce­so divergente y esencialmente im­pre­de­cible. Los filogenetistas de principios del siglo xx reincorporaron este aspecto, contribuyendo así a la articu­lación de la visión darwiniana moderna del mundo.

Las metáforas cambiaron según esta nueva concepción, pro­por­cio­nan­do imágenes de conquista geo­grá­fica y de eliminación de tipos in­feriores. Se despertó un creciente in­terés por conocer posibles detonantes ambientales de novedades evolutivas. Sin embargo, permanecieron viejas ideas arro­padas sutilmente. La acep­ta­ción, por parte de la mayoría de los evo­lucionistas del siglo xx, de que los ma­míferos no pudieron dominar la Tierra hasta la elimi­nación de los repti­les, denota el apre­cio por el viejo y sim­ple progresio­nismo, aun cuando se ad­mite que la evo­lución tenía un curso imprevi­sible.

En Estados Unidos, una nueva gene­ración de paleontólogos encabe­za­dos por Matthew se deshizo de los gri­lle­tes del viejo enfoque no dar­winiano, y con­tribuyeron, en buena medida, a la de­rro­ta de gran parte de la vieja con­cep­ción antiseleccionista. Bowler se­ña­la que la visión darwiniana de la na­tura­le­za, más allá de su apego a la selección natural, representa un desafío mu­cho más básico al viejo pensamiento desa­rrollista del mundo, pues niega metas predeterminadas y fuerzas internas que dirijan la evolución.

Si bien es claro que la principal fuen­te de la síntesis moderna no provino de la investigación filogenética, ello no invalida el argumento de Bow­ler, a saber, que el camino hacia una acep­tación más amplia de la síntesis fue pavimentado por desarrollos que ocurrieron en la paleontología y la bio­geografía durante las primeras décadas del siglo XX, cuando se concibió la historia de la vida de una forma signi­ficativamente diferente a la que tuvie­ron los evolucionistas de las décadas de 1870 y 1880. Las nuevas preguntas fue­ron importantes para crear un clima de opinión propicio que desmantelara los últimos vestigios de las teorías lamarckistas y ortogenetistas.

Así, el desarrollo continuo de la in­vestigación filogenética, entendida en su sentido amplio como la reconstruc­ción del espléndido drama de la vida, desde 1860 hasta 1940, representó un factor significativo en la consolidación de la revolución darwiniana.
Antonio Alfredo Bueno Hernández
Carlos Pérez Malváez
Facultad de Estudios Superiores Zaragoza,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
 
Bowler, P. J. 1985. El eclipse del darwinismo. Teorías evo­lucionistas antidarwinistas en las décadas en tor­no a 1900. Editorial Labor, Barcelona.
Bowler, P. J. 1990. The invention of progress: The Victorians and the past. Blackwell. Oxford.
Bowler, P. J. 1996. Life’s splendid drama. The Uni­versity of Chicago Press. Chicago y Londres.
Browne, J. 1995. Charles Darwin. Voyaging. Vo­lume i of a biography. Pimilco, Londres.
Browne, J. 2002. Charles Darwin. The power of place. Volume II of a biography. Princenton University Press, Princenton y Oxford.
Camerini, J. R. 1993. “Evolution, biogeography, and maps. An early history of Wallace’s line”, en Isis, núm. 84, pp. 700-727.
Fichman, M. 1977. “Wallace: Zoogeography and the problem of land bridges”, en Journal of the History of Biology, vol. 10, núm. 1, pp. 45-63.
Richardson, R. A. 1981. “Biogeography and the ge­nesis of Darwin’s ideas on transmutation”, en Journal of the History of Biology, vol. 14, núm. 1, pp. 1-41.
Antonio Alfredo Bueno Hernández obtuvo el doctorado en la Facultad de Ciencias de la unam. Actualmente es profesor de carrera titular del Museo de Zoología de la fes Zaragoza y responsable de un proyecto sobre los modelos de biogeografía histórica que se desarrollaron en torno al darwinismo.
Carlos Pérez Malváez obtuvo la Maestría en Ciencias en la Facultad de Ciencias de la unam. Actualmente es profesor de carrera Asociado C de tiempo completo en la fes Zaragoza. Recibió el premio José Antonio Alzate 2004 en la categoría mejor artículo de divulgación.
_______________________________________________________________

 

como citar este artículo

Bueno Hernández, Alfredo y Pérez Malváez, Carlos. (2006). Metáforas biogeográficas del imperialismo. Ciencias 84, octubre-diciembre, 14-24. [En línea]
 
  ←Regresar al índiceartículo siguiente→
1 12
     
Santiago Ramón y Cajal a cien años del premio Nobel
Biografía del gran histólogo español Santiago Ramón y Cajal, premio Nobel de Fisiología y Medicina en 1906, en la que se resalta la trascendencia de su obra y sus contribuciones en neurohistología. Descubrió que las neuronas son entidades separadas e independientes que se articulan por contactos y propuso la teoría neuronal.
María Genoveva González
conoce más del autor
 
     
HTML ↓ PDF Regresar al índiceartículo siguiente
     
     
Al finalizar el siglo xix, las investigacio­nes sobre el sistema nervioso recibieron un fuerte impulso con los descubrimientos de Santiago Ramón y Cajal. Hombre de ciencia que creyó en ella y amó el estudio, compartió el premio Nobel de Fisiología y Medicina de 1906 con Camilo Golgi, en reconocimiento por sus trabajos en la anatomía del sis­tema nervioso. La teo­ría neuronal es la base central de sus descubrimientos, su concepción permitió el conoci­miento detallado que tenemos hoy del sistema nervioso. La trascendencia de su obra, que se adelanto a su época, es notable en diversos campos. Su idea del neurotropismo aparece nuevamen­te en una serie creciente de factores tró­ficos, como el factor de crecimiento nervioso. La influencia de sus descrip­ciones sobre la degeneración y re­­ge­neración es bien visible en las investi­gaciones actuales en torno a la muerte y la plasticidad celular programada.

Nació el primero de mayo de 1852 en el pueblecito español de Ayerbe, en la provincia aragonesa de Huesca. Cuen­tan que fue un muchacho muy tra­vieso, el terror de sus vecinos. Una vez lo condenaron a tres días de cárcel por demoler el portal de un vecino, to­dos lo consideraban un pequeño ván­dalo que seguramente tendría un triste final.

Desde pequeño tenía una curiosidad ilimitada por los fenómenos natu­ra­les y una sensibilidad innata por la be­lleza de la naturaleza. En esa época tres acontecimientos dejaron huella in­deleble en su joven mente: la victoria de los ejércitos españoles en África, la caída de un rayo en la escuela y en la iglesia, y el eclipse del año 1860.

Sus primeros estudios fueron muy accidentados. En Jaca, internado en el colegio de los Escolapios, se rebeló con­tra el aprendizaje del latín de memoria, por lo que fue castigado y encerra­do. Tiempo después, en el Instituto de Huesca, donde en lugar de latín de­bía aprender matemáticas y ciencia, la que secretamente cambio por un curso de física, el informe escolar fue tan malo como era de esperar. Su padre lo sacó de la escuela y lo colocó como aprendiz de barbero. Entre cortes de pelos y afeitadas, Santiago continuaba sus co­rrerías. Desesperado, Don Justo, su pa­dre, decidió trasladarlo a un taller de zapatería.
 
A los 16 años inició, junto con Don Justo, estudios de anatomía, revelando un notable talento para dibujar. A partir de entonces, abandonó sus corre­rías y comenzó a estudiar medicina en la Universidad de Zaragoza, donde su pa­dre era profesor de anatomía. Por su pericia en el arte de disecar, al final del segundo año, Santiago logró una pla­za de ayudante de disección, además de impartir clases particulares de anatomía. Por ese tiempo apareció un libro revolucionario, La patología ce­lu­lar de Virchow. Prosiguiendo los pasos del alemán Teodor Schawnn, para quien la célula era la unidad estructu­ral básica de todos los organismos vi­vien­tes —idea por aquel entonces com­pletamente nueva—, Virchow aplicó este concepto al estudio de la célula en condiciones patológicas. Santiago esta­ba intrigado por la tesis de Virchow, en la que la célula es una unidad inde­pendiente y el principal protagonista de los trastornos patológicos. La escue­la opuesta, la de los vitalistas y animis­tas, sostenía lo contrario, que la célula no era la unidad básica del organismo sino como un sitio de defensa que pro­tegía el cuerpo contra los ataques del mundo exterior.

En el verano de 1873, apenas alcan­zada la mayoría de edad, Santiago se gradúo de Médico y fue declarado soldado. La situación política de España era grave, la nueva Republica bajo la presidencia de Emilio Castelar, ordenó el reclutamiento de todos los hombres útiles para las armas. Santiago tu­vo que dormir en el cuartel, comer rancho y hacer la instrucción militar. Ocho meses después fue enviado a Cu­ba, donde crecían las revueltas contra la dominación española. Se le asignó un puesto sanitario en la Región de Vis­ta Hermosa, arrasada por la guerra. Allí debió luchar en las peores condicio­nes contra toda clase de pestilencias y el peligro de muerte. Agotado por la di­sentería y el paludismo, fue dado de baja y enviado de vuelta a España.

De regreso a casa retomó el es­tudio de anatomía e histología en Zarago­za, donde lo nombraron ayudante in­te­ri­no de anatomía y, dos años después, pro­fesor auxiliar temporal.

El microscopio

Mientras cursaba las asignaturas del doctorado en medicina, seducido por la contemplación de las preparaciones microscópicas que el Maestre de San Juan le muestra, Ramón y Cajal decide consagrarse a la investigación histo­lógica. A pesar de que nunca antes vio preparar, ni era capaz de efectuar el más sencillo trabajo micrográfico. En el laboratorio de fisiología de la universidad de Zaragoza había un viejo mi­croscopio con el que admiró por pri­mera vez el sorprendente espectáculo de la circulación de la sangre. Más tarde, compró a plazos un microscopio Verick, con el que observó todo lo que pudo.

Con los años, se crearon en histología diversos métodos para tratar los tejidos con reactivos químicos, con el fin de estudiarlos en el microscopio. La innovación de Cajal consistió en tratar las fibras nerviosas con cloruro de oro, antes de impregnarlas con nitrato de plata según la técnica corriente. También por entonces, descubrió la ventaja de emplear el nitrato de plata amoniacal en lugar del simple, sin previo ba­ño amoniacal. Con ello, y sin saberlo, preparaba el terreno para el trabajo que le ocuparía toda la vida. Sus descubrimientos pasaron inadvertidos, pues pu­blicaba sus trabajos en español, lengua que no se utilizaba en el mundo científico.

Una hemoptisis interrumpió súbitamente sus investigaciones, y después de otra, tuvo que reposar en la estación balnearia de Panticosa. Cuando regresó a Zaragoza, nuevamente se consagró a su trabajo en la sala de disección y a sus investigaciones.

En 1879, después de reñidas oposi­ciones, Ramón y Cajal fue nombrado director de museos anatómicos de la Fa­cultad de Medicina de Zaragoza. Ani­mado por ello, decide casarse con doña Siveria Fañanás García en 1880, pese a las dificultades económicas con las que tendría que luchar durante tantos años. Pero la insuperable abnegación y la bondadosa cordura de su esposa fueron para él ayuda y consuelo inestimables. Esto era tan cierto que sus amis­tadas decían: “la mitad de Cajal es su mujer”.

Cuando tenía treinta y dos años, en 1884, se trasladó a Valencia para ocupar su cátedra e impartir clases fuera de la Facultad, con el fin de obtener in­gresos adicionales que asegurarán la marcha financiera de su laboratorio. Incluso logró comprar un micrótomo automático. Para sus estudios utiliza ra­tones, que por su tamaño le per­mi­ten seguir las estructuras encefálicas por medio de un número relativa­men­te pe­queño de cortes, y como los núcleos de las células se hallan muy ­cer­ca entre sí, puede seguir las prolongacio­nes ce­lulares a lo largo de todo su tra­yecto hasta alcanzar su destino.

El progreso científico de Cajal nue­vamente se interrumpió en 1885, esta vez por la epidemia de cólera que aso­ló Valencia y más tarde invadió toda España. Realizó estudios sobre el baci­lo colérico e ideó un método sencillo de teñirlo para su observación en el mi­croscopio; también propuso la vacu­nación de hombres y animales con cul­tivos muertos del bacilo para producir inmunidad. Las autoridades zaragone­sas, agradecidas por sus contribuciones científicas, le regalaron un micros­copio Zeiss.

De regreso a Valencia, en el otoño de 1885, Cajal volvió al estudio de los te­jidos vivos, publicó una serie de artículos sobre la estructura del cartí­lago, la lente del cristalino y las fibras musculares de los insectos y de algunos vertebrados. Pero su mayor empre­sa era la publicación de una obra ex­ten­sa, el Manual de histología normal y técnica micrográfica, con 203 grabados y 692 páginas. El libro fue un éxito: la primera edición se agotó y la segun­da tuvo que imprimirse en 1893.

Coloración argéntica y sistema nervioso

Cajal empezó a experimentar con la téc­nica de tinción del sistema nervioso creada por el histólogo italiano Camilo Golgi en 1888. Gracias a ella es po­si­ble observar las más finas estructuras nerviosas de color castaño sobre un fon­do amarillento, pero el método te­nía imperfecciones; correspondió a Ca­jal perfeccionarlo, y con tal éxito, que le mereció la hostilidad de su inventor para toda la vida.

Su triunfo dependió de la idea de que el método podía usarse con mayor provecho empleando el cerebro de em­briones en lugar del de adultos, mucho más complejo. Cuando lo intentó, em­pleando embriones de pájaros y de pe­queños mamíferos, comprobó que las células destacaban íntegras den­tro de cada corte microscópico, y logró los re­sultados deseados con mucha mayor claridad que utilizando el tejido adulto. El método de cromato de plata, apli­ca­do al embrión en esta fase de desarrollo, proporcionaba una coloración per­fecta y neta de los elementos componentes de la sustancia gris del cerebro.

Sobre la base de sus investigaciones descubrió que las células nerviosas no se comunican entre sí por conti­nuidad, como afirmaba el reticularismo de Golgi (figura 1), sino por contigüidad, es decir, por contacto de las ter­mi­naciones axónicas o dendríticas de cada célula con el cuerpo o las terminaciones de otras (figura 2). Cajal resumió sus aportaciones sobre la morfología y las conexiones de las células nerviosas en la sustancia gris en cuatro puntos: primero, las ramificaciones colaterales y terminales de todo cilindroeje acaban en la sustancia gris, no me­diante una red difusa, según defen­dían Gerlach y Golgi, sino por medio de arborizaciones libres, dispuestas en variedad de formas; segundo, estas ra­mificaciones se aplican íntimamente al cuerpo y dendritas de las células ner­viosas, estableciéndose un contacto en­tre el protoplasma receptor y los últimos ramúsculos axónicos; tercero, el soma y las expansiones protoplásmicas de las neuronas participan en la ca­de­na de conducción, es decir, reciben y propagan el impulso nervioso, contra­riamente a la opinión de Golgi, para quien dichos segmentos celulares de­sem­peñarían un papel meramente nu­tritivo; y cuarto, excluida la continuidad sustancial entre célula y célula, se impone la opinión de que el impulso nervioso se transmite por contacto.

Reconocimiento internacional

Animado por sus observaciones, invir­tió sus pequeños ahorros en la publicación de esas aportaciones en la Revista trimestral de histología normal y patológica, fundada por él. Inmediatamente buscó ampliar su círculo de lec­tores y difundir internacionalmente los resultados de sus investigaciones. Al inicio de 1889, publicó traducciones francesas de tres trabajos, donde expo­nía los hallazgos más importantes que consiguió acerca de la estructura del cerebelo, la retina y la médula espinal, pero fueron recibidos con desconfianza.

Para superar eso, Ramón y Cajal, lle­no de esperanzas, con sus pocos aho­rros y sus principales preparaciones en la maleta, decidió acudir a la reu­nión de la Sociedad Anatómica Alema­na, rea­lizada en Berlín en el otoño de ese año. Allí mostró las preparaciones que demostraban mejor sus des­cu­bri­mien­tos y triunfó ante sus oyentes; el más en­tusiasta fue Kölliker, quien le dijo: “ce­lebro que el primer histólogo que ha producido España sea un hom­bre tan distinguido como usted y de tan­ta talla científica”. Kölliker era firme par­ti­dario de la teoría reticular, pero los trabajos de Cajal lo persuadieron de aban­donarla y proclamar el nuevo concepto: la teoría del contacto y de las neuronas como entidades separadas e independientes.

Al término de su fructífero viaje, Cajal regreso a Barcelona para reintegrarse en su trabajo. Poco después de Kölliker, casi todas las grandes figuras de la neurohistología europea, pese a la oposición de Golgi, reconocieron su teoría neuronal y consideraron definitivamente demostrado el error de la hipótesis reticular; asimilaron los hallazgos de Cajal y aceptaron su nueva concepción de la estructura del sistema nervioso. Durante 1890 publicó na­da menos que diecinueve artículos, seis de los cuales aparecieron en francés en diferentes revistas morfológicas europeas.

En 1891 y los primeros meses del año de 1892 continuó realizando traba­jos de ca­rácter analítico, principalmen­te sobre la retina, el cerebro y los gan­glios simpáticos. También formuló la ley de la polarización dinámica de las neuro­nas, una de las aportaciones per­durables, y ofreció una síntesis de su concepción de la estructura del sistema ner­vioso, la cual alcanzó una gran difusión internacional.

En su trayectoria científica, Cajal le concedió gran relieve al problema de la dirección del impulso nervioso den­tro de la neurona, define su teoría de la polarización dinámica de la siguien­te forma: “La transmisión del movimien­to nervioso tiene lugar desde las ramas protoplasmáticas hasta el cuerpo celu­lar, y de éste a la expansión nerviosa. El soma y las dendritas representan, pues, un aparato de recepción, mientras que el axón constituye el órgano de emisión y repartición”.

Al final de 1891 decidió reunir en un volumen todos sus estudios acerca de la estructura del sistema nervioso de los vertebrados. Este proyecto, que durante diez años le obligó a un arduo trabajo, cristalizó en el clásico libro El sistema nervioso del hombre y los vertebrados.

Nuevas investigaciones y publicaciones

Tras el fallecimiento de Aureliano Maes­tre de San Juan, en 1890, quedó vacan­te la cátedra de histología y anatomía patológica en Madrid; Cajal concursó por la plaza y la ganó. Así, en abril de 1892, con cuarenta años de edad y pa­dre de seis hijos, Santiago Ramón y Ca­jal llegó a Madrid con la carpeta re­pleta de proyectos para nuevas investigaciones.

En sus primeros cinco años de es­tan­cia en la capital, prosiguió sus in­ves­tigaciones, empleando con el método de Golgi, sobre la estructura de otras zonas del sistema nervioso: el as­ta de Ammon, la corteza occipital del cerebro, el gran simpático visceral, el bulbo raquídeo, etcétera. En todas ellas, el resultado general fue comprobar la teoría de la neurona, es decir, el con­tac­to entre somas y arborizaciones ner­vio­sas, así como la ley de la polarización dinámica. En 1896 comenzó a utilizar el método de Ehrlich, técnica que per­mi­te teñir las fibras y las células nervio­sas. Al aplicarlo, obtuvo imágenes cla­rí­simas de color azul intenso con las que consiguió contrarrestar la descon­fianza de algunos histólogos escépticos que habían insinuado que algunas tinciones con el cromato de plata eran artefactos.

En 1894, cuando la obra de Cajal ya había alcanzado amplia difusión y pres­tigio en los ambientes científicos del continente europeo, fue invitado a pro­nunciar la Croonian Lecture ante la Real Sociedad de Londres. Allí resumió sus hallazgos e ideas en francés con el título La fine structure des centres nerveux. Se le nombró doctor honoris cau­sa por la Universidad de Cambridge.

En el mismo año, Cajal envió un tra­bajo al Congreso Internacional de Medicina en Roma, sobre la morfología de la célula nerviosa, en el que por primera vez ponía de manifiesto el he­cho de que la capacidad intelectual no depende del número y de las dimensiones de las neuronas cerebrales, si­no de la riqueza de sus terminaciones y de la complejidad de las áreas de aso­ciación, hecho que actualmente constituye un principio fundamental en psicología.

La Textura del sistema nervioso del hom­bre y de los vertebrados, publicado en Madrid entre 1897 y 1904, fue el li­bro más importante de Cajal, según su propio autor. También publicó otros tex­tos científicos, como el Manual de His­tología. Cinco años después se impri­mió en Paris la traducción francesa de la gran obra de Cajal, Histologie du systéme nerveux de l’homme et des vertebrés (1909-1911).

Distinciones científicas

Entre 1899 y 1906, el extraordinario pres­tigio alcanzado por su obra ge­ne­ró que Cajal recibiera una serie de distin­ciones científicas internacionales del máximo nivel. En junio de 1899 fue in­vitado por la Clark University para pro­nunciar una serie de conferencias en el ciclo que dicha institución nor­teame­ricana organizó con motivo del décimo aniversario de su fundación. A pe­sar de que no se encontraba bien de sa­lud, Cajal impartió tres conferen­cias sobre la estructura histológica del cerebro humano y de los mamíferos superiores.

En 1900, el Congreso Internacional de Medicina, por voto unánime de su comité directivo, le concedió el premio internacional instituido en la ciudad de Moscú para el trabajo médico o bio­ló­gico más importante publicado durante el trienio transcurrido desde la ce­lebración del congreso anterior.

Cuatro años y medio después, en los albores de 1905, recibió otra distin­ción de la máxima categoría, la Acade­mia de Ciencias de Berlín le concedió la medalla de oro Helmholtz, la cual se otorga cada dos años al investigador que realizó la aportación de mayor re­lieve en cualquier rama de la ciencia.

Por último, en octubre de 1906, el Real Instituto Carolino de Estocolmo le comunico que había sido galardona­do, junto con Camilo Golgi, con el pre­mio Nobel de Fisiología y Medicina. De acuerdo con el reglamento de la Ins­titución Nobel, se trasladó a Estocol­mo para recibir el diploma y la medalla de manos del monarca sueco, y pro­nunciar una conferencia acerca de sus investigaciones, cuyo título fue La es­tructura y conexiones de las neuronas. Allí conoció personalmente a Golgi, cu­yas contribuciones citó y elogió duran­te su conferencia.

Le llovieron las felicitaciones, co­men­zando por la de la Reina María Cris­tina y la del presidente del conse­jo de ministros, Francisco Sivela. Se le concedió la Gran Cruz de Isabel la Ca­tólica y, poco más tarde, la de Alfonso XII y el nombramiento de consejero de instrucción pública. También fueron numerosos los homenajes privados y públicos.

Entre 1903 y 1913, Cajal no abando­nó el empleo de la impregnación cro­mo­argéntica, pero el hallazgo de una nueva técnica de tinción, la del nitrato de plata reducido, le permitió discernir con nitidez las neurofibrillas que com­ponen el protoplasma de la neurona y que se extienden hacia las prolongaciones del cuerpo celular. Con ello, pu­do defender la teoría neuronal frente al neorreticularismo que surgió al inicio del siglo XX.

La invención de dos nuevas técnicas marcan el inicio de la última etapa de Cajal: los métodos del nitrato de ura­no en 1912 y del oro-sublimado un año después. Con la primera consiguió pre­cisar numerosos detalles acerca de la disposición, fases evolutivas y cone­xio­nes del aparato de Golgi, retículo endo­neuronal que el histólogo italiano ha­bía observado por vez primera a finales del siglo xix. Con la segunda resolvió el problema de la impregnación de un ti­po de neuroglia. Esta innovación re­sul­taría decisiva para las investigaciones que sobre la glioarquitectura desa­rro­lla­ron después Nicolás Achúcarro y Pío del Río Hortega, otras dos grandes fi­gu­ras de la neurohistología espa­ñola.

Después de treinta años de ininterrumpida labor, Ramón y Cajal continuó el trabajo en el laboratorio, pero acu­saba la honda depresión moral que le produjo la guerra europea de 1914. La redacción de Degeneración y regene­ra­ción del sistema nervioso, entre 1912 y 1914, lo dejó completamente ago­ta­do. En esos mismos años publicó su es­plén­dida monografía La fotografía de los colores. No obstante, prosiguió su la­bor por sí mismo y con la colaboración de sus discípulos. A pesar de su es­ta­do de salud y de sus desánimos, es­cri­bió y publicó de manera incansable durante las dos últimas décadas de su vida. Desde 1914 hasta su muerte, pro­dujo medio centenar de artículos de tema neurohistológico. La gran ilusión científica de Cajal durante la fase final de su vida fue la publicación de una ter­cera edición, ampliada y actualizada, de su gran libro Textura del sistema nervioso.

Su último libro fue escrito desde una perspectiva biográfica, El mundo vis­to a los ochenta años, donde re­gistró, con la calma de médico, las sensaciones resultantes de su arteriosclerosis cerebral. Terminó de redactarlo a fina­les de mayo de 1934 y apareció cuatro meses después, casi coincidiendo con su muerte. El 17 de octubre de 1934, con­servando su lucidez hasta el último momento, murió en Madrid.

Consideraciones finales

Puede decirse que estamos en deuda con Cajal; sus investigaciones revo­lu­cio­naron la neurología, al señalar que la unidad básica del sistema nervioso no era, como hasta entonces se creía, la fibra nerviosa sino la célula. En sus es­tudios de las estructuras nerviosas más complejas siempre trató de comprender su significado funcional y, por consiguiente, fue un biólogo en el sen­tido más amplio. Demostró que el sis­te­ma nervioso está constituido por ca­denas de neuronas que se articulan por contactos, los que hoy llamamos sinap­sis, y determinó la dirección de propa­gación de los impulsos en las diversas cadenas.

Resulta admirable la gran cantidad de resultados que obtuvo con técnicas clásicas, los cuales se han confirmado al ser examinados con los métodos y conocimientos actuales. Es asombroso comprobar el elevado número de sus hallazgos que permanecen. Su concep­ción del sistema nervioso permitió el co­nocimiento detallado que hoy tene­mos del mismo.

Me gustaría finalizar este trabajo, con lo dicho por el Doctor Wilder Pen­field con motivo de la muerte de Cajal: “Ahora que el fin ha llegado, su vida y sus realizaciones brillan intensamente en la historia de la neurología. Era un genio polifacético, impulsado por ese misterioso ‘susurro’ que llega a los pocos elegidos por Dios, que los em-pu­ja siempre adelante para explorar más allá de los conocimientos existentes, sin reposo y sin más recompensa que sa­ber que han penetrado en la tierra pro­metida de los descubrimientos”. No podría haber epitafio más justo.
María Genoveva González Morán
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Referencias bibliográficas

Juarros, C. 1835. Vida y milagros de un sabio. Nuestra Raza, Madrid.
Lían Entralgo, P. 1949. Dos biólogos: Claudio Ber­nard y Ramón y Cajal. Espasa Calpe, Buenos Aires.
Cannon F. y F. Doroyhy. 1951. Vida de Santiago Ramón y Cajal. Biografías Gandesa, México.
Rodríguez Enriqueta, L. 1977. Así era Cajal. Espasa-Calpe, Madrid.
López Piñero, J. M. 1985. Cajal. Salvat Editores, Barcelona.
Álvarez Leefmans, F. J. 1994. Las neuronas de don Santiago. cnca/Pangea, México.
Peláez Cebrian, M. 1999. Vivencias de Don Santiago Ramón y Cajal. Sociedad Médica Hispano Me­xicana, México.
Baratas, A. 2001. Nobeles españoles: Cajal, Ochoa: de la neurona al adn. Nivola, Madrid.
María Genoveva González Morán realizó la licenciatura, la maestría y el doctorado en Biología en la Facultad de Ciencias, unam. Actualmente es profesora de carrera titular B de tiempo completo y profesora de asignatura B en la Facultad de Ciencias de la unam.
 
_______________________________________________________________

 

como citar este artículo

González Morán, María Genoveva. (2006). Santiago Ramón y Cajal a cien años del premio Nobel. Ciencias 84, octubre-diciembre, 68-75. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Un número y una sucesión que han hecho historia
En este artículo se presentan algunas de las múltiples relaciones que tiene la sucesión de Fibonacci con diversos fenómenos. Entre ellas, se describe el vínculo que tiene esta sucesión con la razón aúrea.
Radmila Bulajich
conoce más del autor
 
     
HTML ↓ PDF Regresar al índiceartículo siguiente
     
     
Estrechamente vinculada con el arte, las ciencias y las matemáticas, la sucesión de Fibonacci ha intrigado a los mate­máticos durante siglos; en parte, por su tendencia a presentarse en los lugares más imprevistos. A principios del siglo XIII, Leonardo de Pisa, mejor conocido como Leonar­do Fibonacci, planteó en su libro Liber Abaci un problema que se hizo famoso por las diversas relaciones que se han encontrado, no sólo con las matemáticas, sino con múltiples fenómenos. El problema es el siguiente: un hombre pone en una jaula una pareja de conejos bebés. ¿Cuántas pa­rejas pueden reproducirse en un año si suponemos que cada mes, cada pareja engendra una nueva pareja, la cual después del segundo mes se vuelve reproductiva?
 
La solución al problema es relativamente sencilla. Des­pués del primer mes, la primera pareja crece, entonces ten­dremos una pareja madura. Después del segundo mes, ésta engendra una nueva pareja, por lo que tendremos dos pa­rejas. Después del tercer mes, la primera pareja engendra otra y la pareja de conejos bebés madura, tenemos 3 pa­rejas. Después del cuarto mes, cada una de las parejas maduras engendra otra y la pareja bebé madura, es decir, habrá 5 parejas. Si continuamos este proceso, después del quinto mes tendremos 8 parejas, después del sexto 13 pa­rejas, etcétera. Esto puede verse claramente en la figura 1, donde las parejas maduras están representadas por los co­nejos grandes y las inmaduras por los pequeños.
 
Observemos que si contamos el número de parejas de conejos adultos, el de conejos bebés, así como el número total de parejas de conejos cada mes, todos van aumentando de la misma forma: 1, 1, 2, 3, 5, 8, 13,…
 
En la segunda mitad del siglo xix, la sucesión 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233,…, en la cual cada término es igual a la suma de los dos anteriores —empezando con el tercer elemento— fue denominada por el matemático francés Edouard Lucas, la sucesión de Fibonacci y representa la primera sucesión recursiva —llamada así porque los términos sucesivos se encuentran a partir de relaciones con los términos anteriores— que se conoció en Europa. Es decir, si denotamos por Fn al n-ésimo término de la sucesión tenemos que:
fig1
Para que quede únicamente determinada es preciso pro­porcionar los dos números iniciales. Es decir, para tener la sucesión de Fibonacci, tenemos que definir que:
A
Ralph Waldo Emerson, en su libro The Natural History of Intellect, menciona que “la sucesión de Fibonacci se en­cuentra en una gran variedad de fenómenos no relacionados entre sí”, razón por la cual se volvió tan famosa. Un ejemplo es la óptica de los rayos de luz, un fenómeno que nada tiene que ver con los conejos. Supongamos que tene­mos dos placas de vidrio con distintos índices de refracción, pegados cara con cara como se muestra en la fi­gura 2.
fig2
Si lanzamos un rayo de luz, en principio se refleja in­ternamente en cuatro superficies reflejantes antes de emer­ger. Más específicamente, puede pasar sin reflejar­se en absoluto o pueden tener una, dos o tres reflexiones in­ter­nas, antes de emerger. Potencialmente, puede presentar un número infinito de reflexiones antes de emerger —todas son trayectorias permitidas por las leyes de la óptica. Ahora bien, contemos las formas en que se pue­den reflejar los rayos, para un número dado de reflexiones del rayo de luz, antes de emerger. Es 1 si no hay reflexión, 2 si permiti­mos una reflexión, 3 si son dos reflexiones, 5 si hay tres re­fle­xiones, 8 trayectorias si permitimos cuatro reflexiones, et­cétera. El número de trayectorias es 1, 2, 3, 5, 8, 13,… y for­ma una sucesión de Fibonacci (figura 3).
fig3
Consideremos ahora un problema totalmente distinto. Un niño quiere subir una escalera. El número máximo de es­calones que puede subir al mismo tiempo es dos; es de­cir, puede subir uno o dos escalones a la vez. Si tenemos n es­calones en total, ¿de cuántas formas distintas (Cn) puede subir los escalones?
 
Si hay únicamente un escalón, claramente sólo hay una forma. Si hay dos escalones, los puede subir de dos for­mas: un escalón a la vez o los dos juntos. Si hay tres escalones, entonces el número de formas en que puede subirlos es tres:
B1
Si hay cuatro escalones, el número de formas aumenta a C4 = 5 y son:
B2
si hay cinco escalones, el número de formas aumenta a C5=8 y son:
C1
Encontramos que el número de posibilidades crece como:
C2
Un problema similar es el siguiente: se tiene un edificio con 30 pisos y se quiere pintar cada piso de azul o de blan­co, con la condición de que no haya dos pisos juntos pin­tados de azul. Hay que encontrar todas las formas posi­bles de pintar todos los pisos del edificio. La solución es aná­loga al problema anterior.
 
Finalmente, examinemos el árbol genealógico de un zán­gano —el macho de las abejas. Los huevos de las abejas obreras que no se fertilizan se convierten en zánganos; es decir, los zánganos no tienen padre, únicamente madre. Los huevos de las abejas reinas son fertilizados por los zánganos y se convierten en abejas hembras —sea obreras o reinas. Por lo tanto, los zánganos tienen un pariente —la madre— y dos abuelos —los parientes de la madre—, tres bi­sabuelos —los padres de la abuela y la madre del abuelo—, cinco tatarabuelos —dos por cada bisabuela y uno por el bisabuelo— y así sucesivamente. El número de parientes en el árbol genealógico de un zángano varía como una sucesión de Fibonacci 1, 1, 2, 3, 5, 8,…, como se muestra en la figura 4.
fig4
La Razón aúrea

El número aúreo, también conocido como razón aúrea, di­vina proporción o número de oro, fue descubierto en la Antigüedad como relación o proporción entre partes de un cuerpo o entre cuerpos. Aparece en Los Elementos de Eucli­des en varios lugares. La primera definición de esta razón se encuentra, en relación con la proporción de áreas de po­lígonos, en el Libro II; la segunda definición, en relación a la proporción de segmentos, está en el Libro VI. Especial­mente, Euclides usa la razón aúrea en la construcción del pentagrama en el Libro IV, y la del icosaedro y el dode­cae­dro en el Libro XIII.
 
Veamos una construcción simple para entender la definición que proporciona Euclides de la razón aúrea.
 
En la siguiente figura, la recta AB se divide por un pun­to C, de tal forma que
D
Si suponemos que el segmento original mide x + 1 y AC = x, podemos traducir la ecuación anterior como:
E1
Resolviendo la ecuación, tenemos que
E2
El primer número se conoce como la razón aúrea y es
E3
que denotaremos como ϕ. Observemos que el inverso de este número es:
E4
y el cuadrado es:
E5
Es decir, el inverso se obtiene restándole 1 y el cua­dra­do sumándole 1. Tenemos además que ϕ es un número irra­cional.
 
¿Cómo esta división de la línea está relacionada con el pentágono? Recordemos que en cualquier polígono regular la suma de los ángulos interiores está dada por 180º(n–2), donde n es el número de lados. Por tanto, cada ángulo de un polígono mide 540/5=108º. Supongamos que dibujamos dos diagonales adyacentes en un pentágono, formando tres triángulos isósceles (figura 5).
fig5
Los ángulos iguales en la base del triángulo interior miden 72º. Si bisecamos uno de estos ángulos obtenemos un triángulo menor BCD.
Los triángulos ABC y BCD son semejantes, luego:
F1
 
pero DB=BC=AD, luego:
F2
además AB=AC, entonces:
F3
Esto es, D divide el segmento AC en la razón aúrea; también tenemos, que:
G
es decir, en el pentágono regular la razón entre una diago­nal y un lado es ϕ.
Si ahora dibujamos todas las diagonales del pentágono obtenemos un pentagrama (figura 6).
fig6
Observemos que se for­ma nuevamente un pentágono regular más chico, donde podemos nuevamente formar un pentagrama y así suce­sivamente hasta el infinito. Ahora, también formamos un pentagrama si extendemos los lados del pentágono ori­gi­nal y unimos las cinco puntas, es decir, se forma nuevamen­te un pentágono regular y así podemos continuar hasta el infinito.
 
Utilizando la semejanza de triángulos podemos observar que la razón entre los lados marcados en la figura tam­bién es la razón aúrea, esto es:
H
Veamos ahora, algunas propiedades algebraicas de la ra­zón aúrea. Supongamos que queremos determinar el va­lor de:
I
entonces, elevando al cuadrado la ecuación tenemos que:
J
es decir, x2 =1+x, que es precisamente la razón aúrea. Ob­servemos también que podemos definir la razón aúrea me­diante una fracción continua, es decir:
K
esto lo podemos escribir como:
L
que nuevamente nos define la razón aúrea.
 
¿Qué relación hay entre esto y la sucesión de Fibonacci? Como vimos, la sucesión de Fibonacci está formada por los números: 1, 1, 2, 3, 5, 8, 13, 21,34, 55, 89, 144,…, consideremos la razón de los números sucesivos, calculados hasta el sexto decimal:
M
vemos que convergen a la razón aúrea, es decir:
N
se aproxima a ϕ cuando n se hace suficientemente grande. Esta propiedad fue descubierta en 1611 por el famoso astrónomo alemán Johannes Kepler, pero pasaron más de cien años antes de que la relación entre los números de Fi­bo­nacci y la razón aúrea fuera demostrada por el matemático escocés Robert Simson.
 
Por otra parte, hay un gran número de hechos curiosos que pueden deducirse a partir de distintas relaciones con los números de Fibonacci. Veamos algunas de ellas.

Cuadrando rectángulos. Si sumamos un número impar de productos de números sucesivos de Fibonacci, como por ejemplo:
O
obtenemos el cuadrado del último número de Fibonacci que se utilizó:
P
Esta propiedad puede representarse geométricamente de manera muy bonita. Consideremos rectángulos cuyos la­dos miden dos números de Fibonacci consecutivos, es de­cir, un cuadrado de 1×1, un rectángulo de 1×2, uno de 3×5 y así sucesivamente. Los acomodamos como se mues­tra en la figura 7 y vemos que se forma un cuadrado de lado 21.

Divisibilidad entre 11. Si sumamos los primeros diez números de Fibonacci obtenemos un número divisible entre 11, es decir:
Q
Lo mismo es cierto al considerar cualesquiera diez números consecutivos de dicha sucesión. Además, la suma de diez números consecutivos de Fibonacci es siempre igual a once veces el séptimo número que aparece en la suma de los diez números consecutivos, por ejemplo:
R
Periodicidad en los números de Fibonacci. Los números de Fi­bonacci se hacen muy grandes rápidamente, ya que siem­pre añadimos dos para formar el tercero. Por ejemplo, el quinto número de Fibonacci es 5 mientras el número 125 es 59 425 114 757 512 643 212 875 125. Pero, ¿cómo po­demos calcular los números de Fibonacci sin conocer los anteriores? En el siglo xix, el matemático francés Jacques Phillipe Marie Binet redescubrió una fórmula, que aparentemente ya sabían desde el siglo anterior Leonard Euler y Abraham de Moivre, la cual permite conocer cualquier nú­mero de Fibonacci (Fn) si sabemos su lugar en la se­cuencia, y sin haber calculado todos los anteriores. Esta fórmula esta relacionada con la razón aúrea:
S
A primera vista, es desconcertante; ya que ni siquiera es obvio que si sustituimos varios valores de n nos dará un entero. Como ya sabemos que los números de Fibonacci están íntimamente relacionados con la razón de oro, tal vez sea menos sorpresiva, pues el primer término simplemente es la razón aúrea elevada a la potencia n, es decir, ϕn y el segundo es (1/ϕ)n. Para valores grandes de n, el se­gundo término tiende a cero y entonces el n-ésimo número de Fibonacci se acerca mucho:
T1
Por ejemplo, el décimo número de Fibonacci se apro­xima a:
T2
y precisamente es 55.
Veamos ahora las propiedades de periodicidad. El segun­do número de Fibonacci es 1 y el número 62 es 4 052 739 537 881, que termina en 1; el número que está en el lugar 122 es 14 028 366 653 498 915 298 923 761, que también termina en 1. De hecho, puede verse que la termina­ción en 1 se presenta cada 60 números de Fibonacci. Simi­lar­mente, el número que está en el lugar 14 es 377 y el número que ocupa el lugar 74 es 1 304 969 544 928 657, que también termina en 7, y así sucesivamente. Esta propiedad fue descubierta por el matemático francés J. Louis La­grange en 1774.
 
Los últimos dos dígitos, si pensamos en la sucesión como 01, 01, 02, 03, 05, 08, 13, 21,…, se repiten en la secuen­cia cada 300 números, es decir, con periodicidad 300 y los últimos tres dígitos con periodicidad de 1 500. En 1963, Stephen P. Geller usó una computadora para mostrar que los últimos cuatro dígitos se repiten con una periodicidad de 15 000, los últimos cinco con periodicidad de 150 000 y los últimos seis con una periodicidad de 1 500 000. No continuó porque su computadora no pudo calcular más núme­ros. Geller comentó en dicha ocasión que “no parece haber ninguna manera de adivinar el próximo periodo, pero tal vez haciendo un nuevo programa para la máquina que permita iniciar la secuencia en cualquier punto, recortará el tiempo necesario de trabajo y se puedan calcular más números”. Poco tiempo después, el matemático israelí Dov Jarden probó rigurosamente que para cualquier número de Fibonacci de tres o más dígitos la periodicidad está re­la­cionada con el número de dígitos que queremos que sean iguales, es decir, la periodicidad será 15×10n–1, donde n es el número de dígitos que queremos que se repitan —por ejemplo, para tener periodicidad de siete dígitos, te­nemos que ésta será cada 15×106 números.
 
Los números de Fibonacci y las ternas Pitagóricas. Las ternas Pitagóricas son tripletas de números que forman los catetos de un triángulo rectángulo y su hipotenusa; es decir, los números a, b y c forman una terna Pitagórica si:
U
Por ejemplo, una terna está formada por los números 3, 4, 5, ya que 32+42=52. Veamos cómo están relaciona­das es­tas ternas con los números de Fibonacci. Si tomamos cua­tro números de Fibonacci consecutivos cualesquiera, el pro­ducto de los dos números en los extremos, dos veces el produc­to de los números centrales y la suma de los cuadra­dos de los números centrales, nos dan los tres lados de un triángulo de Pitágoras. Esta propiedad fue descu­bierta por el matemático Charles Raine. Por ejemplo, si tomamos los núme­ros 1, 2, 3, 5, entonces 1×5=5, 2×2×3=12 y la suma de los cuadrados 22+32=13, nos da la tripleta Pitagó­rica 5, 12, 13 (52+122=132). Pero esto no es todo, en este caso se observa además que 13 es un número de Fibo­nacci.

La fórmula de Jean Dominique Cassini. En 1680, el astrónomo Jean Dominique Cassini, jugando con los números de Fibonacci, descubre una identidad interesante que ha sido la base de una de las paradojas geométricas favoritas de Lewis Carroll. Si consideramos la matriz:
V1
multiplicando a A por sí misma, tenemos:
V2
repitiendo la operación, tenemos:
V3
en general, tenemos que:
V4
donde Fi son los números de Fibonacci. Considerando que el determinante de una matriz de 2×2 se define como:
W1
tomamos ahora el determinante de An+1; tenemos que:
W2
Ahora bien, como los determinantes tienen la propiedad de que det(A·B)=detA·detB, tenemos que:
W3
que es la conocida fórmula de Cassini.
Veamos ahora la paradoja geométrica relacionada con esta fórmula. Consideremos un cuadrado de lado 8 y dividámoslo en cuadrados de lado uno, como se muestra en la figura 8.
fig8
Recortemos el cuadrado original por las líneas mar­ca­das y reacomodamos los pedazos para formar un rectángu­lo de lados F7=13 y F5=5, como se muestra en la fi­gura 9.
fig9
El cuadrado tiene un área de 8×8=64 uni­dades, mientras que el rectángulo tiene un área de 5×13=65 unidades, es de­cir, F7F5–F26=–1. De hecho, la fórmu­la de Cassini nos dice que ganamos o perdemos un cuadradito dependiendo de si n es par o impar. La pre­gunta se­ría, ¿dónde está el cua­dra­dito que tiene de más el rectángulo?
 
La realidad es que los bordes de los trozos 1, 2, 3 y 4 no coinciden a lo largo de la diagonal pq, sino que forman el paralelogramo psqr que se muestra, de una forma exagerada, en la figura 10. En realidad, este paralelogramo tiene área 1.
fig10
El ángulo spr es tan pequeño que nunca se llega a per­cibir el paralelogramo, a menos que se recorten y se colo­quen los trozos con mucho cuidado. En realidad, es muy fácil ver, utilizando trigonometría, que el ángulo spr es verda­deramente pequeño.

Los números de Fibonacci, la razón aúrea y los fractales. A lo lar­go de la historia, una de las pasiones comunes de los ar­tistas y los matemáticos ha sido el problema de cómo cu­brir el plano con polígonos regulares o cómo llenar el espacio con poliedros regulares.
 
Los cuadrados, los triángulos equiláteros y los hexágonos se pueden juntar de manera muy sencilla para cubrir el plano, es decir, teselar el plano. Si uno quiere obtener un patrón que se repita en intervalos regulares —esto se co­noce como teselación periódica—, utilizando los polígo­nos men­cionados es muy sencillo, como se muestra en los polígonos de la figura 11.
fig11
Como se observa en las figuras, si rotamos un cuadrado 90º, éste permanece igual, es decir, si lo rotamos cuatro ve­ces cubrimos un área del plano sin dejar huecos. Análoga­mente, los triángulos equiláteros tienen simetría si los ro­tamos una tercera parte de un círculo, es decir, 120º, y si fijamos uno de los vértices del triángulo y lo rotamos seis veces cubrimos una región del plano. De la misma forma, esto sucede para los hexágonos.

Teselaciones periódicas pueden generarse con figuras más complicadas; sin embargo, los pentágonos no pueden utilizarse para cubrir el plano. Como se expuso en la construcción de pentágonos y pentagramas, los ángulos del pen­tágono miden 108º. Si hacemos que coincidan tres vértices de tres pentágonos, la suma de sus ángulos es 324º; es decir, quedará un hueco y nunca podrá cubrirse una región del plano.

R. Penrose y J. H. Conway demostraron que el plano se puede cubrir con algunas figuras de forma no periódica. Los trabajos de teselación de Penrose se generalizaron a tres di­mensiones. Así como puede cubrirse el plano con po­lí­go­nos, podemos llenar el espacio con bloques. Robert Ammann descubrió algunas figuras geométricas para llenar el espacio y, proporcionando algunas reglas de cómo pegar las caras, logró construir patrones no periódicos en el es­pacio.
 
Las teselaciones de Penrose y de Ammann habrían permanecido en el área de matemáticas recreativas si no es por un descubrimiento realizado en 1984. En ese año, unos científicos israelíes encontraron que hay algunos cristales de manganeso de aluminio que tienen configura­ciones no periódicas. En realidad, esto fue una gran sorpresa para los físicos y los cristalógrafos que por décadas estuvieron convencidos de que los cristales o son periódicos o altamente desordenados, es decir, completamente amorfos. Por ejemplo, un átomo de sal tiene una forma cúbica perfecta, la cual forma estructuras periódicas, mien­tras que en el vidrio los átomos están completamente desordenados. Antes de este descubrimiento, muy pocos sospechaban que existía otro estado de la materia que comparte aspectos importantes con los cristales o con las sustancias amorfas. A esta nueva clase de cristales se les conoce como cuasi cristales.

El modelo de Steinhardt-Jeong de cuasicristales tiene una propiedad interesante que produce efectos ordenados de largo alcance partiendo de las interacciones de los vecinos, sin que esto nos lleve a estructuras periódicas como los cristales. Sorprendentemente, podemos encontrar esta propiedad en los números de Fibonacci. Consideremos el siguiente algoritmo para generar la sucesión conocida como sucesión aúrea. Comenzamos con el número 1, y reemplazamos el 1 por el 10. De aquí en adelante, reemplazamos los 1 por 10 y el 0 por 1. Así, obtenemos:
X
y así sucesivamente. Claramente, empezamos aquí con una regla de corto alcance —es decir, transformamos el 0 en 1 y el 1 en 10— y obtenemos una sucesión no periódica. Notemos que el número de unos y de ceros en cada paso forma una sucesión de Fibonacci. Conforme la sucesión se hace más larga, se puede observar que, la razón entre el número de unos y de ceros se aproxima además a la ra­zón aúrea. Más aún, si en esta sucesión de unos y de ceros reemplazamos los ceros por una pareja de conejos bebés y los unos por una pareja de conejos adultos, entonces ob­tenemos la sucesión de conejos con la que iniciamos, finalizando así nuestro breve recorrido por uno de los problemas más fascinantes en la historia de las ma­te­máticas.
Radmila Bulajich,
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
 
Vorobyov, N. N. 1973. Los números de Fibonacci. Ed. Limusa.
Lang, S. 1990. Introducción al Álgebra Lineal. Addison Wesley Iberoamericana.
Livio, M. 2002. The Golden Ratio. Broadway Books.
Collingwood, S.D. 1961. Diversions and Disgressions of Lewis Carroll. Dover.
Radmila Bulajich Manfrino cursó la licenciatura en Matemáticas en la Facultad de Ciencias de la unam. Posteriormente, realizó estudios de posgrado en Inglaterra y en México. Desde 1978 es profesora de tiempo completo en la Facultad de Ciencias, unam. Es miembro del Sistema Nacional de Investigadores.
_______________________________________________________________

 

como citar este artículo

Bulajich, Radmila. (2006). Una sucesión y un número que han hecho historia. Ciencias 84, octubre-diciembre, 52-62. [En línea]
  ←Regresar al índiceartículo siguiente→
You are here: Inicio Búsqueda Titulo revistas revista ciencias 84