revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
R05Articulos4   menu2
   
   
Guillermo Aullet
     
               
               
El pasado 19 de abril de 1982 se conmemoró el primer
centenario de la muerte de Charles Darwin (1809-1882) uno de los más brillantes científicos de la historia, celebérrimo por su teoría de la evolución, que hoy sirve como principio fundamental de la Biología.
 
La teoría evolucionista fue enunciada por Darwin en su famoso libro, El origen de las especies, publicado en 1859. Dicha obra levanto tal revuelo que se agotó el mismo día de su aparición. El motivo de aquella tremenda turbación fue que en ella, el autor planteaba la transformación de unas especies biológicas en otras, de manera gradual, en contradicción con las ideas prevalecientes en la época basadas en el relato bíblico del Génesis. La teoría darwiniana fue bien acogida por un buen número de biólogos en toda Europa, tales como Huxley y Haeckel, sin embargo, hubo otros que no la comprendieron y hasta la atacaron ferozmente.
 
En abril de 1982, la revista Science 82, señalaba que la teoría de Darwin rara vez ha conocido una década de paz, pues desde que hizo acto de presencia ha suscitado innumerables controversias. A pesa de ello, se ha mantenido su idea central.
 
La Teoría de Darwin señala que todas las especies de animales y plantas actuales descienden de otras especies ya desaparecidas. Según esta concepción el proceso mediante el cual se forman nuevas especies es la selección natural. Más adelante veremos en qué consiste dicho proceso.
 
La idea de que las especies de seres vivos han cambiado, o mejor dicho han evolucionado, fue sugerida ya en tiempos anteriores a Darwin, principalmente por los restos fósiles encontrados en diversas partes de Europa y otros continentes, que mostraban la existencia de formas de vida pretéritas distintas a las actuales. Gracias a los fósiles, sabemos que hace cien millones de años habitaban la tierra enormes reptiles, como el tiranosaurio, el triceratopo, el pterodáctilo y el ictiosaurio; y que los mamíferos apenas eran un grupo de animales pequeños e insignificantes.
 
Los fósiles se localizan en depósitos de rocas sedimentarias. Estas rocas se producen por el desgaste o erosión de otras rocas (metamórficas e ígneas) a causa del viento, el agua, los cambios de temperatura y otros agentes físicos y químicos. De este modo, las rocas originales quedan prácticamente pulverizadas y luego son arrastradas por los ríos, mares o el viento, hasta determinadas zonas donde se depositan formándose así una serie de capas o estratos. Por lo tanto, los estratos más recientes se encuentran en la parte superior y los más antiguos en las partes más profundas. A lo largo de millones de años las capas de sedimentos se vuelven compactas y sólidas formando masas aplanadas de gran tamaño. En esas capas de sedimentos se encuentran enterrados troncos, huesos, conchas y caparazones petrificados, así como: huellas, impresiones, excresiones, marcas, etc., de distintas plantas y animales cuyo aspecto y organización revelan frecuentemente diferencias notables con respecto a las formas de vida que existen actualmente.
 
Por lo tanto, los fósiles constituyen la evidencia más directa de la evolución. Algunos fósiles proporcionen escasa información sobre la vida del pasado remoto; tal es el caso de las huellas, impresiones o excresiones, pero otros, en cambio, suministran informes muy completos; por ejemplo: los mamutes congelados en perfecto estado de conservación encontrados en Siberia, y el sinnúmero de insectos que quedaron preservados en el ámbar (resina fosilizada producida por vegetales ya desaparecidos). La mayoría de los fósiles encontrados nos proporcionan información que pueda considerarse intermedia entre los dos casos mencionados.
 
Estas evidencias de la vida pretérita permiten la realización de estudios comparativos con la anatomía y las estructuras de las especies de vegetales y animales que habitan en la actualidad nuestro planeta. Paralelamente, se comparan los fósiles con embriones y formas larvarias de organismos actuales. Estos estudios, aunados a otros que comprenden a la fisiología, la bioquímica, la inmunología y la parasitología comparadas, así como los de la genética y la biología molecular, permiten a los biólogos establecer parentescos, probables líneas de descendencia y árboles genealógicos; o bien, para decirlo en términos más técnicos: gracias a tales estudios los biólogos pueden llegar a determinar posibles relaciones filogenéticas entre las especies extintas que vivieron hace miles o millones de años.
 
Sin embargo, hay otras investigaciones que permiten comprender la evolución y el origen de las especies biológicas. Se trata de aquellas que comprenden una rama de la biología muy importante: la biogeografía.
 
Es aquí donde hizo su entrada la teoría darwiniana de la evolución. En efecto, Darwin no sólo demostró de manera contundente la existencia de la evolución, sino que la explicó descubriendo su proceso fundamental: la selección natural.
 
Darwin estableció su teoría con base en el sinnúmero de datos que pudo reunir durante dos decenios, especialmente en su viaje de casi cinco años alrededor del mundo, a bordo del barco inglés “Beagle”. Efectivamente, puede decirse que el punto de partida de sus ideas fueron sus observaciones biogeográficas, es decir, de la distribución de los seres vivos en el globo terráqueo, las cuales chocaban violentamente con las explicaciones creacionistas muy en boga entre los naturalistas de la época. El propio Darwin lo expresa en una carta enviada a su amigo Joseph Hooker, el 11 de enero de 1844:
 
“…Desde mi regreso, he estado inmerso en un trabajo muy audaz, y no sé de una sola persona que dejara de llamarme loco. Me impresionó tanto la distribución de los organismos de las Galápagos, etc., etc., y con las características de los mamíferos fósiles americanos, etc., etc., que decidí colectar a ciegas toda clase de hechos que pudieren relacionarse de cualquier manera con qué son las especies. He leído montañas de libros de agricultura y horticultura, y no he dejado de recoger datos. Por fin ha surgido un rayo de luz, y estoy casi convencido (totalmente en contra de la opinión de la que partí) de que las especies no son (es como confesar un crimen) inmutables”.1
 
Pero el mérito de Darwin no sólo radica en haber demostrado de modo contundente la existencia de la evolución biológica, sino el haber enunciado una teoría coherente y ampliamente respaldada por múltiples evidencias, que demuestran aquel hecho. Esta explicación es la selección natural.
 
Con su teoría de la selección natural Darwin puso énfasis en el escenario ecológico en el que se realista el proceso evolutivo. Esta concepción le vino a la mente cuando leyó el Ensayo sobre la población, de Malthus y gracias a la experiencia acumulada por los criadores de animales domésticos y los cultivadores de plantas. Darwin señala que la naturaleza actúa sobre los organismos, seleccionando a aquéllos que están mejor equipados para responder a las múltiples y complejas demandas del ambiente, expresadas en la llamada lucha por la existencia; de manera análoga a la forma en que un criador de animales selecciona a los individuos que reúnen determinadas características que se desean preservar, permitiéndoles reproducirse. Así, según esta teoría, se irán modificando ciertas características hasta obtener un tipo de organismo distinto del original de manera paulatina y gradual.
 
El concepto de selección natural desterraba prácticamente la milenaria idea de la “herencia de caracteres adquiridos”, utilizada por los evolucionistas anteriores a Darwin, que intentaba explicar las variaciones entre los seres vivos y la formación de nuevas especies. El caso más conocido es el de Lamarck, quien de manera ingenua “explicaba” por qué tenían el cuello largo las jirafas.
 
En la teoría darwiniana, la materia prima sobre la que actúa la selección natural es la variación, que análogamente es igual a la que trabaja el criador, en la selección artificial.
 
Veamos ahora qué se entiende por variación.
 
Cualquiera de nosotros sabe que todos los seres humanos pertenecen a una misma especie, a la cual denominan los biólogos, Homo sapiens. No obstante, es muy fácil percatarse de las múltiples diferencias que existen entre todos los miembros de la humanidad, tales como: la estatura, el color del pelo, los ojos y la piel, forma del cráneo, de la cara, tipo sanguíneo, etc., etc. Así pues, no existen dos seres humanos idénticos. Esto también es extensivo para las demás especies animales y vegetales, aunque las apariencias no lo indiquen así. La diversidad existente entre los miembros de una especie es conocida como variación, y está determinada por las leyes de la herencia. Por otra parte, hay que mencionar la existencia de algunas características de los individuos que no son heredables, las cuales no tienen relevancia en el ámbito de la evolución; por lo tanto, cuando se menciona la variación, se refiere únicamente a aquélla que es transmitida a la descendencia. Pongamos un ejemplo para aclarar esto. Un levantador de pesas ha desarrollado una notable corpulencia y musculatura, gracias al ejercicio metódico y constante que ha practicado durante varios años, así ha adquirido una característica física que no poseen otros hombres, pero esa característica no la heredarán sus hijos, a menos que también realicen el mismo entrenamiento que llevó a cabo su padre. En consecuencia, el carácter adquirido por nuestro hipotético levantador de pesas, no puede ser heredado, como erróneamente se supuso antes de Darwin; como tampoco son heredados otros rasgos adquiridos en el transcurso de la vida de otros hombres como la habilidad de los dedos de un pianista o una mecanógrafa. Tratándose de otros organismos, los perros de algunas razas creadas por el hombre a los que se les ha mutilado el rabo durante siglos, no heredan ese carácter a su descendencia.
 
 
¿Cuál es entonces el origen de la variación?
 
Darwin no pudo dar una respuesta convincente a esta pregunta, pues nunca conoció los trabajos de Mendel acerca de la herencia. Hoy, gracias a los trabajos de Hugo de Vries, Karl Correns, Erick Tschermak y los de la escuela de Thomas Morgan, así como los obtenidos por la Biología Molecular, se sabe que la fuente primaria de la variación es la mutación. Esta es una alteración espontánea y repentina en uno de los caracteres hereditarios que puede alterar seriamente a una parte o a todo el genoma, es decir, a todo el conjunto armónico de caracteres hereditarios o genes de un organismo.
 
A pesar de estos logros, todavía no hay una explicación satisfactoria sobre las causas naturales de la mutación, aunque se pueden inducir artificialmente por medio de diversos agentes físicos y químicos, tales como: los rayos “X”, la colchicina, etc.
 
Los descubrimientos de la genética no modificaban, desde luego, las ideas centrales de la teoría de Darwin. No obstante, el ambiente ideológico y la interpretación errónea de los nuevos hallazgos, hicieron pensar a muchos científicos, a principios de este siglo y hasta el tercer decenio, que la teoría darwiniana era obsoleta para explicar la evolución. Para substituirla propusieron una teoría mutacionista, que negaba cualquier papel relevante a la selección natural, o lo negaba totalmente. Sin embargo, el mutacionismo en realidad revivía las concepciones creacionistas, puesto que un proceso sustentado en fenómenos totalmente aleatorios (las mutaciones), no podían explicar los complejos mecanismos de la adaptación que de esta forma parecían predestinados, orientados por fuerzas sobrenaturales o por actos milagrosos. Así pues, renació el antievolucionismo, que alcanzó su máxima expresión en el período comprendido entre las dos guerras mundiales, mismo que mereció ataques feroces por parte del Dr. Alfonso L. Herrera primera figura de la Biología mexicana.2
 
Por otra parte, hubo otros científicos y filósofos que pasaron por alto la importancia de los mecanismos genéticos y que exageraron el papel del ambiente en la evolución, resucitando la antigua idea de la herencia de los caracteres adquiridos y del uso y desuso de los órganos3 de Lamarck.
 
El adalid de este neolamarckismo fue, T. D. Lysenko, quien propició un atraso terrible en la Biología soviética y llevó al fracaso los planes de productividad agrícola, motivos por los que vio extinguir su estrella hacia 1964.4 Otro intento muy reciente de neolamarckismo está representado por el inmunólogo australiano E. J. Steete.5
 
Así pues, entre las dos guerras mundiales había dos planteamientos antagónicos acerca de la evolución: el mutacionismo en el occidente, y el neolamarckismo en el oriente.
 
En 1937, Theodosius Dobzhansky, publica su libro: La genética y el origen de las especies, en el cual rescata la teoría darwiniana y demuestra que los descubrimientos de la genética refuerzan dicha teoría, en vez de contradecirla. Así surgió lo que se ha dado en llamar, la teoría sintética de la evolución o neodarwinismo; que ha tenido además a otros cuatro representantes principales: George G. Simpson, Ledyard Stebbins, Julian Huxley y Ernst Mayr.
 
Según la moderna teoría evolutiva, la fuerza orientadora y fundamental de la evolución es la selección natural, expuesta por Darwin en su obra maestra6, la cual actúa sobre los diversos caracteres genéticos, que en última instancia provienen de las diversas mutaciones producidas a lo largo de miles de millones de años. Pero, la selección natural no ejerce su influjo en individuos aislados sino en conjuntos de ellos que comparten un patrimonio genético común, cuyos miembros intercambian elementos diversos de ese patrimonio que, por otra parte, no es un mero agregado de genes sino un todo orgánico y armónico, en el cual se producen diversas interacciones muy complejas que apenas empezamos a comprender vagamente. Del intercambio o cruzamiento entre los individuos de la población, resultan nuevas y diversas recombinaciones genéticas que se revelan de modo distinto en los rasgos aparentes (fenotipo) sobre los que ejerce su acción determinante la selección natural. Por consiguiente, la gran mayoría de los caracteres observados en los componentes de las poblaciones animales o vegetales resultan de diversos tipos de combinaciones de genes que pueden reforzarse o debilitarse uno a otro; dar resultantes completamente distintas, o bien, enmarcarse unos a otros, dando así un juego muy diverso de respuestas posibles a las demandas del ambiente que esté compuesto de otras poblaciones de especies distintas. Estas constituyen los elementos fundamentales de las fuerzas selectivas. Por lo tanto, la selección natural es una intrincada urdimbre de factores y fuerzas que ejercen su influjo sobre las potencialidades que tienen su asiento en el patrimonio genético de las poblaciones de las distintas especies. Aquellas combinaciones genéticas que correspondan a las exigencias del ambiente tenderán a ser seleccionadas por éste, logrando así reproducirse e incorporando sus genes a la población y contribuyendo al acervo genético de ella.
 
Cuando las poblaciones de algunos organismos quedan separadas por el surgimiento de una barrera geográfica (separación de un territorio del continente, surgimiento de un río, una cadena montañosa o un glaciar), dichas poblaciones pueden estar sujetas a condiciones distintas (presiones de selección) favoreciéndose la preservación de ciertas cualidades y la eliminación de otras. De esta manera, se pueden obtener como resultado dos poblaciones que difieren notablemente una de otra, formándose así dos razas o subespecies distintas. Si este proceso continúa pueden acentuarse las diferencias entre las poblaciones mencionadas al grado de ser incapaces de reproducirse entre ellas si desapareciese la barrera geográfica y se pusieran en contacto en la misma región. En consecuencia, se producirán dos especies distintas, de un modo gradual y paulatino, a partir de una especie ancestral. Existen innumerables evidencias de este proceso de especiación, que no pueden ser expuestas en un espacio tan reducido.
 
Así, mediante el aislamiento geográfico prolongado, puede producirse el aislamiento reproductivo que es el punto de partida de nuevas especies. Este razonamiento, expresado por Darwin en su famoso libro de 1859, fue objeto de enconados debates y hubo muchos naturistas que trataron de refutarlo cuando le demandaban que enseñara las “formas intermedias” (que Darwin llamaba, “especies incipientes”) que condujeron a las nuevas especies, a lo cual respondía el gran biólogo inglés: “sí, cuando vosotros me mostréis cada paso entre el dogo y el galgo”1.
 
Por desgracia, resulta muy difícil encontrar toda la gama de formas intermedias porque el registro fósil es escaso e incompleto, como nos enseña la Paleontología. Empero, este inconveniente no invalida lo expresado arriba, ya que únicamente de ese modo podemos explicar las grandes diferencias y semejanzas entre las faunas y floras de todo el mundo, así como las dificultades frecuentes para distinguir claramente especies y subespecies. Un poderoso apoyo para la teoría darwiniana ha sido la biogeografía de las islas, las cuales no en vano han sido calificadas como “los laboratorios de la evolución”, desde que Darwin descubrió la distribución de especies en las Islas Galápagos y explicó sus causas.
 
Con la aparición de El Origen de las Especies, de Darwin, la biología fue dotada de su principio unificador más importante, alcanzó así su “mayoría de edad” como ciencia, tal como la química la obtuvo con la teoría atómica.
 
A lo largo de sus ciento veintitrés años de existencia, la teoría de Darwin ha tenido que cambiar algunas de sus ideas originales en virtud de los nuevos conocimientos adquiridos, pero su columna vertebral sigue incólume, a pesar de los duros y múltiples embates que ha padecido desde que vio la primera luz. Desde entonces ha sido víctima de tremendas deformaciones como las del llamado “darwinismo social”, que tuvo como primer representante genuino a Herbert Spencer, y en nuestros días, a personajes como Konrad Lorenz, Desmond Morris y Robert Ardrey; quienes nutridos de la filosofía positivista han intentado reducir los procesos sociales a procesos biológicos, como la lucha por la existencia, la selección natural y la conducta ritualizada. Esto ha ocasionado que algunos confundan el término “darwinismo” o “neodarwinismo”, con la tergiversación orquestada por los epígonos de Spencer o por los apologistas del neofascismo. Por lo tanto, el darwinismo es lícito en el ámbito puramente biológico y no en el contexto de la sociedad humana.
 
En los últimos doce años se ha venido orquestando otra nueva cruzada contra el darwinismo, para ello se ha recurrido, como antaño, a los nuevos hallazgos científicos que supuestamente contradicen la teoría de Darwin. En realidad, con tales argumentos sólo pretende encubrirse a los eternos enemigos del evolucionismo y de la ciencia. Naturalmente, no podemos negarnos a priori a aceptar los nuevos descubrimientos que pueden modificar nuestros conceptos acerca de un proceso determinado, pero esto debe ser dirimido dentro de la propia ciencia, con auténtica honestidad intelectual. Pero, desafortunadamente la ciencia no es una ínsula separada del seno de la sociedad y quiéralo o no está sujeta a su influjo, particularmente en lo que se refiere a las concepciones filosóficas dominantes o, que se han puesto de moda. Ahora como antes, cuando los vitalistas de los años veinte y treinta pregonaban el fin del darwinismo y daban rienda suelta a sus ideas creacionistas amparados supuestamente en las nuevos descubrimientos de la genética, vivimos una época de profunda crisis económica y política en el mundo occidental, que ha nutrido el renacimiento de esa Ave Fénix del oscurantismo, el fanatismo y la apocalipsis, que amenazan de nuevo a la razón y a la dignidad humana, comprometiendo seriamente el desarrollo científico. Ciertamente no es casual que en estos años haya vuelto a la palestra el creacionismo, al tratar de implantarse en las programas de enseñanza de la biología, en las escuelas públicas de los Estados Unidos, como en aquel año de 1925, en el cual fue llevado a los tribunales un profesor de enseñanza media llamado John Scopes, por el delito de enseñar la teoría darwiniana de la evolución.
 
Ya se dijo, al principio de este artículo, que la teoría de Darwin no ha conocido realmente la paz, la causa de ello ha sido claramente expresada por Eli de Gortari cuando dice: “sin duda, las ideas de Darwin radicalizaron en definitiva la ciencia entera, y no sólo la Biología, al hacer que se indagara hasta el origen o la raíz misma de los procesos para poder explicarlos. Por ello es que, entre todas las grandes conquistas logradas por las ciencias naturales en el siglo XIX, únicamente la teoría de la evolución es la que desempeña un papel comparable por su importancia y sus alcances a la revolución científica desatada por Copérnico”.7 Es por esta razón que no por casualidad Marx y Enqels, tuvieron en muy alta estima el trabajo de Darwin, como tampoco es casual que sus ideas fueran objeto de fuertes ataques por parte de los grupos más conservadores y reaccionarios.
 
Por todo lo anterior, es de temerse que los descubrimientos recientes se estén interpretando a la luz de concepciones filosóficas de raigambre positivista, alimentadas especialmente por el sentimiento pesimista y confuso que reina en este tiempo. No se puede atacar al darwinismo impunemente sin socavar los cimientos de toda la biología, es por ello que debe actuarse con extrema cautela y prudencia al hacer interpretaciones en ese sentido, ya que es probable que detrás de los debates académicos al respecto, se encuentre agazapado el monstruo del vitalismo de nuevo cuño, amamantado por los caudillos del creacionismo contemporáneo (los fundamentalistas) y los agnosticistas de la peor laya, que pretenden asestar el golpe de muerte al evolucionismo.
 
Así pues, detrás de la polémica actual en torno a la teoría naturalista, el cladismo, la teoría del equilibrio puntual, etc., que no han podido mostrar solidez convincente, se halla una lucha ideológica sorda que muy pronto se hará más evidente. 
     

Notas

1. Darwin, C., (1892) The autobiography of Charles Darwin and selected letters (ed. Francis Darwin), reeditado por: Dover, Nueva York, 1958, p 183-184.
 
2. Herrera, A. L., (1924), Biología y plasmogenia, Herrero, México. p. 475.
 
3. La idea del uso y desuso fue también empleada por Darwin en su obra fundamental, El Origen de las Especies, para explicar el desarrollo y atrofia de algunos órganos; pero esto no puede imputársele a una debilidad de su teoría sino al nulo conocimiento que se tenía acerca de la herencia.
 
4. Medvedev, Z. A., (1969), The rise and fall of T. D. Lysenko, Columbia University Press, Nueva York.
 
5. E. J. Steele, (1981), Somatic selection and adaptive evolution, University of Chicago Press, Chicago.
 
6. Darwin, C. R., (1859), On the origin of species by means of natural selection, John Murray, Londres, ed. facsimilar de la Universidad de Harvard, Cambridge, 1976.
 
7. Gortari, E., (1969), Siete ensayos filosóficos sobre la ciencia moderna, Grijalbo, México, p. 78.
     
____________________________________________________________
     
Guillermo Aullet
Profesor de la Facultad de Ciencias, Universidad Nacional Autónoma de México.

 
 
cómo citar este artículo
Aullet, Guillermo 1984. ¿Qué es la evolución? Ciencias 5, enero-marzo, 39-40. [En línea]
     
R05Articulos3   menu2
   
   
Carlos Marx
     
               
               
Presentación
 
Los Manuscritos matemáticos de Carlos Marx están dedicados a esclarecer la esencia del Cálculo Diferencial.
 
La explicación propuesta por Marx respecto a los conceptos fundamentales y métodos del Cálculo Diferencial permite, desde el punto de vista del materialismo dialéctico aún en la actualidad, explicar en esencia el cálculo simbólico de la matemática y de la lógica matemática.
 
Aquí presentaremos la versión castellana de sólo dos manuscritos sobre la noción de derivada.
 
La versión castellana, es traducción de una parte de la edición bilingüe alemán ruso, cuyo título original es Matematischeskie rukopisi, Naura, M., 1968. Esta edición original incluye por primera vez todos los textos de trabajos de Marx que presentan sus aspectos más terminados, así como sus propias anotaciones en apuntes y transcripciones. La edición original contiene comentarios y observaciones de carácter matemático, histórico y de fuentes bibliográficas que la hace accesible a un círculo muy amplio de lectores. La edición estuvo a cargo de Yanovskaya S. A., Rybkin A. Z., Rybnikov K. A. con recomendaciones de Kolmogorov, A. N. y Petrovskii, I. G.
 
A manera de introducción
 
Desde el prólogo a la segunda edición del Antidühring (1885) escrito por Engels, se tiene noticias de que entre los manuscritos de Marx había algunos de contenido matemático a los cuales Engels confería un gran valor y deseaba publicar. Los manuscritos matemáticos están constituidos por aproximadamente 1000 páginas.
 
En el 50 aniversario de la muerte de Marx (1933), una parte de tales manuscritos fue publicada en ruso con los títulos: Bajo la bandera del marxismo, 1933, no. 1, 15-73 y El Marxismo y las ciencias naturales, 1933, 5-61.
 
La edición bilingüe original está dividida en dos partes. En la primera, están concentrados los trabajos propios de Marx. En la segunda se da la relación completa de todos sus apuntes y transcripciones de contenido matemático. No obstante tal separación, para una cabal comprensión de las ideas de Marx respecto a sus apuntes y más aun de las citas textuales de otros autores, frecuentemente es necesario conocer la literatura matemática por él resumida. Evidentemente tal imagen sólo fe da el libro en su conjunto y no dos de sus manuscritos; sin embargo, en el centésimo aniversario de su muerte, quisimos mostrar un botón que propicie la atención por tales manuscritos.
 
El interés de Marx hacia la matemática surgió ante necesidades que le planteó la elaboración de su obra El Capital, usualmente la estudiaba durante sus convalecencias (1858-1860), habiendo empezado con aritmética comercial, álgebra y rudimentos de geometría. En 1878 el estudio de la matemática empezó a tener en Marx un carácter sistemático. En el análisis de las crisis, Marx intentó varias veces calcular las alzas y bajas como curvas irregulares, de suerte que matemáticamente pudieran deducirse de esto las principales leyes. El mejor asesor en matemáticas que tuvo Marx fue Samuel Moore, de modestos conocimientos matemáticos, quien consideró que tal descripción no podía realizarse.
 
Incluso leyendo globalmente todos sus manuscritos es un gran enigma el por qué Marx pasó del estudio de la aritmética comercial al cálculo diferencial; lo que sí queda claro es que Marx se propone explicar cuál es la esencia del cálculo simbólico que opera con el símbolo de la diferencial. Marx basó sus estudios matemáticos en textos usados en la Universidad de Cambridge y textos conocidos de la época como el de Sauri, Boucharlat, Euler, MacLaurin, Lacroix, Hind, Hall y otros. Es digno de recordarse que en la década de los setenta del siglo pasado en el continente europeo se estaba fraguando el análisis clásico contemporáneo, antes que nada en los trabajos de Dedekind, Cantor y Weierstrass y sobre todo con la teoría de números reales y límite. Fue una lástima que Marx no haya tenido mejores contactos matemáticos que el señor Moore, aunque en ese época en todo el Reino Unido no hubiere encontrado personas enteradas, ni mucho menos entusiastas, de los trabajos que se realizaban en el continente, pues aún en 1917 Hardy se lamenta de que su libro está escrito en un estilo patético, que ahora se antoja risible, pero que respondía a que en Cambridge en esa época el análisis matemático era menospreciado.
 
Ésta es la causa del por qué seguramente Marx no reacciona respecto a esa problemática que conlleva interesantes conceptos e ideas más modernas. A pesar de ello, sus ideas acerca de la esencia del cálculo diferencial simbólico representan, aún hoy, un cierto interés.
 
Guillermo Gómez Alcaráz*
 
 
Sobre el Concepto de Derivada de una función1 (manuscrito 4147)
 
I
 
Supongamos que la variable independiente x crece hasta el valor x1 y por lo tanto la variable dependiente y crece hasta y1.2
 
Aquí en la parte I se considera el caso más simple, cuando x aparece solamente a la primera potencia
1) y = ax si x crece hasta x1, entonces
 
y1 = ax1
 
luego
 
y1 - y = a(x1 - x)
 
Si ahora realizáramos la operación de derivación, esto es si permitiéramos a x1 disminuir hasta x, obtendríamos
 
x1 = x ; x1 - x = 0 
 
por consiguiente
 
a(x1 -x) = a · 0 = 0
 
Luego, dado que y creció hasta y1 sólo como consecuencia de que x creció hasta x1, entonces también tendríamos:
 
y1 = y ; y1 - y = 0
 
Por lo tanto
 
y1 - y = a(x1 - x)
 
se convertiría en
 
0 = 0
 
Primeramente la formación de diferencias y luego inversamente quitarlas nos lleva literalmente a la nada. Toda la dificultad para entender la operación de derivación (como también para entender la negación de la negación, en general) consiste precisamente en apreciar en qué se distingue dicha operación de tal procedimiento simple y cómo lleva por lo tanto a resultados reales.
 
Si dividimos a(x1 - x) y respectivamente el primer término de la última ecuación entre el factor (x1 -x),obtendremos
 
ecuación...
 
Puesto que y es la variable dependiente, ella en general no puede realizar ningún cambio en forma independiente. Debido a esto (puesto que aquí y = ax no es posible hacer y1 = y por consiguiente no puede hacerse y1 – y = 0, sin que antes x1 sea igual a x.
 
Por otro lado vimos que x1 no puede ser igual a x en la función
a(x1 - x), sin qua esta última se reduzca a cero. Por esto el factor
(x1 - x) necesariamente resulta una diferencia finita3 en el momento en que dividíamos entre dicho factor ambos lados de la ecuación. De este modo en el momento en que formamos la relación
 
ecuación...
 
la expresión (x1 – x) representa siempre una diferencia finita y por lo tanto y1 – y / x1 – x es una relación entre diferencias finitas; correspondientemente a esto
 
ecuación...
 
Es así que
 
ecuación...    o4    ecuación...
 
donde la constante a aparece como límite de la relación de las diferencias finitas de ambas variables.5
 
Puesto que a es constante, ni a, ni la parte derecha de la ecuación reducida a ella admiten cambio alguno. En tal caso, el proceso de derivación ocurre en la parte izquierda de la ecuación:
 
ecuación...    o    ecuación...
 
y esta resulta ser una característica de funciones-simples tales como a x1.
 
Supongamos que en el denominador de la relación (variable), x1 decrece aproximándose a x; la frontera de su decrecimiento será alcanzada cuando x1 se reduce a x de manera que la diferencia
(x1 – x) resulta igual a x – x = 0 y consecuentemente también
y1 – y = y – y = 0. En esta forma obtenemos
 
0 / 0 = a
 
Dado que en la expresión 0 / 0 se esfumó toda huella de su procedencia y valor, entonces la sustituimos por dy / dx donde las diferencias finitas x1 – x o Δx, y y1 – y o Δy, y aparecen en forma simbólica como diferencias eliminadas o desaparecidas, de manera que Δy / Δx se convierten en dy / dx.
 
Así
 
dy / dx = a
 
Ciertos matemáticos racionalizadores se regocijan fuertemente del hecho consistente en que las magnitudes dy y dx cuantitativamente parecen como si sólo fueran magnitudes infinitamente pequeñas (y que su relación) es sólo cercana a 0 / 0, resultan una quimera, como será mostrado palpablemente en la parte II. Vale además la pena recordar, como particularidad del caso considerado, que tanto
Δy / Δx = a como dy / dx = a, esto es, el límite (de la relación) de las diferencias finitas resulta también el límite (de la relación) de diferenciales.
 
2) Como 2° ejemplo del mismo caso puede servir:
 
y = x ; y1 = x1 , y1 - y = x1 - x    
ecuación...    o    ecuación...    ecuación...    o    ecuación...
 
II
 
Cuando tenemos la expresión y = f (x) donde particularmente en el segundo miembro de esta ecuación aparece una función (de) x en su expresión algebraica desarrollada6 llamaremos a tal expresión función original de x; a su primera modificación obtenido mediante el planteamiento de incrementos —“derivada previa” de la función (de) x— mientras que la forma final que toma como resultado del proceso de derivación la llamaremos “derivada” de la función de x.7
 
1) y = ax3 + bx2 + cx - e
 
Si x crece hasta x1, entonces 
 
 y = ax13 + bx12 + cx1 - e
 
 y1 - y = a(x1 - x)3 + b(x1 - x)2 + c(x1 - x)
 
 = a(x1 - x) (x12 + x1x + x2) + b(x1 - x) (x1 + x) + c(x1 - x)
 
De dónde:
 
ecuación...    o    ecuación... = a(x12 + x1x + x2) + b(x1 + x) + c
 
La "derivada" previa
 
a(x12 + x1x + x2) + b(x1 + x) + c
 
aquí resulta ser el límite del cociente de incrementos, es decir, no importa que tan pequeños sean tomados estos incrementos el valor de Δy / Δx quedará dado por esta “derivada”. Sin embargo, tal valor no coincide como en la parte I, con el límite del cociente de diferenciales.*
 
Si en la función
 
a(x12 + x1x + x2) + b(x1 + x) + c
 
la variable x1 decrece, hasta no alcanzar la frontera de su disminución, esto es, hasta no llegar a ser igual a x, entonces x12 se transforma en x2, x1x en x2 y x1 + x en 2x y así obtenemos la “derivada” de la función (de) x:
 
3ax2 + 2bx + c
 
Aquí claramente se resuelve lo siguiente:
 
En primer lugar, para la obtención de la “derivada” es necesario hacer x1 igual a x, lo que significa desde un punto de vista matemático estricto que x1 – x = 0 sin rodeos debidos solamente a la aproximación infinita.
 
En segundo lugar, el hecho de hacer x1 = x por lo tanto x1 – x = 0, no agrega absolutamente nada simbólico a la “derivada”.** La magnitud x1 introducida originalmente a través de la variación de x no desaparece, tal magnitud solamente se reduce a su límite mínimo = x y permanece como cierto elemento de nuevo introducido en la función (de) x original. Esta magnitud x1 en combinaciones parciales consigo misma y parcialmente con la x de la función original nos da la derivada definitiva, o sea, la “derivada” previa reducida a su magnitud mínima.
 
La reducción de x1 a x dentro de la función primera derivada (previa) transforma la parte izquierda de Δy / Δx en 0 / 0 o en
dy / dx, lo cual significa que
 
ecuación...
 
de tal manera que la derivada aparece como el límite de la relación de las diferenciales.
 
La tribulación trascendente o simbólica ocurre solamente en la parte izquierda de la expresión, pero ya habiendo perdido su forma horripilante, dado que ahora aparece solamente como una expresión del proceso, cuyo contenido real aparece en la parte derecha de la misma ecuación.
 
En la “derivada”
 
3ax2 + 2bx + c
 
la variable x se encuentra en condiciones totalmente distintas a las que se encontraba en la función original (de) x precisamente en
ax3 + bx2 + cx – e. Por esto, ella (esta derivada) a su vez puede aparecer como función original y mediante la reanudación del proceso de derivación establecido ser de nuevo fuente de una cierta “derivada”. Esto puede repetirse hasta que la variable x no sea finalmente eliminada de alguna derivada, por lo tanto, esto puede extenderse infinitamente sólo en aquellas funciones de x representables como sumas infinitas lo que ocurre en la mayoría de los casos.
 
Los símbolos d2y / dx2, d3y / dx3, etc., indican sólo la “derivada” genealógica respecto de la función original (de) x dada inicialmente. Sólo aparecen como símbolos mágicos en caso de interpretarlos como punto de partida del movimiento y no simplemente como expresiones de las funciones (de) x deducidas. Entonces en efecto parece sorprendente que la relación de magnitudes que se anulan deben nuevamente pasar por grados superiores de anulación, mientras que a nadie le sorprender que por ejemplo 3x2 puede recorrer el proceso de derivación tan exitosamente como su progenitora x3. Dado que de 3x2 podemos partir como de una función original de x.
 
Sin embargo notabene. El cociente de incrementos Δy / Δx es el punto de partida del proceso de derivación prácticamente sólo en ecuaciones como las tratadas en la parte I, donde x aparece sólo a la primera potencia. Pero entonces como se muestra en la parte I, obtendremos como resultado que:
 
ecuación...
 
Por ende, aquí mediante el proceso de derivación, por el que pasa Δy / Δx, efectivamente no se determina ningún nuevo límite. Esto (la búsqueda del nuevo límite) es posible sólo debido a que la “derivada” previa contiene a la variable x, es decir, porque dy / dx permanece como símbolo de cierto proceso real.*
 
Esto, evidentemente de ninguna forma impide el que en el cálculo diferencial los símbolos dy / dx, d2y / dx2, etc., y sus combinaciones aparezcan en el lado derecho de la ecuación. Pero entonces sabremos también que tales ecuaciones simbólicas puras sólo señalan aquellas operaciones que luego hay que realizar sobre las funciones reales de sus variables.
 
2) y = axm
 
Si x se convierte en x1, entonces y1 = axm y
 
y1 - y = a(x1m - xm)
 
= a(x1 - x) (x1m-1 + x1m-2x + x1m-3x2 + etc.
 
hasta el término x1m-mxm-1)
 
tendremos
 
ecuaci/ecuación = a(x1m-1 + x1m-2x + x1m-3x2 + . . . + x1m-mxm-1) 

Si ahora aplicamos a esta “derivada previa”* el proceso de derivación, de manera que al hacer x1 = x o x1 + x = 0 tendremos que
 
x1m    Se transforma en    xm-1
 
x1m-2x    Se transforma en    xm-2x = xm-2+1 = xm-1
 
x1m-3x2    Se transforma en    xm-3x2 = xm-3+2 = xm-1
 
y finalmente
 
x1m-mxm-1    Se transforma en    xm-mxm-1 = x0+m-1 = xm-1
 
Obtenemos de este modo, m veces la función xm–1 y la “derivada” es consecuentemente maxm–1.
 
Gracias a la igualdad de x1 = x en la “derivada previa”* el lado izquierdo el cociente Δy / Δx se transforma en 0 / 0 o dy / dx, de donde
 
ecuación...
 
Podrían exponerse de esta manera todas las operaciones del cálculo diferencial, pero resultaría un pedantismo diabólico innecesario. De todas formas plantearemos aquí un ejemplo adicional, ya que en los anteriores la diferencia x1 – x aparecía en la función (de) x sólo una vez y por eso al formar la expresión
 
ecuación...
 
desaparecía de la parte derecha. Esto no ocurre en el siguiente caso:
 
y = ax
 
Si x se transforma en x1, entonces
 
y1 = ax1
 
de donde
 
y1 - y = ax1 - ax = ax(ax1-x - 1)
 
[pero]
 
ax1-x = { 1 + (a - 1)}x1-x
 
y
 
{1 + (a - 1)}x1-x = 1 + (x1 -x) (a - 1) + ecuación... + etc.8
 
de donde
 
y1 - y = ax(ax1-x - 1) = ax {(x1 - x) (a - 1)
 
ecuación...
 
ecuación...
 
9 símbolo...
 
ecuación...
 
ecuación...
 
Si ahora hacemos x1 = x y por consecuencia x1 – x = 0, obtendremos entonces como “derivada”
 
ax{(a - 1) - ½(a - 1)2 + ¹⁄³(a - 1)3 - etc.     }

y así:
 
dy/dx = ax{(a - 1) - ½(a - 1)2 + ¹⁄³(a - 1)3 - etc.     }
 
Si designamos ahora la suma de constantes en las llaves a través de A, entonces
 
dy/dx = A ax

aquí, sin embargo A = al logaritmo neperiano del número a, resulta ser igual que la dy/dx o, si se sustituye a y por su valor,
dax/log a · ax, y
 
dax = log a· ax dx
 
 
Complemento10
 
Teníamos
 
 1) Los casos considerados, donde el factor (x1 – x) aparece sólo una vez en [la expresión, que lleva a] “derivada previa”, o sea a la ecuación en diferencias finitas11, como consecuencia de lo cual al dividir ambos lados por x1 – x se forma [una expresión para]
 
ecuación...
 
[que no contiene la diferencia introducida x1 – x], es decir este factor se simplifica de la función (de) x.
 
 2) (En el ejemplo: d(ax)) los casos considerados, donde permanecen factores (x1 – x) en la función (de) x luego de formar [la relación]
Δy / Δx.12
 
 3) Falta considerar aún aquel caso, donde el factor x1 – x directamente no se elimina de la primera ecuación en diferencias [que nos lleva a] la “derivada previa”.
 
ecuación...
ecuación...
ecuación...
 
dividimos esta función de x —consecuentemente también la parte izquierda— entre x1 – x. Entonces
 
ecuación...
 
Para librar al lector de las irracionalidades, multipliquemos numerador y denominador por  ecuación... y obtenemos:
 
ecuación...
 
ecuación...
 
pero
 
ecuación...
 
por lo tanto
 
ecuación...
 
Si ahora se hace x1 = x o x1 – x = 0, entonces
 
ecuación...
 
por lo tanto
 
ecuación...
 
 
 
Textos citados
 
Bouchalart S. L., Elements de calcul differentiel et de calcul integral, 5-me éd., París, 1838.
 
Euler, L., Institutiones calculi differetialis cum ejus usu in analysi finitorum ac doctrina serierum, Berlín, 1755.
 
Hall Th., G., The elements of algebra, 3rd. ed., Cambridge, 1850.
 
Hind J., The principles of the differential calculus; with its application to curves and curve surfaces, 2nd ed., Cambridge, 1831.
 
Lacroix, S. F., Traité du calcul différentiel et du calcul intégral, 3 vol., 2nd éd., París, 1810-1819.
 
MacLaurin, C. A., Treatise of algebra in 3 parts, 6th. ed., London, 1976.
Sauri, Cours complet de mathámatiques, 5 vol., París, 1778.
 
     

Notas

1. Este manuscrito fue elaborado por Marx en 1881 para Engels. Es el primer trabajo, del ciclo de manuscritos pensados por Marx, dedicado a la exposición sistemática de sus ideas relativas a la naturaleza e historia del cálculo diferencial. En él, introduce la noción de derivación algebraica que le pertenece y el correspondiente algoritmo para calcular la derivada de ciertas clases de funciones. En el sobre adjunto al manuscrito está una leyenda escrita por Marx: “Para el General”. Así llamaba a Engels la familia de Marx por su artículo referente a problemas militares. En cuanto Engels conoció este manuscrito respondió a Marx con carta del 18 de agosto de 1881 (véase las obras de Marx K. y Engels F., tomo 35 pags. 16-18). El texto alemán del manuscrito se publica con las rectificaciones hechas por Marx al texto original. Algunos de los materiales preparatorios (bosquejos, complementos) se publican en el manuscrito 4 146 de la presente edición. Las referencias a borradores no publicados son señaladas con anotaciones al pié de página. Este manuscrito fue publicado por primera vez (incompleto) en 1933 en ruso en la revista Markszim y Estiestvoznznanie, Partizdat, Moscú, 5-11 y en la revista Pod znamieniem Markszim No. 1 (I933) 15. En la edición bilingüe por primera vez aparece en alemán.
 
2. Para evitar errores con le notación de derivada aquí y en lo subsecuente en casos similares las notaciones usadas por Marx x1, y1, … para los nuevos valores de las variables serán sustituidos por x1, y1,…
En las fuentes que Marx utilizó no aparecía la noción de valor absoluto (módulo). Por esto Marx con frecuencia (por lo visto para fijar ideas) considera sólo los valores crecientes de las variables, pero hay veces (véase por ejemplo en los manuscritos 4001, 4302) que habla también sobre el “crecimiento” de x en un incremento h positivo o negativo".
 
3. De acuerdo a la terminología acostumbrada en fuentes utilizadas por Marx, al decir diferencia finita se sobreentiende una diferencia no igual a cero.
 
4. En toda ecuación, Marx distingue sus dos miembros, los cuales no siempre juegan un papel simétrico. En el miembro izquierdo de la igualdad frecuentemente él coloca dos expresiones sinónimas diferentes unidas por el conectivo “o”.
 
5. En la literatura matemática que Marx tuvo a su disposición, el término límite (de una función) no tenía un único significado y lo más frecuente es que se entendiera como el valor de la función, alcanzado por ella finitamente al final de un proceso infinito de aproximaciones de la variable a su valor límite (véase el apéndice: “Sobre el concepto de límite en las fuentes utilizadas por Marx”). A la crítica de tales deficiencias está dedicado el manuscrito 4144: “Sobre la unicidad de los términos límite y valor límite”.
En el presente manuscrito, el término límite es utilizado por Marx en un sentido especial: como la expresión que redefine la relación dada para aquellos valores de la variable en los que la expresión original no está definida. Expresiones necesitadas de tal redefinición fueron para Marx las relaciones Δy / Δx (se reduce a 0 / 0 cuando Δx = 0 y la dy / dx, ésta última interpretada como expresión simbólica para una relación de diferencias ficticias eliminadas, esto es para 0 / 0. Marx entiende la aplicación del límite a la relación Δy / Δx en cierta correspondencia con las definiciones de este concepto contenidas en los textos de Hind y Lacroix, a saber: como la expresión idénticamente igual a la relación Δy / Δx, si Δx = 0 pero redefinida por continuidad cuando se reduce a 0 / 0. Lo entendido aquí por límite debería entenderse como la prederivada. Sobre este particular Marx escribe (véase la parte II) aplicando a la relación Δy / Δx, donde
y = ax3 + bx2 + cx + d: La prederivada resulta ser el límite de la relación de las diferencias finitas, es decir independientemente de lo pequeñas que sean tales diferencias el valor de Δy / Δx estará dado por esta derivada. Más adelante en el mismo II Marx dice que haciendo x1 igual a x, o sea Δx = 0 lleva este límite a su valor mínimo, lo cual da como resultado la derivada definitiva.
En forma análoga por límite de la relación de diferenciales Marx entiende en este manuscrito la expresión real (algebraica, véase la nota al pié de página No. 6) que le confiere un valor a dicha relación, en otras palabras la función derivada. Sin embargo Marx escribe que en la ecuación dy / dx = f(x) ninguno de los dos términos es el valor límite del otro. Estos términos no se encuentran uno respecto del otro en relación del límite, sino en relación de equivalencia (véase el final del manuscrito 4144). Este mismo término en otro lugar (véase el final del manuscrito 4148, tercer bosquejo) como sustituible por la categoría de límite en el sentido que tiene en el texto de Lacroix, en donde tal categoría posea un valor importante para el cálculo diferencial e integral (sobra la definición de Lacroix véase el apéndice: Sobre el concepto de límite en las fuentes matemáticas que utilizó Marx).
 
6. Bajo el nombre de algebraica Marx entienda toda expresión que no contiene símbolos de derivadas o diferenciales. Tal uso del término expresión algebraica es característico de la literatura matemática de principios del siglo XIX.
Con frecuencia Marx distingue los conceptos de función siguientes: función de (van) x, y función en (in) x, esto es función como correspondencia y función como expresión analítica (véase el manuscrito 4302 manuscrito inconcluso: Teorema de Taylor). En el presente manuscrito Marx no se ciñe rigurosamente a tal distinción, mencionando frecuentemente sólo función (de) x (donde el de es un agregado obligado en castellano, pero que evidentemente no aparece en el original) posiblemente esto se deba a que siempre está hablando de funciones dadas por ciertas expresiones algebraicas. La correspondencia que relaciona el valor la variable dependiente x con el valor de la variable dependiente y Marx la da mediante la ecuación y = f(x) donde y es la variable dependiente y f(x) es la expresión analítica, considerada respecto a la variable incluida, x.
 
7. La esencia del método de derivación algebraica presentado por Marx consiste en que la relación f(x1) / f(x) / x1 – x el cociente de incrementos (que tiene sentido sólo si x1 = x) él la redefine por continuidad en x1 = x. Con este fin es que busca la función w(x1, x) la cual para x + x coincide con la relación f(x1) – f(x) / x1 – x es continuidad bajo x1 x tal función w(x1, x) Marx la llama función derivada previa de la función f(x). Si esta última existe (lo cual tiene lugar para la clase de funciones aquí consideradas), entonces dicha derivada coincide con la actual noción de derivada:
En esta época a Marx ya le eran conocidas funciones para las que el operador derivada no estaba definido (véase el manuscrito 4302).
 
* Luego de esta frase en el borrador de este manuscrito (4146, p. 4) se dice: Por otro lado, al proceso de derivación ocurre ahora en la derivada previa de la función (de) x (parte derecha), mientras que en la parte izquierda necesariamente el mismo proceso acompaña a este movimiento.
 
** En lugar de esto, en el borrador se dice lo siguiente: b) la búsqueda de la derivada de la función original (de) x ocurre de manera que primeramente tomamos cierta derivación finita [formando los incrementos, o sea las diferencias finitas]; esto último nos da la derivada previa, que resulta ser el límite para Δy / Δx. Al proceso de derivación que en seguida pasamos lleva a este límite a su valor mínimo. La magnitud x1 introducida en la primera derivación no desaparece.
 
* La frase correspondiente en el borrador (p. 7) dice así: Esto puedo obtenerse sólo allí, donde la función derivada previa contiene la variable x, por eso también su movimiento puede formar cierto nuevo valor auténtico, de manera que dy / dx es el símbolo de un proceso real.
 
* Es decir, en el lado derecho.
 
8. Aquí Marx reprodujo el desarrollo formal de una función en serie característico de los libros de matemáticas a los que él tuvo acceso, dejando de lado los problemas de convergencia de la serie obtenida y coincidencia de los valores de la función con los límites de las sumas parciales.
 
9. Símbolo usado en las demostraciones para sustituir la frase por lo tanto.
 
10. El texto titulado Complemento lo constituye el contenido adjunto en una hoja separada al manuscrito, la cual tiene numeradas sus páginas en forma independiente: 1 y (el reverso 2).
 
11. Bajo ecuación en diferencias finitas, por lo visto, Marx tiene en mente expresiones tipo: f(x1) – f(x) = (x1 – x) w(x1, x) (véase la anotación 7).
 
12. En este lugar Moore escribió a lápiz: No as así, estos factores son x1 – x1, x1 – x2, etc. Por lo visto, Marx aquí presuponía no los factores (x1 – x), sino las expresiones x1 – x y quiso decir que la reducción a cero de la diferencia x1 – x conservadas en las expresiones para la derivada previa, no priva de veracidad a esta última.
     
____________________________________________________________
     
Traducción: Guillermo Gómez Alcaráz
Profesor e investigador de la Facultad de Ciencias, Universidad Nacional Autónoma de México.

 
 
cómo citar este artículo
Marx , Carlos y (Traducción Gómez A., Guillermo). 1984. Sobre el concepto de derivada de una función. Ciencias 5, enero-marzo, 26-32. [En línea]
     
R05Articulos2   menu2
   
   
Antonio Sarmiento
     
               
               
 
Gravitación
(Bosquejo y algunos fenómenos recientemente estudiados)
“…with the special purpose of testing a new theory of gravitation put forward by a mathematician named Einstein”.
LIGHT CAUGHT BENDING: A discovery like Newton’s. The Daily Mail, London, Friday, November 7, 1919
ANTONIO SARMIENTO*
 
Introducción
 
Desde tiempos inmemoriables filósofos y científicos por igual han tratado de entender a la gravitación. Sus estudios han conducido a lo que se considera en nuestros días como la oveja negra en la familia de interacciones básicas de la naturaleza: la gravedad, ya que no sólo se niega a someterse a los esquemas para la unificación de las interacciones, de por sí complejos, sino que parece estar en serio conflicto con su pariente más reciente, la mecánica cuántica.
 
Los dos nombres más íntimamente relacionados con la gravitación son los de Newton y Einstein. Este último, aunque en un contexto distinto, ha vuelto sobre la proposición de Platón: Dios siempre geometriza.
 
De los cuatro artículos que Einstein publicó en 1905, el tercero contenía un análisis sobre la electrodinámica de los cuerpos en movimiento que después recibió el nombre de teoría especial de la relatividad. La idea de generalizar esta teoría y extender la universalidad de las leyes de la naturaleza a cualquier marco de referencia (incluyendo los acelerados) lo condujo a lo que actualmente parece ser la mejor teoría de gravitación: la teoría general de la relatividad o relatividad general (RG) como comúnmente se nombra. De entre las diversas teorías gravitacionales que hoy día describen congruentemente lo observado, la RG se distingue por ser la más simple, simétrica y estética.
 
Relatividad General
 
Al inicio de la segunda década de este siglo Einstein trabajó durante dos años, en compañía de Marcel Grossmann, utilizando las ideas propuestas por Bateman en un tratamiento más profundo de la gravitación. Un paso importante fue abandonar la creencia de que un campo gravitacional puede especificarse a través de una sola función potencial escalar e introducir en su lugar diez funciones (coeficientes métricos) que no sólo especifican la fuerza gravitacional, sino que además determinan las escalas de distancia y de tiempo. La gravitación se reduce entonces a geometría. Las diversas fuerzas de la naturaleza (incluida la gravitación) habían hasta entonces actuado en el espacio, un escenario cuyas propiedades eran descritas por la Geometría Euclideana. En la nueva teoría, la gravitación abandonaba su papel en el escenario y se convertía en parte de la estructura del mismo. El hecho de que la relatividad general haga uso de diez funciones “potenciales” para especificar la fuerza gravitacional y determinar las escalas de distancia y tiempo, la convierte en integrante del grupo de teorías conocidas como teorías métricas en las que, en términos generales, la gravedad puede ser tratada como un sinónimo de la curvatura del espacio-tiempo (ver recuadro pág. 22).
 
Posteriormente Einstein corrigió en una serie de artículos cortos un defecto de la teoría; la carencia de un conjunto de ecuaciones que jugasen el mismo papel que la ecuación de Poisson juega en la teoría Newtoniana.
 
Ya que el describir en estas líneas la evolución de la actividad científica en el campo de la gravitación queda fuera del tema central de este trabajo, se menciona únicamente que la forma actual de la teoría de la Relatividad General es el resultada del trabajo de varios científicos (físicos, astrónomos y matemáticos esencialmente) alrededor de la idea original de Einstein y de su propio trabajo, idea que surgió de la necesidad de expresar las leyes de la naturaleza de una manera universal, es decir, válida para cualquier marco de referencia, acelerado o no con respecto al observador.
 
Evidencia Observacional y Experimental
 
Las pruebas clásicas a las que han sido sometidas las teorías métricas de gravitación, todas ellas en el sistema solar, constituyen en la actualidad parte del contenido de la gran mayoría de libros de texto sobre el tema. De manera que en su lugar —además de mencionar que ninguna de dichas pruebas ha proporcionado resultados que con la precisión de hoy día, difieran de los predichos por la RG— se enumerarán algunos problemas que aún esperan recibir el tratamiento que permita conocer sus posibles consecuencias en cuanto a la veracidad de la interpretación de los resultados experimentales Dichos problemas son:
 
i) La aesfericidad solar origina un avance en los perihelios planetarios proporcional al momento cuadrupolar del astro. Este momento depende a su vez de la estructura solar interna: estando directamente relacionado con la rotación influye sobre la determinación del momento angular solar y en el cálculo de la profundidad en la corona a la cual el viento solar cambia la rotación superficial mediante la expulsión de momento angular. Debida a la considerable cantidad de física solar compleja que se involucra al relacionar las observaciones sobre el achatamiento solar con el valor del momento cuadrupolar, el problema no puede considerarse como resuelto y mucha menos como algo que facilite la interpretación de los resultados.
 
ii) En vista de la exactitud actual para la determinación del tiempo, es interesante notar que la coordenada temporal en la Relatividad General se mide desde el centro del Sol. Se debe entonces transformar el tiempo medido en las observaciones al centro del sol para poder obtener el tiempo de efemérides (tiempo definido por las leyes dinámicas a diferencia del tiempo medio definido por el tránsito de las estrellas fijas). De esta manera, se identificará la coordenada temporal con el tiempo de efemérides y al tiempo propio con el medido por —los relojes atómicos. Se han logrado medir variaciones entre las indicaciones de los estándares atómicos y las del tiempo de efemérides de 3.4 X 10–3 segundos en un año, y deberían tomarse en cuenta.
 
iii) El marco de referencia inercial para el sistema solar queda determinado en parte, mediante la selección del marca respecto al cual los residuos del promedio de los movimientos propios de las estrellas son mínimos. Este marco y el determinado dinámicamente por los movimientos planetarios no son separables hoy día (si el marco adoptado estuviese rotando respecto de un marco dinámico aún desconocido, se producirían movimientos seculares de los perihelios y los nodos de las órbitas planetarias).
 
Afortunadamente existen otros fenómenos fuera del sistema solar que, si bien no es posible utilizarlos en experimentación, nos permiten la corroboración de las predicciones teóricas. La descripción de dichos fenómenos constituye el tema de la siguiente sección.
 
Nuevos fenómenos: Hoyos negras, pulsares binarios y lentes gravitacionales
 
Hoyos negros
 
Poco después de que Einstein completara la formulación de la teoría de la Relatividad General en 1916, Karl Schwarzschild encontró la solución a las ecuaciones de campo representando la atracción gravitacional en el exterior de una distribución esférica de masa. Dicha solución presenta una singularidad matemática que en un principio se consideró solamente como eso: una imperfección debida a las idealizaciones del modelo. Más de 20 años después, los estudios en evolución estelar mostraron que, como producto final del colapso gravitacional de una estrella masiva en extinción, se podrían obtener centros de atracción gravitacional pura una vez que la materia se “esfumase” en el colapso. Aquellas singularidades de la teoría encontraban así una posibilidad a su existencia: los llamados hoyos negros que, debido a poseer una atracción gravitacional tan fuerte, no sólo representaban un peligro de “desaparición por caída” de la materia circundante, sino que además no permitían que escapase ningún tipo de energía (incluida la electromagnética) que pudiese dar información sobre ellos.
 
Hasta 1963 Kerr descubrió la solución análoga a la de Schwarzschild pero para un objeto esférico en rotación. Este fue un paso importante ya que la gran mayoría de las estrellas parecen encontrase en este estado y porque, además, se espera que la tasa de rotación aumente con el colapso. Los teoremas de unicidad para los hoyos negros rotantes no se hicieron esperar y se llegó a la conclusión de que, aún cuando el colapso de una estrella girando pudiese ser algo muy complicado, el resultado final serla relativamente simple, independiente de los detalles del colapso y quedaría completamente especificado por tres números: la masa, el espín y la carga.
 
La formación de hoyos negros depende de las alternativas posibles para el final de las estrellas. Para una estrella de aproximadamente una mase solar existen sólo dos alternativas: la primera conocida como enana blanca, es la configuración final de la estrella en la que la fuerza que mantiene el balance y evita que continúe el colapso, es la misma fuerza que mantiene el balance en los atamos (principio de exclusión). Sin embargo, cuando la masa de la estrella es mayor a una masa critica, conocida como la masa de Chandrasekhar y del orden de 1.2 masas solares, dichas fuerzas ya no pueden mantener el equilibrio. La segunda configuración estable, llamada estrella de neutrones, se logra mediante el equilibrio entre la fuerza gravitacional y las fuerzas que soportan los núcleos atómicos (fuerzas nucleares). Debido al poco conocimiento sobre cómo actúan estas fuerzas cuando las densidades son muy altas, el límite a la masa que puede formar una estrella de neutrones oscile entre 1 y 3 veces la masa del sol. Las enanas blancas han sido observadas desde hace muchos años, no así las estrellas de neutrones que sólo recientemente han sido detectadas en pulsares y fuentes binarias de rayos X.
 
Al continuar con esta secuencia, la teoría predice que una estrella de más de 3 masas solares, que no pierda masa durante el colapso gravitacional, no tiene otra alternativa que convertirse en un hoyo negro. Ya que existen muchas estrellas que superan dicho límite, y debido a que las estrellas evolucionan más rápidamente mientras mayor sea su masa, deberíamos esperar un gran número de hoyos negros; sin embargo, como dichos hoyos negros son esencialmente obscuros, sólo pueden mostrarnos su existencia de una manera indirecta: a través de su fuerte influencie sobre la materia en sus alrededores. El sistema binario Cygnus X-1 representa un sistema emisor de rayos X cuya intensidad es tan alta que, de acuerdo a los modelos actuales, necesita una fuente de energía tan potente y compacta que probablemente, sólo pueda ser proporcionada por la atracción gravitacional de un hoyo negro integrado en el sistema. El debate sobre si los sistemas similares a Cygnus X-1 contienen en realidad hoyos negros o no, se encuentra todavía abierto.
 
Una de las características primordiales de los hoyos negros predichas por la teoría, es la existencia de una superficie llamada horizonte que envuelve completamente a la materia colapsada y que es permeable sólo de afuera hacia adentro: luz y materia pueden cruzarla al caer en el hoyo pero nada puede atravesarla en el sentido opuesto. El radio de dicha superficie para un hoyo negro estático recibe el nombre de radio de Schwarzschild y queda completamente determinado por la masa M de dicho hoyo. Aún cuando la teoría permite cualquier valor para M, algunos efectos cuánticos parecen sugerir que el valor mínimo permisible es de aproximadamente
10–8 kgs. Este valor resulta astronómicamente irrelevante ya que como hemos visto, las estrellas cuya masa es inferior a tres veces la del sol ≈ 6 X 1030 kg) evolucionarán hacia enanas blancas o estrellas de neutrones. Un hoyo negro de cinco masas solares tendría un radio de aproximadamente 20 km, Hay quienes piensan que hoyos negros de 106 a 108 masas solares podrían constituir los centros de algunas galaxias, incluyendo la Vía Láctea, qua bien se podrían haber formado del colapso de una estrella masiva, o bien del agrupamiento de un numero grande de hoyos negros con masas más modestas. La densidad requerida para formar dichos objetos es cercana a la de las densidades terrestres ordinarias.
 
El horizonte también constituye una superficie de infinito corrimiento hacia el rojo, es decir, la luz emitida ligeramente fuera del horizonte, le llegará a un observador distante con una frecuencia (y consecuentemente una energía) mucho menor a aquella con la que fue emitida. De la misma manera, la materia cayendo al hoyo negro tardará un tiempo infinito para dicho observador y, la luz proveniente de ella se irá enrojeciendo hasta la obscuridad a medida que el proceso de caída se efectúa. Sin embargo, para un observador situado sobre la materia que cae, el tiempo que durase el proceso sería finito y no experimentaría algo más extraño que las conocidas fuerzas gravitacionales de mares. La diferencie es que una vez adentro, el observador se encuentra atrapado y junto con la demás materia sería, de acuerdo a la teoría, triturado hasta que se alcanzase una densidad infinita (el proceso sería consoladoramente rápido).
 
Para los hoyos negros rotantes la superficie de infinito corrimiento hacia el rojo se encuentra, debido a la rotación y excepto en los polos, fuera del horizonte. La región entre ambas superficies, conocida como ergósfera, contiene trayectorias de partículas cuya energía es negativa respecto a los observadores en el exterior. Roger Penrose ha sugerido la posibilidad del uso de estas trayectorias para obtener energía, ya que no sólo se recuperaría mayor cantidad de energía que la de la masa en reposo que se enviase hacia el hoyo negro rotante, sino que, al disminuir la rotación se podría disponer de la energía liberada en el frenado. La radiación enviada hacia un hoyo negro sería análogamente amplificada. Fig. 1.
 
De acuerdo a la teoría, las soluciones que significan hoyos negros son totalmente estables y existirán por siempre, quizá sólo aumentando de tamaño al acumular materia. Sin embargo, Steven Hawking incorporando efectos cuánticos, ha llegado a la conclusión de que los hoyos negros deberían radiar en proporción inversa a su cantidad de masa.
 
Sistemas Binarios con un Pulsar
 
Los modelos más recientes para el origen de estrellas cuya emisión pulsa con una periodicidad asombrosamente estable en el espacio (pulsares), explican su formación a través de explosiones de estrellas masivas en lo que se conoce con el nombre de Supernovas. Este posible origen explica además, el hecho observacional de que los pulsares en general, sean objetos solitarios (a pesar de que casi la mitad de objetos estelares sean miembros de sistemas binarios múltiples). Un sistema en el que existiese un pulsar significaría que dicho sistema ya ha sufrido una explosión que le dio origen y que muy probablemente ha alejado sustancialmente a la(s) otra(s) componente(s). Entonces la probabilidad de que dicho tipo de sistemas sobreviva a una segunda explosión que diese origen a un segundo pulsar, es extremadamente baja. Fig. 2.
 
La importancia astronómica de sistemas dobles reside en el hecho de que la observación de fas interacciones gravitacionales mutuas entre las componentes, constituye el único método para obtener valores para las masas de las componentes del sistema. Un sistema que además cuente con un estándar temporal estable y sumamente rápido, como la existencia de un pulsar en el sistema, representa una oportunidad única para la medición precisa de las variables involucradas en los cálculos gravitacionales. Tres sistemas con esta característica son: PSR 0820 + 02 siguiendo una órbita grande, con un período mayor a los 3 años y una compañera desconocida, PSR 065S + 64 en una órbita pequeña, de período 1.029 días y con una compañera probablemente enana blanca, y PSR1913 + 16, el primer objeto descubierto de este tipo.
 
En 1974, las observaciones de PSR 1913 + 16 revelaron que el pulsar se mueve en presencia de un campo gravitacional relativamente fuerte siguiendo una órbita muy pequeña de alta excentricidad (e ≈ 0.617), con un período muy corto (sólo 7 horas y 45 minutos), y con una velocidad orbital de aproximadamente un milésimo de la velocidad de la luz. Todo esto parece indicar que la compañera es un objeto compacto (estrella de neutrones) y que, en consecuencia, el sistema es ideal para probar las teorías gravitacionales, la RG predice que un sistema binario debe perder gradualmente energía, energía que el sistema está radiando en la forma de ondas gravitacionales y que, consecuentemente ambas componentes debe seguir un movimiento en espiral hacia el centro de masa del sistema.
 
La información recabada durante más de cinco años sobre los corrimientos Doppler de la señal periódica del pulsar, establece que las masas de los dos cuerpos en PSR1913 + 16 son aproximadamente iguales entre sí y con un valor de 1.4 veces la masa del sol. La predicción cuantitativa de RG es, al usar dichos valores, una disminución en el periodo orbital de 10–7 segs. por órbita o, equivalentemente, un corrimiento en la fase orbita de 1.2 segs. en cinco años. La concordancia entre los corrimientos observados en la fase orbital y la curva teórica predicha por la RG es asombrosa. Sin embargo, si bien esta concordancia constituye la primera (y única) evidencia experimental (indirecta) a favor de la existencia de ondas gravitacionales, existe un problema en cuanto a la manera en que se hace la predicción teórica. La dificultad reside en la derivación de la fórmula cuadrupolar para la radiación gravitacional que se utiliza en la predicción mencionada. Al derivarla fórmula estándar, Lev Landau y Evgenii Lifschitz (en la 3er. edición del libro “Teoría Clásica de Campos”) escribieron: “En principio, todos los pasos de la derivación son análogos a los que usualmente se realizan para las ondas electromagnéticas . La analogía obviamente despierta una fuerte atracción por la fórmula cuadrupolar pero, también subraya la razón por la que su validez es dudosa: la derivación utiliza una aproximación esencialmente lineal en un espacio tiempo plano, mientras que la teoría sin aproximaciones, es fuertemente no lineal y trabaja con espacios curvos. Además de la derivación original se han realizado muchas otras pero, todas ellas son de una naturaleza poco satisfactoria. De manera que la intrigante posibilidad de que las observaciones difieran de los predicho por la fórmula correcta, aún no derivada, se mantiene abierta. Además existe el riesgo adicional de que si la fórmula conocida llega a incrementar su concordancia con las observaciones en algo más que un cierto porcentaje, se considere a las futuras objeciones a argumentos no rigurosos como meras argucias pedantes. De hecho, en algunas derivaciones muy recientes aparece contribuciones no-lineales en la fórmula cuadrupolar, contribuciones que se habían despreciado en un principio, y a las que nuevamente se desprecia, en el caso de PSR 1913 + 16, mediante “justificaciones” ad hoc. Las trabajos de investigación en este campo han llevado a que, al considerar el problema de qué se debe aproximar, se evite hasta donde sea posible el uso de conceptos intermedios como energía (extremadamente difícil de definir) y reacción de radiación, y que so centre la atención en cantidades medibles directamente (como los cambios en el período del pulsar binario).
 
Por otro lado, la RG predice también que en sistemas de este tipo, el acoplamiento entre el espín geodésico del pulsar y su movimiento orbital deben originar una precesión del eje de rotación del pulsar de aproximadamente un grado por año. J. H Taylor, L. A. Fowler y P. M McCulloch han construido un modelo que, haciendo uso de las teorías actuales sobre pulsares, explica la variación observada en los perfiles promediados de los pulsas. La explicación es precisamente en términos de una precesión que modifica la manera en que el haz emitido pasa por la línea de visión del observador. Sin embargo, las observaciones disponibles son pobres hasta la fecha y no es posible otra cosa más que esperar que en el futuro, las mediciones obtenidas de ellas permitan rechazar o aceptar el modelo.
 
Lentes Gravitacionales
 
A pesar de que la ocurrencia de este fenómeno fue prevista desde 1936 por Albert Einstein (basándose en la desviación de la luz predicha por la RG), no fue sino hasta 1979 que se descubrió la presencia de un lente gravitacional en el espacio. Como vimos en la primera parte de este trabajo la luz o radiación electromagnética al poseer o acarrear energía, debe gravitar, es decir, debe interaccionar con los campos gravitacionales que encuentre a su paso. La interacción se refleja en una desviación de la radiación, desviación que ocasiona que la luz aparezca como proveniente de un lugar distinto al de su verdadero origen. Este efecto fue predicho por la RG y posteriormente corroborado durante algunos eclipses solares. Hoy día, mediante el uso de tecnología muy sofisticada (esencialmente radio-observaciones), no sólo es considerada como una de las pruebas clásicas que deben satisfacer las teorías de la gravitación, sino que además sirve de marco teórico para modelar geométricamente la acción de los llamados lentes gravitacionales.
 
La desviación mencionada será mayor a medida que aumente la potencia del campo gravitacional que la origina y en consecuencia se puede pensar en una analogía con la refracción sufrida por la luz al pasar a través de un lente. Una galaxia suficientemente masiva, puede generar un efecto de “enfoque” sobre la luz proveniente de una fuente muy distante, y ocasionar que observemos no sólo una posición errónea, sino múltiples imágenes del mismo objeto y/o una intensidad amplificada, dependiendo el resultado observado del grado de alineación entre fuente, lente y observador. La amplificación en la intensidad se debe únicamente al hecho de que el lente enfoca mayor cantidad de radiación en dirección a la tierra. Recientemente se ha demostrado que si se observan imágenes múltiples, el número de éstas debe ser impar siempre que la galaxia sea lo suficientemente grande como para no poder ser considerada un objeto puntual (adimensional). Consecuentemente una de las revelaciones más interesantes que ofrecen los lentes gravitacionales es el conocimiento global de la geometría y la escala del universo. Visto de otra manera recordemos que, de acuerdo a RG, podemos considerar la acción de la gravedad como una deformación del espacio­tiempo que, en la cercanía de la fuente gravitacional, se reflejará en líneas curvas (Geodésicas) para las trayectorias de los cuerpos que por ahí pasen.
 
Tal vez una de las razones por las que el descubrimiento del efecto “lente gravitacional” tardó tanto, es el hecho de que debido a lo vacío que es el universo, la probabilidad de encontrar a dos estrellas alineadas convenientemente en el universo observable es extremadamente pequeña. La gran ayuda que nos permitió la observación de volúmenes mayores y consecuentemente, el aumentar la probabilidad de encontrar alineaciones adecuadas, fue el descubrimiento de los llamados cuasares: objetos interpretados como galaxias hiperactivas que son lo suficientemente brillantes cómo para ser observadas a pesar de encontrarse a distancias del orden de 1010 años luz (≈1023km).
 
En marzo de 1979 se obtuvieron los primeros espectros de Q0957 + 561 A y B: un par de cuasares separados por sólo 6 segundos de arco (el tamaño aproximado de una moneda de 20 centavos a 600 metros de distancia). La similitud de los espectros, corroborada posteriormente por observaciones de las radiaciones ultravioleta, infrarroja y en radiofrecuencias, proporcionan evidencia para la interpretación de los dos cuasares gemelos; como dos imágenes del mismo objeto ocasionadas por otro objeto masivo localizado entre el cuasar original y la Tierra. Se suponía que este objeto era tan poco brillante o, que se encontraba tan lejos de la Tierra, que no alcanzábamos a detectar su presencie a través de la radiación que emitía. Posteriormente, aunque se han descubierto más de mil cuasares, sólo se han encontrado otros dos casos que, interpretación de por medio, ejemplifican el efecto “lente gravitacional”: PG1115 + 080 A, B y C que es un cuasar “triple” y Q2345 + M7, que es “doble”.
 
El caso mejor estudiado es el de Q0957 + 561. Los corrimientos hacia el rojo, la intensidad de las líneas de emisión y la posición de las líneas de absorción, mediciones todas derivadas de la espectroscopia óptica, son idénticas en ambos cuasares. Elº objeto del sur (B) tiene aproximadamente 0.7 veces la brillantez del objeto al norte (A). De manera que, notando que dichas mediciones para el resto de los cuasares varían considerablemente entre cuasar y cuasar, sería una coincidencia asombrosa que dos cuasares con propiedades idénticas se encontrasen tan cerca uno del otro. Pero en fin, las coincidencias ocurren después de todo. Además, ye que las galaxias por sus dimensiones producen un número impar de figuras, y en este caso sólo se observaban dos, se necesitaría pensar en un hoyo negro (puntual) como responsable del efecto. El análisis de la información contenida en las partes infrarroja y ultravioleta del espectro ayudó a aclarar la situación. La teoría predice que si ambas imágenes provienen del mismo objeto, entonces la intensidad de la imagen B debería ser siempre un cierto porcentaje fijo de la intensidad de A en mediciones simultáneas. Incorporando posibles variaciones a largo plazo en la brillantez del cuasar, se obtiene que la imagen B debería tener entre 70 y 80% de la intensidad de A en todas las longitudes de onda del espectro porcentaje que, como vimos se observa en la radiación ultravioleta e infrarroja. Las observaciones en radio-frecuencias ocasionaron problemas en un principio: aparecieron ciertos rasgos relacionados con la imagen A que la imagen B no mostraba, a pesar de que ambas imágenes ópticas coincidían con las radio-imágenes. Radio observaciones subsecuentes detectaron una tercer imagen mucho más débil que las otras dos y el norte de B. Finalmente, con el uso de detectores electrónicos se logró en noviembre de 1979 localizar una imagen que interpretada como la correspondiente a una galaxia, nos permite una formulación global y coherente de la situación. La imagen interpretada así, se encuentra inmediatamente al norte de B pero sólo se observa al “filtrar” la radiación proveniente de B. La tercer imagen se encuentre sumergida en la de la galaxia, posiblemente contribuyendo a ésta en forma mínima. La galaxia se encuentra además en un cúmulo de galaxias que bien podría ayudar al proceso de desviación de la radiación y que consecuentemente, debería tomarse en cuenta para el refinamiento del modelo. Fig. 4.
 
Las implicaciones de este tipo de descubrimientos son muy interesantes ya que afectan la visión del universo como un todo. La simple existencia del fenómeno demuestra que tres cuasares al menos, se encuentren a distancias mucho mayores que las galaxias causantes del fenómeno y que por lo tanto, sus fuertes corrimientos hacia el rojo ciertamente se deben a la expansión del universo y no a cualquier otro mecanismo de los propuestos. El aumento en la brillantez de algunos cuasares causado por lentes gravitacionales puede oscurecer la interpretación de la estadística sobre cuasares, la cual argumenta a favor de una ‘era de cuasares’ en la evolución cósmica primaria. El efecto puede utilizarse para detectar la presencia de objetos (demasiado débiles para ser observados) a través de los cambios en la intensidad de la radiación en las imágenes de cuasares. Dichas variaciones pueden también utilizarse para calcular la distancia al objeto lente e indirectamente, la escala del universo. Esto último, debido a que la distancia al cuasar a lo largo de la trayectoria luminosa de una imagen es distinta de la distancia a lo largo de cualquiera de las trayectorias de las otras imágenes; de manera que si el cuasar repentinamente aumenta su potencia de radiación, una imagen se vuelve más brillante antes que las otras. Midiendo este “retraso” temporal podremos determinar la diferencia en longitudes de las distintas trayectorias y consecuentemente, las distancias al cuasar y al objeto lente. Mediante estas distancias tendremos una visión más clara de la escala global cósmica de distancias.
 
Teorías métricas de gravitación y criterios de viabilidad que le deben satisfacer
En la mayoría de las teorías métricas, la gravitación es un fenómeno fuertemente no lineal que, entre otras cosas, significa que la energía potencial combinada de dos cuerpos no es simplemente la suma de las energías individuales sino que los potenciales deben combinarse de una manera determinada por cada una de las teorías. En las teorías, el mecanismo de generación y funcionamiento de la gravedad es distinto al descrito anteriormente y la variedad de dichos mecanismos es tan basta como el número de científicos trabajando en el campo. La gran mayoría de teorías métricas difieren entre sí precisamente en la manera en que se determina la métrica de cada una de ellas. Sin embargo, comparten una característica crucial: no importa que tan complicada sea la teoría o que tipo de campos adicionales (gravitacionales o cosmológicos) se consideren en dicha teoría, la materia y los campos no gravitacionales obedecerán exclusivamente a la entidad teórica primordial: la métrica Riemanianna, El único papel posible de los demás campos considerados por la teoría es el de ayudar a generar la curvatura del espacio-tiempo asociada a la métrica. La materia puede crear estos campos y junto con ellos generar la métrica, pero dichos campos no podrán actuar directamente sobre la materia que obedecerá sólo a la métrica.
 
La razón por la que actualmente se le presta mayor atención a las teorías métricas, reside en el hecho de que en los últimos años se han realizado trabajos teóricos que apoyan una conjetura debida a Schiff que establece, en su versión más reciente, que cualquier teoría de la gravitación que satisfaga los criterios para ser considerados como una teoría viable, satisface necesariamente el principio de equivalencia de Einstein.
 
Los criterios para determinar la viabilidad de una teoría, criterios que fueron estableciéndose paralelamente y motivados por el desarrollo de la teoría general de la relatividad, son:
 
I) Completez. La teoría debe ser capaz de analizar a partir de principios e incorporando las leyes del electromagnetismo y la mecánica cuántica, el resultado de cualquier experimento.
 
II) Autoconsistencia. Las predicciones de la teoría deben ser únicas e independientes del camino usado para calcularlas.
 
III) Relativista. Cuando la gravitación es despreciable respecto a las demás interacciones físicas involucradas en el fenómeno bajo estudio, las leyes físicas se deben reducir a las de la relatividad especial.
 
IV) Newtoniana. En presencia de campos gravitacionales débiles y paro movimientos lentos, la teoría debe reproducir la ley da Newton con la precisión adecuada.
 
V) Debe incorporar el principio de equivalencia débil (PED): Si a una partícula de prueba, descargada, localizada en el espacio tiempo, se le da una cierta velocidad inicial, entonces su evolución subsecuente será independiente de su estructura y composición internas.
 
VI) Debe satisfacer la universalidad del corrimiento gravitacional hacia el rojo (UCG): “Dicho corrimiento para un par de relojes ideales idénticos situados en dos eventos del espacio-tiempo, es independiente de la estructura y composición de los mismos”.
 
El principio de equivalencia de Einstein establece que el PED y la UCG son válidos y que el resultado de cualquier experimento no gravitacional realizado en un marco de referencia en caída libre, es independiente de dónde y cuándo se lleva a cabo el experimento. El paso desde el PEE a los postulados de una teoría métrica es directa ya que dichos postulados sólo piden, además del PEE, que exista una métrica para el espacio-tiempo y que las trayectorias de las partículas de prueba sean líneas geodésicas de la misma métrica. Un resultado reciente implica que si el PED y la UCG deben ser satisfechos por la teoría para el caso de campos gravitacionales esféricamente simétricos y estáticos, entonces la teoría debe ser necesariamente una teoría métrica.
 
 
Referencias para lecturas complementarias
 
Sobre Einstein, RG e historiográficas:
 
Einstein for Beginners, J. Schwartz % McGuiness Writers and Readers Publishing Coop, London, 1979,
 
Einstein, Hilbert and the Theory Of Gravitation, Jagdish Mehra, D. Reidel Publishing Company, Boston, 1974.
 
History of the theories of Aether and Electricity, Sir Edmund Whittaker, T. Kelson and Sons LTD, London, 1953, (Tomo II).
 
Gravitation and Cosmology, capítulo I, Steven Wingberg, John Wiley and Sons, Inc., New York, 1972.
 
 
Sobre Gravitación:
 
Gravitation Theory, Clifford M. Will, Scientific American, November, 1974.
 
Einstein on the Firing Line, Clifford M Will, Physics Today, October, 1972.
 
The Eotvos Experiment, Robert H. Dicke, Scientific American, December, 1961.
 
Gravitation and Cosmology, Steven Weinberg, John Wiley and Sons, Inc., New York, 1982.
 
 
Sobre hoyos negros:
 
Black Holes, Roger Penrose, Scientific American, May, 1972.
 
Black Holes: New Horizons in Gravitational Theory, P. C Peters, American Scientist, 62, 575, 1974.
 
lntroducing the Black Hole, R. Ruffini and J. A. Wheeler, Physics Today, January, 1971.
 
The Search for Black Holes/Gravitational Collapse, Kip. S. Thorne, Scientific American, December, 1974/November, 1967.
 
The Quantum Mechanics of Black Holes, Steve W. Hawking, Scientific American, January, 1977.
 
Black Holes, Gravitational Waves and Cosmology, M. Rees, R. Ruffini & J. A. Wheeler, Gordon and Breach Science Publishers, London, 1975.
 
 
Sobre Pulsares Binarios:
 
Measurements of General Relativistic Effects in the Binary Pulsar PSR 1913 + 16, J. H. Taylor, L. A. Fowler & P. P. McCuloch, Nature 277, 437, February 8, 1979.
 
Theoretical Difficulties with the Binary Pulsar?, Malcolm McCallum, Nature 280, 449, August 9, 1979.
 
Comments on Gravitational Radiation Damping and Energy Loss in Binary Systems, J. Ehlers, A. Rosemblum, J. N. Goldberg & P. Havas, Astrophysical Journal 208, L77, 1976.
 
Pulsars, R. N. Manchester and J. H. Taylor., W. H. Freeman and Co., San Francisco, 1977.
 
Gravitational Radiation from a Binary System, P. H. Lim, General Relativity and Gravitation 14, 471, 1982.
 
The Future of Gravitational Wave Astronomy, Kip. S Thorne, Mercury 7, 3, 58, 1979.
 
Sources of Gravity Waves, T. J. Sejnowski, Physics Today, January, 1974.
Gravitational Waves: a Progress Report, J. L. Loga, Physics Today, March, 1973.
 
 
Sobre Lentes Gravitacionales:
 
Lens Like Action of a Star by the Deviation of Light in the Gravitational Field, Albert Einstein, Science 84, 506, December 4, 1936.
 
The Discovery of the Gravitational Lens, Frederic H. Chaffee Jr., Scientific American, December 1980.
 
0957 + 561 A, B: Twin quasistelar objects of Gravitational Lens?, D. Walsh, R. F. Carswell & R. J. Weymann, Nature 279, 381, May 31, 1979.
 
Gravitational Lenses and the Double Quasar, J. K. Lawrence, Mercury 9, 3, 66, 1980.
 
Q0957 + 561: Detailed Models of the Gravitational Lens Effect, P. Young, Astrophysical Journal 244, 736, 1981.
 
Gravitational Lenses: From Einstein to the Double Quasar, D. H. Roberts and B. F. Burke, Technology Review 83, 4, 68, 1981.
 
     

Notas

1. Buffon y Erasmo Darwin, abuelo de Charles, habían precedido a Lamarck en su pensamiento transformista, en el siglo anterior.
 
2. Tal vez sea necesario precisar terminología genética para la mejor comprensión de los párrafos siguientes. Hablamos de marcadores genéticos para referirnos a las mutaciones dentro de un gene que nos permiten seguir su comportamiento en los descendientes de una cruza. Nos referimos a locus para señalar un lugar específico del cromosoma. Alelos son las variaciones de un gene colocadas en el mismo locus de cromosomas homólogos. Finalmente, hablamos de mapeo genético para referirnos a la técnica que nos permite conocer el lugar preciso que ocupa un gene a lo largo de un cromosoma. Esta técnica consiste en la observación de la frecuencia de recombinación genética de un par de caracteres. Entre más distantes estén entre sí estos caracteres dentro del cromosoma, su frecuencia será mayor.
 
3. Debe mencionarse no obstante, en descargo de la genética clásica, que experimentos diseñados con sumo ingenio le han permitido el saltar ciertas barreras técnicas para alcanzar también el mapeo intragenético en los eucariontes.
 
4. Se refiere aquí al concepto de homología proteica (N. del T.).
 
5. Previamente, Anfinsen había mostrado que se podían remover, enzimáticamente dichos residuos de la ribonucleasa, sin afectar su función.
     
____________________________________________________________
     
Antonio Sarmiento G.
Profesor de la Facultad de Ciencias e Investigador del Instituto de Astronomía, Universidad Nacional Autónoma de México.

 
 
cómo citar este artículo
Sarmiento Galán, Antonio 1984. Gravitación. Ciencias 5, enero-marzo, 16-23. [En línea]
     
R05Articulos1   menu2
   
   
Joaquín Cifuentes Blanco
     
               
               
La palabra hongo se deriva del latín fungus que, al igual
que la raíz griega mucus (mices en castellano), se utilizó originalmente para un limitado grupo de especies macroscópicas, comestibles o venenosas. Posteriormente, el término se ha generalizado en varios idiomas, principalmente el inglés y el castellano, para referirse a todos los organismos considerados en este grupo.
 
Algunas creencias antiguas
 
La naturaleza, el origen y la posición de los hongos siempre ha sido objeto de especulación. En un principio, sobre todo, de nuestra cultura occidental, se dudó acerca de su naturaleza viva pues debido al grado de desarrollo del conocimiento biológico se ignoraba la existencia de los microorganismos y de la estructura celular de los seres vivos.
 
Por ejemplo Plinio (d.C. 23-29) en su Naturalis Historia (Libro XIX, sección 11) escribió su concepción sobrenatural de las trufas: “Hay dos tipos, uno arenoso que lastima los dientes y otro sin semejante material; se distinguen por sus colores que van del rojo al negro o blanco en su interior; aquellas provenientes del África son las más estimadas. Ahora, si tal imperfección de la tierra (vitium terrae), pues no puede decirse que sea otra cosa, crece o si en cambio alcanza súbitamente por completo su forma globosa son preguntas que, pienso, no pueden explicarse fácilmente. En su carácter putrescible estas cosas semejan la madera”. Más adelante (Loc. cit., Libro XIX sección 13) continúa: “…ciertas creencias peculiares sostienen que se producen durante las lluvias otoñales, especialmente con los truenos, que son la causa de su crecimiento, pues no duran más de un año y el mejor momento para comerlas es la primavera. Algunos piensan que se producen por semillas, porque las que crecen en las costas de las Mitelenos siempre aparecen con las inundaciones que acarrean semillas de Tiara donde se pueden encontrar muchas trufas. Crecen en playas donde hay mucha arena”. Muchos otros clásicos como Juvenal y Plutarco manifestaron ideas sobrenaturales semejantes.
 
Otras concepciones sobrenaturales son registradas por Iowy (1974) quien dice que la tradición indígena de los Altos de Guatemala y el Sur de México asocia la Amanita muscaria (seta de las moscas) con el rayo, Wasson (1968) asegura que de acuerdo con el Riq Veda de los hindúes, el Dios del Trueno es el padre del Sorna, una planta sagrada que posiblemente se trate del mismo hongo A. muscaria.
 
Pero en general, los hongos se asociaron al suelo bajo la idea de la generación espontánea, como Nicandro (185 a. C.) quien en su Alexipharmaca nos habla del “…fermento maligno de la tierra… que los hombres comúnmente conocen por el nombre de hongo”. Esta noción cambió poco durante la Edad Media y principios del Renacimiento. En uno de los primeros escritos después de la invención de la imprenta, el Herbolario alemán Jerome Bock (1552) escribe todavía: “Los hongos y las trufas no son ni hierbas, ni raíces, ni flores, ni semillas, sino tan sólo la humedad superficial de la tierra, los árboles y la madera o cosas podridas.
 
Giambattista della Porta (el reinventor de la cámara obscura) observó en 1588 por primera vez las esporas de los hongos y F. Pier Antonio Micheli realizó cultivos de hongos a partir de esporas sobre medios naturales (frutas y verduras). A pesar de esto, la naturaleza viva de los hongos se reconoció universalmente hasta después de los experimentos de Pasteur, que derrumbaron la teoría de la generación espontánea de los seres vivos; es decir, a mediados del siglo pasado.
 
La posición de los hongos
 
Paralelamente al desarrollo de las ideas sobre su naturaleza, se especuló también sobre su posición natural, es decir semejanzas y diferencias con otros organismos y clasificación como grupo. Esto ocurrió, principalmente, después del renacimiento cuando aparecen los primeros sistemas de clasificación de los seres vivos, período que culmina con la proposición del sistema natural por Linneo.
 
Debido a la variedad de formas reproductoras y vegetativas que presentan los hongos, existieron (y existen) dificultades para delimitarlos. Así, primero sólo se tomaron en cuenta grupos de hongos con formas macroscópicas ya que los hongos microscópicos, causantes de algunas fermentaciones y enfermedades en plantas y animales, se descubrieron después de la invención del microscopio.
 
Muchas veces, los diferentes grupos de hongos se clasificaron separadamente o como parte de otros organismos, como incluso ocurrió parcialmente con Linneo. De hecho los hongos se clasifican ya como un grupo (aunque dentro de los vegetales) con Persoon (1801) y posteriormente con Fries (1821) y, a diferencia de las plantas y los animales, tales fechas constituyen el punto de partida formal para su nomenclatura.
 
Simultáneamente se dieron opiniones contrarias en muchas ocasiones con base en observaciones confusas o incompletas de su morfología y fisiología, acerca de su carácter vegetal o animal; aunque en general prevaleció y se impuso la idea de su naturaleza vegetal. Builliard, siguiendo a Jussieu, en 1793 sostenía: “Si aquellos que obstinadamente rechazan dar a los hongos un lugar entre las formas del reino vegetal, si quienes pretenden que todos los hongos se engendran solamente por pudrición y que carecen de semillas y de caracteres constantes para distinguirlos, etc., se hubiesen molestado en estudiar su organización, de seguir su desarrollo, de analizarlos con detalle y compararlos, indudablemente que se ruborizarían por su error”.
 
En cambio antes, en 1766, el Barón Otto von Münchansen interpretó de modo opuesto sus propias observaciones: “Los hongos, ya maduros, y particularmente Lycoperda y todos los mohos, diseminan un polvo negruzco; si se observa éste bajo una lente de buen aumento veremos esferas semitransparentes llenas de puntos negros, con la substancia de un pólipo. He mantenido dicho polvo con agua y temperatura moderada y las esferas se hinchan y se vuelven ovales, móviles como animales. Estos pequeños animales (así los llamaré por su semejanza) se mueven en el agua y si se observan al día siguiente forman matas de una trama dura y de ellos surgen mohos u hongos. Cuando crecen los hongos, inmediatamente se ven venas blancas que uno asocia con raíces pero en realidad no son sino tubos dentro de los que se mueven los pólipos en ambas direcciones y que luego forman estructuras más grandes”. Esta idea del micelio como un sistema de tubos dentro del cual se mueve un protoplasto animal, la sostienen actualmente algunos para justificar la posición de los Mixomicetos y seres afines dentro de los hongos.
 
Pero el punto de vista que los consideraba vegetales logró consenso. Ya Linneo en su Philosophia Botanica de 1751 había reconocido sólo dos reinos de seres vivos, y dentro de las plantas inferiores habla colocado a los hongos. Aunque existe correspondencia que demuestra que sí consideró la posibilidad de que fueran animales, pero finalmente la desechó. Dada la influencia que tuvo su sistema natural de clasificación, esta concepción prácticamente ha prevalecido hasta la actualidad.
 
Las Teorías filogenéticas
 
Una vez que la naturaleza viva de los hongos quedó establecida, desechándose la idea de la generación espontánea, y que se establecieron las bases para su clasificación natural, con la aparición y aceptación de la Teoría de la evolución de Darwin (1858-1859), surge el problema del origen filogenético de los hongos.
 
Para empezar, la idea de su afinidad vegetal se fortaleció con el estudio de la morfología. Por la presencia de talo (cuerpo) filamentoso con paredes celulares y el tipo de órganos reproductores asexuales (esporangios con zoosporas) y sexuales (oogonio y anteridio) de los mohos acuáticos (fundamentalmente en los Oomycota) se sugirió un estrecho parentesco con las algas. Por eso Braun (1847) ya consideraba a los hongos simplemente como grupos colaterales de las algas.
 
Posteriormente mientras algunos como Winter (1879), de Bary (1884) y Gaümann (1926) derivaron a los hongos (a veces excluyendo a los mixomicetos) de un solo grupo de algas (teoría monofilética), otros como Cohn (1872), Sachs (1875) y Brefeld más bien reconocen en la diversidad de los hongos la base de una teoría polifilética de su origen a partir de diferentes grupos de algas (ver figura 1). Entonces aparece la discusión sobre la relación entre los hongos inferiores y los hongos superiores y si existe o no conexión evolutiva entre ellos. La posición polifilética ha predominado entre las proposiciones contemporáneas como las de Dodge (1914), Orton (1927), Jackson (1944) con énfasis en la sugerencia de las algas rojas como ancestros de los hongos superiores.
 
Pero en contraste, con base en la nutrición heterótrofa de los hongos y algunas características de los Myxomycota (ausencia de pared celular en el talo, pero producción de esporas con dicha pared), Gobi (1884), Scherffel (1901), Cook (1928), Heim (1952), Matin (1955) e Ingold (1959) han desarrollado una teoría monofilética a partir de un protozoario primitivo. Muy pocos como Fisher (1892) y Atkinson (1909), además de apoyar un origen derivado de algas, sugirieron la posibilidad de un ancestro, independiente de las plantas y los animales, unicelular heterótrofo. Esta idea retornada por Zuck (1953) nos plantea que las plantas, los hongos y los animales constituyen tres formas de nutrición diferenciadas en las primeras etapas evolutivas: la autotrofia, la lisotrofia (digestión extracelular y extracorporal) y la fagotrofia (digestión intracelular y la intracorporal); por lo cual existen cuando menos tres reinos, Phyta, Myketes y Zoa.
 
En general a partir de las concepciones anteriores se han planteado una serie de árboles filogenéticos los cuales pueden simplificarse en cinco grandes tipos (figura 2).
 
¿Por qué las algas?
 
Evidentemente la tradición linneana de dos reinos biológicos influyó para que la balanza se inclinara en favor de un origen mono o polifilético a partir de uno o varios tipos de algas. También la idea que consideraba que los primeros seres vivos debieron ser autótrofos, basada en la posición primaria de tales organismos en el ecosistema, fue un factor conceptual importante; pero ahora existen bases para suponer que las primeras formas de vida fueron heterótrofas, de acuerdo al desarrollo de la teoría del origen de la vida.
 
Sin embargo fue, fundamentalmente, la comparación morfológica la base para fortalecer la idea de la afinidad vegetal. Existen tantas semejanzas entre los hongos y las algas, que resultó lógico suponer que no se trataba de un mero fenómeno de convergencia evolutiva. Pero acaso ¿no existen también notables semejanzas, no sólo morfológicas sino funcionales, entre los diferentes grupos de hongos (exceptuando algunos Myxomycota)? ¿Cuáles son resultado de una evolución paralela o convergente? ¿Las que existen entre algas y hongos o aquellas que presentan los hongos entre sí?
 
Un planteamiento actualizado del parentesco vegetal lo encontramos con Dennison y Carroll (1966) y Demoulin (1974) quienes encuentran más semejanzas principalmente entre algas rojas y hongos superiores, a nivel de ultraestructura y bioquímica de algunas sustancias de reserva. Además, se argumenta por primera vez que las diferencias en la composición química de las paredes celulares entre hongos y algas se debe a la transición de la autotrofia a la heterotrofia. Pero también se han demostrado otras semejanzas de ultraestructura y bioquímica entre los hongos, lo que nos lleva de nuevo al dilema del párrafo anterior, sin resolverlo. Parece entonces que el enfoque seguido hasta ahora de buscar el mayor número de características comunes para apoyar una u otra posición no puede solucionar el problema: ¿existe o no parentesco entre los hongos inferiores y superiores o más bien se derivan de diferentes grupos de algas y algunos protozoarios (en el caso de los mixomicetos y afines).
 
¿Por qué no un origen animal o independiente?
 
El carácter animal de los hongos se ha argumentado principalmente con base en su nutrición heterótrofa y la presencia de quitina en la pared celular en la mayoría de ellos; aunque existen grupos con celulosa o una combinación de ambas (figura 3) lo que indica una cierta separación.
 
Un obstáculo para aceptar un origen animal o bien independiente de los hongos, ha sido el peso que se ha dado a los caracteres morfológicos separados de su fisiología. Por eso a los hongos siempre se les ha reconocido por su capacidad para producir esporas, formar pared celular y carecer de clorofila; todo tipo de organismos con tales características han formado parte del grupo. De esta manera se incluyeron los mixomicota (que en un principio se clasificaron con los Gasteromícetos); pero cuando se observaron sus esporas germinando y se descubrió que en realidad son amebas fagotróficas que forman plasmodios (o pseudoplasmodios en los Acrasiomicota) de vida libre, se les definió como falsos hongos. Entonces ¿los hongos verdaderos se derivaron de los falsos o más bien de las algas? Como se mencionó, algunos piensan que el micelio, de los hongos inferiores fundamentalmente, no es más que un sistema de tubos a través del cual se traslada un plasmo dio que adquirió vida parásita; por esta razón consideran a los plasmodios Foromicota, un grupo que conecta a los falsos con los primeros hongos interiores. En cambio si se les separa de los hongos parece que no queda más alternativa que la de considerar a las algas como origen de los hongos verdaderos.
Pero poco se ha tomado en cuenta el funcionamiento de su cuerpo. Si separamos a los mixomicota y Acrasiomicota porque fagocitan, todos los demás grupos se caracterizan por su lisotrofia (que en general no existe en otros grupos de eucariotas): primero degradan, por medio de exoenzimas, total o parcialmente el sustrato donde crecen y entonces absorben las sustancias solubles de esa descomposición (figura 4). Además, el telo filamentoso de la mayoría de los hongos es de crecimiento indeterminado (micelio) y pueden invadir totalmente sustratos complejos como la madera.
 
Si se considera que muchos hongos son celulíticos pero la lignina prácticamente sólo es degradada por hongos superiores mediante un complejo proceso, aún desconocido, con intervención de muchas exoenzimas, debemos preguntarnos seriamente ¿pudieron las algas rojas transformarse, mediante selección natural, en organismos (hongos superiores) con esa capacidad? En el momento que aparecen las plantas leñosas surge con la lignina un nuevo nicho ¿quiénes lo ocuparon?, ¿las algas rojas que debieron transformarse drásticamente, habiendo perdido su capacidad fotosintética?, ¿o los hongos inferiores, que con la aparición de la heterocariosis se habían transformado en los llamados superiores? Desde un punto de vista fisiológico, es más probable que entre los hongos inferiores hallan aparecido mutaciones en su sistema de exoenzimas, las cuales seleccionadas naturalmente, llevaron a su transformación. Además se han observado hongos que producen las llamadas enzimas de adaptación, es decir, un hongo puede carecer de las enzimas necesarias para digerir el almidón, por ejemplo, pero al transferirlo a un medio con ese nutriente eventualmente puede producir las enzimas adecuadas y utilizarlo.
 
Por otra parte Cantino (1966), mediante un estudio de las capacidades sintéticas de los diferentes grupos inferiores acuáticos, comprobó que las formas “primitivas” todavía son capaces de utilizar nitrógeno y azufre inorgánicos, pues pueden sintetizar algunos aminoácidos y vitaminas, pero las formas “no primitivas” presentan pérdidas parciales o totales de sus capacidades sintéticas. Su trabajo sugiere que en los hongos ha ocurrido un desarrollo hacia una mayor heterotrofia mediante una mayor capacidad degradadora, lo que relaciona o separa diferentes grupos.
 
Igualmente, si analizamos los patrones genéticos del ciclo de vida o algunas vías metabólicas, existen bases para relacionar algunos grupos inferiores con los superiores, pero a la vez otros claramente quedan separados.
 
Por ejemplo, en la mayoría, el talo es haptoide excepto en los Oomycota en que es diploide y podemos decir que la alternancia de generaciones (tan común en las algas) es muy rara en los hongos. En cambio aparece el fenómeno de la heterocariosis o dicariofase de los Ascomicota y Basidiomicota o la parasexualidad en los Fungi Imperfecti (Deuteromycota) En cuanto a los procesos metabólicos tenemos que para la síntesis de la lisina los Quitridiomicota, Zigomicota, Ascomicota y Basidiomicota emplean la vía del ácido adípico (como en Euglenofita) pero los Oomicota y los Hifoquitridiomicota usan la del ácido diaminopimélico (como las algas verdes sensu lato, helechos, fanerógamas y bacterias).
 
Los hongos ¿un reino separado?
 
Considerando los planteamientos anteriores, su origen está directamente relacionado con la evolución de los tipos de nutrición y desde este punto de vista, separando a los Mixomicota y Acrasiomicota, todos los hongos quedan relacionados por su nutrición lisotrófica. ¿Significa esto que los hongos son monofileticos? Mientras algunos grupos de hongos cada día aparecen más estrechamente relacionados (Quitridiomicota, Zygomicota, Ascomicota y Basidiomicota) por el tipo de pared celular, sus vías metabólicas y sus patrones genéticos y otros se separan claramente (Myxomicote, Hifoguitridiomicota y Oomicota). Aunque aún falta información de grupos menores o poco conocidos (Trichomicota o Labirintulomicota) puede plantearse que los hongos, igual que las algas, presentan varias líneas de origen y evolución (figura 5) que representa los ensayos que aparecieron de organismos eucariotes degradadores. Esta cuestión está íntimamente relacionada con el origen y evolución de los primeros eucariotes: ¿apareció una sola forma y tipo de nutrición que dio lugar a las demás) o por el contrario ¿desde un principio surgieron diferentes formas de eucariontes y tres tipos de nutrición a partir de diferentes procariotes? Esta última posibilidad puede explicarnos la gran diversidad de los grupos llamados primitivos, de algas, hongos y animales (protozoarios) y su intergradación, pero sin embargo se separan en tres formas de nutrición.
 
Origen propuesto para los diferentes tipos de hongos 
Antepasados sugeridos División de hongos Grupo de hongos
Flagelados desconocidos Mixomicota  
Crisofitinas Plasmodioforomicota Falsos
Crisofitinas Labirintulomicota hongos
Amebas Acrasiomicota  
Amebas Tricomicota  
Heterosifonales Oomicota  
Flagelados desconocidos Hifoquitridiomicota  
Flagelados desconocidos Quitridiomicota  
  Zigomicota  
Rodofitas Ascomicota  
  Baidiomicota  


Hongos inferiores
Hongos superiores
Hongos verdaderos
 
ESQUEMAS FILOGENETICOS, SIMPLIFICADOS, PROPUESTOS PARA LOS HONGOS
Algas
Hongos
Animales
Algas
Hongos*
Animales
Algas
Hongos*
Animales
Algas
Hongos
Animales
Algas
Hongos
Animales
* Generalmente se excluye a los Myxomicota y afines
 
Composición de las paredes celulares en los hongos
División Componentes principales
Mixomicota celulosa
Acrasiomicota celulosa-glucógeno
Labirintulomicota celulosa
Plasmodioforomicota quitina
Quitriodiomicota quitina-glucano
Hifoquitridiomicota celulosa-quitina
Oomicota celulosa-glucano
Tricomicota Poligalactosamin-galactana
Zigomicota quitina-quitinosa
Ascomicota quitina-glucano o quitina-manana
Basidiomicota quitina-glucano
 
     

Notas

1. Buffon y Erasmo Darwin, abuelo de Charles, habían precedido a Lamarck en su pensamiento transformista, en el siglo anterior.
 
2. Tal vez sea necesario precisar terminología genética para la mejor comprensión de los párrafos siguientes. Hablamos de marcadores genéticos para referirnos a las mutaciones dentro de un gene que nos permiten seguir su comportamiento en los descendientes de una cruza. Nos referimos a locus para señalar un lugar específico del cromosoma. Alelos son las variaciones de un gene colocadas en el mismo locus de cromosomas homólogos. Finalmente, hablamos de mapeo genético para referirnos a la técnica que nos permite conocer el lugar preciso que ocupa un gene a lo largo de un cromosoma. Esta técnica consiste en la observación de la frecuencia de recombinación genética de un par de caracteres. Entre más distantes estén entre sí estos caracteres dentro del cromosoma, su frecuencia será mayor.
 
3. Debe mencionarse no obstante, en descargo de la genética clásica, que experimentos diseñados con sumo ingenio le han permitido el saltar ciertas barreras técnicas para alcanzar también el mapeo intragenético en los eucariontes.
 
4. Se refiere aquí al concepto de homología proteica (N. del T.).
 
5. Previamente, Anfinsen había mostrado que se podían remover, enzimáticamente dichos residuos de la ribonucleasa, sin afectar su función.
     
____________________________________________________________
     
Joaquín Cifuentes Blanco
Profesor e investigador del Departamento de Biología, de la Facultad de Ciencias, Universidad Nacional Autónoma de México.

 
 
cómo citar este artículo
Cifuentes Blanco, Joaquín 1984. Los hongos: ¿plantas o animales? Ciencias 5, enero-marzo, 10-15. [En línea]
     
Está aquí: Inicio Blog (2) revistas revista ciencias 5
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License