![]() |
![]() |
|
Reduccionismo y biología en la era postgenómica |
|
|
Edna Suárez Díaz
conoce más del autor
|
||
HTML↓ | ||
|
||
Coloquialmente, el término reduccionista se utiliza de manera peyorativa, denotando no sólo simplismo sino una fuerte carga ideológica. En biología, con frecuencia se utiliza de manera confusa, junto con una de las ideas más polémicas en la ciencia, el determinismo —sobre todo el genético. A pesar de ello, la mayoría de los científicos adoptan algún tipo de compromiso reduccionista para llevar a cabo sus investigaciones.
El reduccionismo tiene una interesante historia en la filosofía de la ciencia, sus raíces se encuentran en la concepción mecanicista defendida por Descartes en la primera mitad de siglo xvii. Aunque hay diferentes maneras de caracterizarlo, el mecanicismo generalmente asume que el comportamiento de un objeto, en particular de una máquina, está determinado por leyes mecánicas que actúan sobre sus partes, constituidas por materia inerte. Describir las partes que conforman una máquina es el primer requisito en la comprensión de su funcionamiento; así, si queremos saber cómo funciona un reloj estudiamos las partes y mecanismos que determinan el movimiento de sus agujas. Según Descartes, este modelo sirve para estudiar y explicar el comportamiento de los seres vivos, y alrededor de 1648 pretendió utilizarlo en su estudio del problema de la generación —reproducción—, esto es, el desarrollo del feto. La intención cartesiana desató una gran polémica con los vitalistas, quienes no creían que se pudiera eliminar de las explicaciones biológicas la intervención de una fuerza material o divina que organice la materia. El debate, que tuvo repercusiones hasta bien entrado el siglo xix, es muy importante en la historia de la ciencia porque promovió una mayor precisión en la definición del carácter de las explicaciones e investigaciones científicas.
En la primera mitad del siglo xx, la filosofía de la ciencia estuvo dominada por el positivismo lógico o neopositivismo, escuela que considera fundamental comprender la estructura lógica de las teorías, y que sostiene que el conocimiento científico se encuentra contenido exclusivamente en las teorías acabadas de la ciencia. La reducción era entendida como una relación en la que unas teorías o dominios del conocimiento podían ser reducidos o explicados por otros de carácter más general; por ejemplo, la reducción de la biología a la física. Gracias a este concepto, se contaría con teorías cada vez más inclusivas y generales de los fenómenos naturales. Además, la reducción era importante porque estaba ligada con el ideal de la unidad de la ciencia, el cual era más que nada un movimiento cultural, como señaló John Dewey. El proyecto clave de los neopositivistas, la enciclopedia de la ciencia unificada, fue impulsado con la esperanza de que una visión científica e internacional del mundo conjuraría las concepciones nacionalistas y racistas —que eventualmente desembocaron en el nazismo y el fascismo—, contra las cuales estos filósofos se enfrentaban a muerte. “Ícono, marca de verdad o canto de sirena, la unificación ha representado mucho más que un objetivo puramente científico o simbólico”, afirmó el historiador de la física, Peter Galison.
El trabajo de los positivistas lógicos y de sus sucesores es tan amplio que ahora se considera que el reduccionismo es en realidad una familia de problemas y modelos. Una clasificación muy utilizada de éstos es la planteada en 1962 por el biólogo Ernst Mayr, quien sostiene que el término reduccionismo se utiliza al menos en tres sentidos: el constitutivo, el explicativo y el teórico. El primero no es problemático para los científicos del siglo xx pues se refiere al hecho de que la composición material de los organismos es la misma que la de la materia inorgánica. El segundo trata sobre la explicación de un todo en términos de sus partes, acepción relacionada con el uso de la metáfora cartesiana del reloj. El tercero aborda la relación que permite la deducción y explicación de una teoría por otra de mayor generalidad, es decir, el modelo desarrollado por los neopositivistas.
De acuerdo con el modelo clásico de reducción teórica, publicado por Ernst Nagel en 1961, las teorías consisten en sistematizaciones de observaciones —leyes o regularidades— legitimadas gracias a procedimientos experimentales o de observación —si bien esta legitimación no tiene que ser directa. Para Nagel, una teoría B se reduce a una A cuando lo que dice la primera sobre lo que es observable puede deducirse —lógicamente— de la segunda. Para que esto ocurra deben cumplirse dos condiciones: que la explicación de una teoría por otra se realice por medio de una relación deductiva —lo que implica asumir que las explicaciones son nomológico-deductivas, es decir, a partir de leyes generales o universales deducir casos particulares—; y que existan relaciones de identidad entre los términos a los que se refiere cada una de las teorías —A y B. Resulta claro que la derivación de una teoría por otra sólo es posible si la relación entre los términos de ambas es transparente. Nagel se percató de las dificultades de establecer dicha relación —es casi imposible que los términos de dos teorías diferentes, como las de Newton y Einstein, tengan una relación uno a uno—, por lo que propuso la formulación de leyes o principios puente que permitieran conectar los términos de ambas teorías.
Sin embargo, incluso un ejemplo tan socorrido como el de la reducción de la ley de Galileo de la caída libre de los cuerpos sobre la superficie de la Tierra, a la ley de la gravitación universal de Newton, es problemática cuando se trata de entender de acuerdo al modelo de Nagel. Diversas investigaciones —iniciadas con un artículo publicado en 1962 por Feyerabend— mostraron muchas dificultades con ese proyecto, concluyendo que en este particular ejemplo sólo podía llevarse a cabo una reducción aproximada. En biología, el trabajo de filósofos como Keneth Schaffner, David Hull y William Wimsatt fue muy importante; en la década de los setentas demostraron que era imposible cumplir con las condiciones del modelo de Nagel. Hull, en el marco de una larga discusión acerca de si la genética clásica podía reducirse a la biología molecular, fue de los primeros en sostener que en la última las explicaciones recurren a mecanismos responsables de determinados fenómenos y no existen lo que propiamente se llaman leyes en la tradición empirista; esto es, relaciones entre fenómenos descritas por enunciados de aplicación universal. También mostró que no existe manera de traducir los términos y conceptos de la genética clásica a los de la biología molecular. Incluso en el caso de querer reducir teorías que aparentemente se refieren al mismo dominio de fenómenos, el modelo de Nagel no se cumple. Debido a la acumulación de argumentos de este tipo en los últimos treinta años podemos afirmar que actualmente el reduccionismo teórico está de capa caída en la biología.
Mientras tanto, Stuart Kauffman y William Wimsatt desarrollaron modelos que tenían mayor cercanía con los problemas y soluciones del quehacer de los biólogos; lo cual coincide con la sustitución de la física por la biología, como modelo de la filosofía de la ciencia. En los nuevos modelos, una explicación reduccionista involucra reglas y mecanismos empíricos que, con frecuencia, no forman parte de ninguna teoría explícita. Así, se reconoce que el reduccionismo tiene que ver con mecanismos y su alcance explicativo en diferentes niveles de organización. Además, la atención se centra en explicaciones cuyo objetivo es modelar los organismos como sistemas en los que la interacción de partes es sumamente compleja. El énfasis en el estudio de la relación entre mecanismos particulares —y los niveles de organización que esto requiere— y en aspectos ontológicos de la relación entre el todo y las partes en casos específicos plantea problemas concretos que desplazan a los típicos ejemplos de la filosofía neopositivista, permitiendo reflexionar de manera concreta en el tipo de explicaciones que construyen los biólogos en áreas como la biología del desarrollo, la genética, la evolución y la biología molecular. Esto ha sido especialmente propicio para abordar los temas apremiantes que surgen como resultado del avance de la biología molecular.
Explicación versus estrategia William Wimsatt y otros de sus colegas señalan que podemos hablar de reduccionismo en dos grandes sentidos: como una forma de explicación o como una estrategia —o heurística— de investigación. Según Wimsatt, la clasificación de Mayr se refiere sólo al primer tipo. Esta distinción, a partir de un enfoque funcional, permite hablar con mayor precisión de las actividades y productos de los científicos, en particular de aquellos involucrados con explicaciones genéticas. Wimsatt sostiene que “en un universo en el que el reduccionismo es una buena estrategia, las propiedades de las entidades de nivel superior son explicadas mejor en términos de las propiedades e interrelaciones de las entidades de nivel inferior”. Es decir, a diferencia de la tradición neopositivista, él y sus seguidores, incluyendo a Lewontin, consideran que los niveles de organización son entidades reales. Ello explica, según estos autores, los éxitos de las estrategias reduccionistas a lo largo de la historia de la ciencia moderna y el por qué, pese a declaraciones en contrario, la mayoría de los científicos las adoptan como su forma de hacer investigación. Sin embargo, lo anterior no significa que debamos hacer una apología de las explicaciones reduccionistas. Las estrategias de investigación de los científicos —o como las llama Wimsatt, las heurísticas— sistemáticamente introducen sesgos en su investigación. Por ello, la reduccionista introducirá un tipo de sesgos que son inevitables en la percepción y explicación de los fenómenos; lo que puede hacerse al respecto es tener clara conciencia de cuáles son tales sesgos. Además, podemos lidiar con ellos si reconocemos que existen estrategias distintas, las cuales nos permiten contrastar y detectar lo que está mal de nuestras explicaciones reduccionistas. Pero en la ciencia en cierto sentido el reduccionismo es inevitable; es una estrategia entre otras, pero una muy eficiente debido a la estructura de la materia y del mundo.
Por su parte, el determinismo, en el caso de la genética, establece que un tipo de entidades individuales, los genes, son los elementos centrales o privilegiados en la explicación de un fenómeno en un nivel superior de complejidad; posteriormente los responsabiliza como única causa de ese fenómeno. Éste es uno de los sesgos más peligrosos introducidos en la investigación biológica por el uso de estrategias reduccionistas, las cuales sistemáticamente —en genética y biología molecular— enfocan sus baterías hacia la detección de las partes —los genes— de un mecanismo. Sin embargo, debemos subrayar que determinismo y reduccionismo no son sinónimos. Puede haber reduccionismo —es decir, explicaciones de fenómenos que apelan a mecanismos, o reconocimiento de que es importante describir la interrelación de las partes de un organismo—, sin que necesariamente haya determinismo. En cambio, lo contrario no se cumple. Richard Lewontin y muchos otros autores, incluido el recién fallecido Stephen Jay Gould en su libro The mismeasure of man, han documentado ampliamente las funestas consecuencias del determinismo biológico y, en particular, del genético, el cual ha dejado su marca no sólo al fomentar concepciones racistas y sexistas del ser humano, sino al impactar en cuestiones tan concretas como las políticas de inmigración, educativas y otras en diferentes lugares y momentos. Por supuesto, el determinismo también tiene una larga historia en la filosofía y en la ciencia. Por ejemplo, al inicio del siglo xx, el determinismo biológico estuvo íntimamente ligado a la discusión registrada en psicología, antropología y otras ciencias sociales acerca de si los rasgos biológicos de una persona —o de una raza— determinaban su comportamiento social o si, por el contrario, éste se debía a influencias de tipo cultural o social.
Problemas y retos para el futuro El desarrollo de la ingeniería genética y, más en general, de la biotecnología, genera grandes expectativas, pero también atrae la atención de los críticos al reduccionismo y al determinismo genético. Avances en las técnicas de diagnóstico genético y de reproducción asistida, en el desarrollo de fármacos que alteran el comportamiento, así como en la investigación de temas tan distintos como la terapia génica o las células troncales, todos ellos en el marco de una biología que completó la primera fase del Proyecto Genoma Humano, inducen a pensar que numerosos problemas tanto médicos como de orden social podrán tener una pronta y eficaz solución. Sin embargo, la historia de la ciencia ha mostrado que difícilmente la solución a los problemas de la humanidad puede tener un carácter “exclusivamente” científico. Vale la pena detenerse en las comillas ya que la ciencia es uno de los productos de nuestra cultura y, en ese sentido, no es claro que podamos delimitar las soluciones propiamente científicas de aquellas que incluyen otros aspectos. En efecto, las formas en que explicamos el mundo se encuentran cargadas de numerosas expectativas y valores. Lewontin señaló, por ejemplo, que dentro de los supuestos básicos que tienen un efecto profundo sobre las formas de explicación destacan el individualismo, la perspectiva reduccionista y una clara distinción entre causas y efectos que es característica de la ciencia moderna y, en particular, del reduccionismo explicativo. En esa concepción el “mundo es partido en dominios autónomos independientes, lo interno y lo externo; lo que en el caso de la biología desemboca en una perspectiva que percibe los organismos como individuos determinados por factores —o causas— internos, los genes”. Lewontin también indica que en nuestra cultura se prefieren las explicaciones que simplifican los procesos sobre las que reconocen que los fenómenos son “complicados, inciertos y desordenados, sin una regla simple o fuerza que explique el pasado y prediga el futuro”. Así, uno de los mayores males atribuibles a las heurísticas reduccionistas es precisamente su afán de simplificar, en aras de una supuesta visión científica, fenómenos complejos que requieren el análisis y la intervención de numerosas perspectivas, tanto a nivel explicativo como al de las respuestas o soluciones que se proponen. El panorama se complica cuando le añadimos el elemento del determinismo genético a nuestras explicaciones.
La ingeniería genética Casi es un lugar común la creencia de que las posibilidades de manipulación, aislamiento, caracterización y modificación de genes por medio de la ingeniería genética se potenciarán a partir de los logros del Proyecto Genoma Humano. Sin embargo, las historias que presentan estos desarrollos como cadena de eventos científicos y tecnológicos que modifican tanto la investigación biológica, como las políticas gubernamentales y los intereses de la industria, refuerzan la impresión de que las tendencias en la ingeniería genética tendrán consecuencias inevitables en muchos aspectos de nuestras vidas. Aunque existen distintas formas de contar la historia, puede decirse que la ingeniería genética inicia su desarrollo a partir de la década de los setentas, con las llamadas técnicas del adn recombinante. Los experimentos realizados en 1972 por David Jackson, Robert Symons y Paul Berg, en la Universidad de Stanford, se consideran un parteaguas en la historia de las posibilidades de manipulación genética. Estos científicos obtuvieron por primera vez una molécula de adn que contenía genes de organismos provenientes de diferentes especies biológicas y que podía replicarse numerosas veces en una bacteria. El impacto fue notable. De inmediato se anticiparon aplicaciones industriales, por ejemplo la producción de drogas como la insulina humana y la manipulación de especies de importancia en la agricultura. Influyentes publicaciones como Fortune, el San Francisco Chronicle y el New York Times pronto incluyeron artículos en los que las promesas de la ingeniería genética eran retratadas simultáneamente con su potencial comercial. La mayoría de las corporaciones farmacéuticas tardaron varios años en reaccionar, pero algunas lo hicieron con prontitud. Por ejemplo, en 1967 la empresa suiza Hoffman-LaRoche fundó en New Jersey el primer instituto dedicado a explorar las posibles aplicaciones de lo que posteriormente se llamaría ingeniería genética, y en 1971 se creo en Berkeley, California, la firma Cetus Corporation, primera dedicada expresamente a explotar los avances de la biología molecular.
Treinta años después, el panorama ciertamente ha cambiado. Por un lado, el desarrollo exponencial de las técnicas y herramientas de la ingeniería genética provoca que actualmente sea una parte común del quehacer cotidiano de cualquier estudiante de posgrado en un laboratorio de biología molecular. Además, la industria biotecnológica es una realidad y numerosas empresas de este tipo cotizan en las bolsas de valores e invierten en universidades de todo el mundo. En las industrias farmacéuticas y agrícolas, muchos organismos han sido modificados genéticamente para producir sustancias que se adquieren con relativa facilidad, como la insulina humana o el interferón gamma. Gracias a las grandes sumas invertidas en el Proyecto Genoma Humano, ahora los centros de adn son unidades —difícilmente se les puede llamar laboratorios, en el sentido tradicional del término— equipadas con robots, máquinas de secuenciación automática de genes y computadoras que analizan las grandes cantidades de información que se producen.
A pesar de ello, las posibilidades de intervención o manipulación del genoma humano no han cambiado mucho respecto al panorama de hace treinta años. Si acaso, conocemos con mucha mayor precisión la complejidad de los sistemas genéticos de los organismos, lo que significa que sabemos más acerca de la estructura del genoma, de los procesos que regulan la expresión de la información en muchos genes, de la manera en que los genes y otros factores de la célula —o del medio externo— influyen en diferentes momentos de la vida de un organismo, y de los mecanismos con que los seres vivos cuentan para amortiguar cambios en su genoma. Así, la posibilidad técnica de alterar el genoma de un organismo se encuentra, por un lado, cada vez más cerca, pero por otro, cada vez sabemos con mayor detalle lo difícil que será llevarlo a cabo sin generar efectos indeseables en el organismo y en su contexto. En el caso de los seres humanos, junto con los aspectos médicos se debe considerar los retos de orden familiar y social que harán posible —o impedirán— el acceso a este tipo de tecnología médica, así como las cuestiones de tipo ético que son urgentes de resolver; por ejemplo, el derecho de alterar el genoma de generaciones futuras de seres humanos.
El filósofo Philip Kitcher realizó un esfuerzo por revelar las falacias que se esconden en una visión ingenua, que si bien rechaza abiertamente el determinismo biológico, continúa atribuyendo directamente a los genes caracteres complejos. Su crítica se dirige contra la expectativa de contar con explicaciones y soluciones simples a problemas que tienen causas, desarrollo y consecuencias muy diversas. Por ejemplo, distingue dentro de las enfermedades genéticas, las que pueden enfrentarse mediante una terapia relativamente sencilla, las que actualmente sólo podemos paliar en sus consecuencias, y las que causan un deterioro inevitable y grandes dosis de sufrimiento para el enfermo y sus familiares.
Incluso en las enfermedades del primer tipo, como la fenilcetonuria, diagnosticada al momento del nacimiento gracias a un estudio que se aplica regularmente a los recién nacidos y cuya solución radica en un simple cambio de dieta durante la infancia hasta la adolescencia, el panorama no es tan simple como lo sostiene la versión determinista genética. Por ejemplo, los primeros años de diagnóstico de la enfermedad estuvieron plagados de errores —falsos positivos—, con graves consecuencias. Proporcionar la dieta de un fenilcetonúrico a un niño normal genera tanto retardo mental como la dieta normal en un niño enfermo; a la fecha se desconoce cuántos niños fueron afectados por este tipo de error. Asimismo, como las niñas con esta enfermedad rara vez se reproducían, nadie previó que una enferma sin seguir la dieta especial —la que le fue retirada en la adolescencia—, al estar embarazada ocasionaría gravísimos transtornos de desarrollo mental a su bebé. Incluso hoy, cuando los diagnósticos falsos han disminuido, persiste una gran cantidad de problemas que no son estrictamente genéticos. Diversos estudios revelan la existencia de numerosos factores que complican la vida del enfermo, como lo costoso e insatisfactorio de la dieta, la ausencia de apoyo comunitario y familiar, la falta de comprensión del problema, etcétera. Especialmente durante la adolescencia perturba la vida social a tal grado que padres e hijos deben sujetarse a una gran disciplina. Estos factores —falta de conocimiento, carencia de apoyo social y económico— explican que rara vez se cumplan las expectativas médicas y que muchos fenilcetonúricos padezcan al menos algunas de las consecuencias de su enfermedad.
Más complicado es el caso de enfermedades como el mal de Huntington, utilizado con frecuencia para ilustrar los beneficios de la biotecnología. Es una enfermedad que se desarrolla en hombres y mujeres, caracterizada por un grave deterioro neuronal que es física y mentalmente doloroso para el paciente y agonizante para quienes lo rodean. A diferencia de otras enfermedades genéticas, se trata de un carácter dominante; es decir, basta con que el padre o la madre hayan transmitido el gen para que la enfermedad se desarrolle. Cada hijo o hija de un portador tiene cincuenta por ciento de probabilidades de heredar la condición —recuérdese que los gametos o células reproductoras llevan sólo la mitad de la información hereditaria del resto de las células— y si alguno la hereda, con seguridad desarrollará el mal. Pero, dado que la enfermedad se manifiesta tardíamente en la vida del portador —generalmente entre los 30 y 50 años de edad—, es muy probable que éste ya haya tenido hijos y no pueda hacer nada para evitar su transmisión. Claramente, es un caso en el que un diagnóstico genético temprano parece tener grandes ventajas. Hasta los años ochentas no había manera de diagnosticar con antelación a los portadores. En la última década y media esta situación cambió y se detectó al gen responsable, se le mapeó y secuenció. Por supuesto, producto de una estrategia de investigación reduccionista, sostenida por grandes equipos de investigación y financiada para obtener resultados. En teoría, pareciera que aun en casos en donde no fuera posible hacer nada, contar con la información correcta redundaría en mejores condiciones para que los individuos tomen sus decisiones. Sin embargo, desde la aparición en el mercado de la prueba para diagnosticar el mal de Huntington, pocas personas se han sometido a ella. Muchos pueden sospechar desde la adolescencia que son portadores, pero aun así prefieren evitar la confirmación de tan malas noticias. Contar con dicha información puede ser devastador y alterar profundamente los planes de vida si no existe un sistema social que provea el apoyo y la asesoría psicológica y económica necesaria. A esto debemos añadir que, a la fecha, el mal de Huntington no puede ser curado; ni por la medicina tradicional ni por ningún tipo de intervención o ingeniería genética, y las probabilidades de que ello ocurra son remotas dado nuestro escaso conocimiento del sistema nervioso y de la manera como los productos del gen defectuoso interaccionan con otras partes del organismo para producir la enfermedad. Por ello, Kitcher concluye que pensar que la terapia génica consiste en un sólo tipo de respuesta a situaciones tan diversas como las de la fenilcetonuria y el mal de Huntington es no solo incorrecto, sino que responde a una expectativa simplista y entusiasta promovida mayoritariamente en los medios de comunicación masiva por los grandes intereses económicos en juego.
El Proyecto Genoma Humano Otro ejemplo de los límites del determinismo genético y de los alcances de las estrategias de investigación reduccionistas es el Proyecto Genoma Humano, oficializado en 1991 en los Estados Unidos y, tiempo después, transformado en un esfuerzo multinacional desarrollado sobre todo en Europa y Norteamérica. En abril de 2003, un consorcio privado y grupos de investigación pública liderados por la agencia gubernamental de los Estados Unidos, el National Human Genome Research Institute, anunciaron la obtención del primer borrador de la secuencia del genoma humano. Tiempo atrás, en febrero de 1988, un Comité del Consejo Nacional de Ciencia —brazo de la National Academy of Sciences—, recomendó, además de un gasto de 200 millones de dólares anuales a lo largo de quince años, que el trabajo de mapeo genético y secuenciación fuera llevado a cabo no sólo en la especie humana sino en otros organismos, lo que aceleraría la obtención de resultados mediante la comparación de sus secuencias, y que se destinara dinero al desarrollo de tecnologías de secuenciación automática y de análisis computacional de la gran cantidad de datos que se esperaban obtener. En los tempranos días del proyecto, numerosas voces, tanto de científicos como de reconocidos filósofos de la biología, evidenciaron que contar con una larga secuencia de letras era un objetivo inútil; conocer su significado o sintaxis es algo muy distinto. Pero asignar funciones biológicas a segmentos de adn es prácticamente imposible sin otras secuencias con las cuales establecer comparaciones, es peor que buscar una aguja en un pajar. Para establecer funciones es necesario encontrar similitudes en las secuencias del genoma humano y de otras especies de las que se pueda conocer más fácilmente, o ya se conozcan, las posibles funciones. A su vez, esto es factible solamente con programas de cómputo adecuados y mayor capacidad en las computadoras. Es por ello que, gracias al impulso tecnológico del Proyecto Genoma Humano, actualmente se conocen cerca de 200 genomas completos de organismos como bacterias, hongos, animales y plantas, lo que elevó la capacidad de asignar funciones a secuencias concretas. Anotar un genoma es la expresión que se usa para la actividad de establecer hipótesis sobre la posible función de una secuencia, gracias a su similitud con otra de otros organismos en los cuales se ha establecido previamente dicha función directa o indirectamente. Pero anotar el genoma humano no es solamente establecer similitudes con otros genomas; hace falta probar que, en efecto, dicha secuencia codifica para la función —la proteína— que se ha postulado, por lo que es necesario hacer bioquímica y biología molecular tradicionales: aislar el gen, amplificarlo, expresarlo, medir o probar la actividad de su producto —la proteína. Aun en ese caso, la información genética es de escasa utilidad si se desconocen sus mecanismos de regulación, la manera cómo interactúa el producto de esa secuencia con otros productos celulares y la información de tipo clínico o ambiental tan diversa que puede incluir cosas como los hábitos o el contexto psicológico. Así, ahora resultan fundamentales las bases de datos inteligentes, la posibilidad de correlacionar datos de orígenes muy diversos permitirá contrarrestar la simple idea determinista de que los genes codifican características complejas, y tomar en cuenta numerosos factores involucrados en su expresión al momento de plantear soluciones comprometidas con la calidad de vida.
Conclusiones
Resulta absurdo negar los avances de la genética, la ingeniería genética o la bioinformática; asimismo sería irresponsable negar la posibilidad de que estos avances puedan contribuir eventualmente a mejorar la condición humana. No en vano las asociaciones de familiares de personas que padecen algún tipo de enfermedad genética se encuentran entre los más feroces defensores de la inversión en biotecnología. Tales avances son una realidad, en buena parte, a raíz de los logros de una investigación científica guiada por estrategias o heurísticas reduccionistas, cuya aplicación ha resultado en multitud de explicaciones reduccionistas o mecanicistas de los organismos; pero hay dos maneras de lidiar con ese tipo de respuestas. Seguir el camino de creer que son suficientes y que no requerimos ningún factor adicional a los genes para dar cuenta de las características de los organismos de manera satisfactoria, lo que conduce al determinismo genético. O reconocer que esas explicaciones son resultado de nuestras particulares maneras de acceder a los fenómenos naturales y que, en ese sentido, conllevan los sesgos de los caminos que hemos elegido para estudiarlos. Con esto se admite que los genes no tienen por qué ser el factor explicativo privilegiado, lo que no cierra la puerta a otras estrategias y explicaciones que pueden enriquecer tanto nuestra comprensión como el tipo de soluciones que podemos proporcionar a los diferentes problemas que enfrentamos. Este camino es el del pluralismo explicativo, generalmente animado por la convicción de que hace falta mucho más que atribuirle responsabilidad a un gen para encontrar la solución a un problema.
La elección de un camino u otro no es una cuestión meramente científica. Involucra valores, intereses y compromisos. Para un científico puede resultar satisfactorio creer que cuenta con una solución simple y omnipotente, y que ello dota a su ciencia de un mayor estatus epistémico y social. En cambio, para otros es perentorio asumir la responsabilidad de reconocer que, para que la ingeniería genética y todas sus promesas funcionen, se requieren enormes avances en todas las esferas de la vida de las personas: educativa, política, social, familiar y económica.
|
||
Edna Suárez Díaz
Facultad de Ciencias,
Universidad Nacional Autónoma México.
|
||
Referencias bibliográficas:
Ayer, A. J. 1959. El positivismo lógico. Fondo de Cultura Económica, México.
Hull, D. L. y M. Ruse (eds). 1998. The philosophy of biology. Oxford University Press.
Kitcher, P. 1997. The lives to come. Simon and Schuster, Nueva York. Existe versión en español, Las vidas por venir. Instituto de Investigaciones Filosóficas, unam, 2000.
Lewontin, R. C. 2000. It ain’t necessarily so. New York Review Books, Nueva York.
Martínez, S. F. y A. Barahona (eds.). 1998. Historia y explicación en biología. Fondo de Cultura Económica, unam. México.
_______________________________________________________________
como citar este artículo → Suárez Díaz, Edna. (2005). Reduccionismo y biología en la era postgenómica. Ciencias 79, julio-septiembre, 54-64. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |
![]() |
![]() |
|||
de profundis | ||||
Sueño y evolución |
|
|||
María Luisa Fanjul de Moles
conoce más del autor
|
||||
HTML ↓ | ←Regresar al índice ⁄ artículo siguiente→ | |||
Contemplar los fenómenos biológicos desde una perspectiva evolutiva conduce a nuevas interpretaciones y crea novedosos enfoques sobre su fenomenología. No obstante, hasta hace relativamente poco tiempo los aspectos evolutivos no eran considerados para interpretar procesos y mecanismos en las neurociencias. Ahora, la relación entre neurobiología y teoría de la evolución origina novedosas explicaciones de muchos fenómenos neurobiológicos. Pero en el estudio de los estados de vigilancia y en las ciencias cognitivas este encuentro ha sido particularmente tardío. A pesar de que existen varios trabajos experimentales que abordan la filogenia del sueño, la mayoría se centra en factores comparados, sin profundizar en los elementos evolutivos que permitan dilucidar las presiones de selección que originaron este fenómeno.
En general, los estudios sobre el sueño se realizan en los campos médicos y biomédicos, concentrándose más en los mecanismos responsables de esta función que en las cuestiones evolutivas de la misma. Como resultado sabemos que el sueño es un estado de vigilancia de gran importancia funcional. Tanto en el ser humano como en diferentes animales, está sujeto a mecanismos cerebrales de control y es fundamental para el equilibrio fisiológico del organismo. En los humanos la necesidad de dormir se hace insoportable después de unas cuantas horas, y la total privación del periodo de sueño o su restricción crónica causa graves déficits cognitivos que pueden llevar a la muerte. Estos incluyen un decremento en la atención y la memoria de corto plazo, alteraciones en el lenguaje y confusión; también afecta los sistemas endocrino e inmune, produciendo cambios importantes en el metabolismo. De la misma manera que beber y comer, dormir parece satisfacer necesidades elementales para la sobrevivencia. Sin embargo, el propósito funcional del sueño permanece oscuro, a pesar de que investigaciones electrofisiológicas y conductuales en mamíferos indican que existe una interdependencia entre el buen dormir, el aprendizaje y la memoria. Esto influye en la eficiencia con la que trabaja el cerebro despierto, que a su vez depende de mecanismos de control neurofisiológicos subyacentes en estructuras nerviosas bien identificadas, como los sistemas activadores del tallo cerebral y los núcleos talámicos. La actividad de estas estructuras neurales conduce a cambios cíclicos en substancias neurotransmisoras y neuromoduladoras durante los estados de vigilancia por los que pasa un individuo en un día, que son los de vigilia activa y en reposo, así como de sueño de movimientos oculares rápidos (mor) y sin movimientos oculares rápidos (nmor). Todos ellos se caracterizan por la presencia o ausencia de ondas cerebrales de diferente frecuencia. En la vigilia y en el estado mor el registro cerebral muestra ondas muy rápidas, pero en la primera el animal esta despierto y en el segundo dormido, por lo que el último también recibe el nombre de sueño paradójico. En el sueño nmor la actividad cerebral es lenta y el tono muscular está disminuido. En la vigilia existe un tono muscular que permite reaccionar rápidamente ante los estímulos del medio, mientras que en el sueño mor hay ausencia de tono muscular y, prácticamente, de actividad espinal refleja. Sueño y vigilia Muchos autores proponen que durante la evolución el estado de vigilia precedió al desarrollo del estado de sueño. Antes de que emergiera el último, los animales alternaban periodos en actividad y en reposo coincidentes con el forrajeo y el descanso. La duración diaria de los periodos de luz y oscuridad, así como las presiones de predación, debieron canalizar los ciclos de actividad y reposo, determinando los hábitos nocturnos o diurnos de un animal. Algunos autores afirman que en los vertebrados la progresión hacia el estado de sueño primitivo debió haber comenzado cuando animales de conducta relativamente simple evolucionaron hacia conductas complejas que requerían funciones visuales precisas e integrativas, como la visión focal que recrea escenas complejas. Comparada con otras modalidades sensoriales, en este tipo de visión interviene una mayor porción de cerebro para procesar información y almacenarla. En los tiempos primigenios, los animales no-durmientes desarrollaron conductas complejas, como los desplazamientos a grandes distancias, que requerían una gran capacidad visual. En este contexto, el recuerdo mediante el almacenamiento en la memoria de largo plazo era crucial y la complejidad neural aumentó considerablemente. Se ha sugerido que en los animales que adquirieron la conducta focal y la memoria de largo plazo, la carga impuesta a la función cerebral fue excesiva y creó conflictos entre los procesos de información, análisis sensorial y sus relaciones con el control del movimiento, y la necesidad de adquirir, establecer y reforzar el almacenamiento de la memoria de largo plazo. Resolver esto requería encontrar, durante una fracción del ciclo de actividad de 24 horas, un estado cerebral de aislamiento del bombardeo de información sensorial que permitiera procesar la información previa y consolidar los procesos de memoria. Con ello, en el estado de vigilia subsiguiente, el cerebro aumenta su eficiencia para responder a los cambios del medio. Algunos autores discrepan con esta teoría, objetando que la adquisición del sueño puede haber causado que los animales estén expuestos a riesgos mayores que si permanecieran despiertos. Sin embargo, las ventajas adaptativas de poder mantener dos estados cerebrales de gran eficiencia, la vigilia y el sueño, sobrepasan estos riesgos. Actualmente se acepta que los procesos de consolidación de memoria no pueden realizarse durante el estado de vigilia, requieren sueño nmor y mor. Diferentes investigaciones sugieren que el sueño ocurre únicamente en animales que poseen ojos complejos que forman imágenes y bloquean su visión para dormir mediante blindajes de entrada sensorial, como los párpados. De acuerdo con ellas, algunos reptiles, como los ancestros de las aves, pueden haber adquirido la capacidad de sueño en forma progresiva y paralela a estrategias visuales complejas, como los mecanismos de acomodación, y la selección natural debió favorecer la reducción de ondas rápidas durante la vigilia de reposo —o inactiva— en la que se aumentó progresivamente el umbral para responder al medio o despertar. Durante este estado de sueño primitivo, se cree que únicamente se presentaban ondas cerebrales de baja frecuencia —menores a 14 hertzios—; es decir, similar al sueño nmor de los actuales vertebrados. Esta teoría se refuerza con el hecho de que los vertebrados ectotermos durmientes presentan únicamente sueño nmor. Con la aparición de la endotermia, los animales son capaces de regular su temperatura, lo cual culmina en un alto desarrollo del cerebro anterior y el surgimiento del sueño mor con la paradójica actividad cerebral de alta frecuencia similar a la de la vigilia. En mamíferos este tipo de sueño se correlaciona con el desarrollo cortical, y en las aves con los surcos ventriculares. Es interesante la asociación de ambos estados, el mor y el nmor, con las ensoñaciones. Todos los eventos relacionados con las ensoñaciones que ocurren en el mor se originan dentro de un cerebro aislado de la estimulación sensorial externa, estado de conciencia en el que el animal posee una responsividad conductual muy reducida. En el sueño nmor, las ondas cerebrales lentas que predominan parecen reforzar circuitos en los que se almacenan fragmentos de memoria, en tanto que algunas de las pocas ondas rápidas presentes en este estado están asociadas con ensoñaciones. Sueño en invertebrados El sueño está presente en todos los vertebrados, aun en los considerados menos evolucionados, como los peces. Aunque algunos peces ciegos que viven en cavernas, al no tener conflictos visuales no duermen, pasan el ciclo diario en estados alternos de vigilia activa y en reposo; otros, que sí poseen visión focal como el atún y el tiburón, tampoco duermen, y pasan la vida en actividad, nadando continuamente. Por su parte, algunos mamíferos marinos pueden estar simultáneamente activos y durmiendo, pues los hemisferios cerebrales se turnan para dormir. En el delfín cuando el hemisferio derecho duerme el izquierdo descansa, y viceversa. Pero ¿qué pasa con los invertebrados?, ¿existe sueño en este grupo de animales entre los que se detecta la presencia de ojos muy desarrollados como en artrópodos y moluscos? Durante mucho tiempo este tema causó gran controversia, a pesar de que, en general, se acepta que todos los animales muestran periodos de actividad y reposo regulados por un reloj circadiano, de aproximadamente 24 horas, capaz de sincronizarse con los ciclos ambientales diarios. El sueño en mamíferos y en aves se considera regulado en gran parte por ese reloj, pero además existen importantes componentes homeostáticos que intervienen tanto en su inicio como en la duración. Esta regulación homeostática depende de la historia de sueño del animal; es decir, del grado de acumulación de sueño y la necesidad de dormir. Entonces, aunque un invertebrado muestre ritmos circadianos de actividad-reposo, para que el estado de reposo pueda considerarse uno de sueño, debe mostrar periodos de inmovilidad circadiana en los que el animal asume posturas típicas especie-específicas; un elevado umbral de despertar, que requiere un gran estímulo para responder a los cambios del medio; y estar regulado homeostáticamente; esto es, necesitar una mayor cantidad de sueño después de un periodo de insomnio o privación. Son varios los invertebrados en los que se ha identificado el sueño, entre ellos la cucaracha, la abeja, el escorpión y la mosca. Recientemente, un grupo de investigación de nuestro país identificó un estado similar al sueño en un crustáceo, el cangrejo de río o acocil. Este animal acuático reposa en una posición especie-específica, ladeado en el acuario. Durante este estado, asociado al reposo circadiano, no sólo sus umbrales al despertar son más altos, sino que en el registro eléctrico cerebral aparecen ondas lentas de alrededor de ocho hertzios. Es decir, diferentes pero cercanas a las ondas de baja frecuencia descritas para el sueño nmor de los vertebrados. Además, este curioso animalito presenta una regulación homeostática, pues al privarlo del reposo durante 24 horas, aumenta la cantidad de sueño. En el acocil, el sueño parece representar un eslabón entre los estados de sueño primitivo de vertebrados e invertebrados. Este primer reporte de un estado de sueño cerebral en invertebrados abre nuevos caminos en el campo de la investigación, pues estos organismos son modelos idóneos para tratar de esclarecer muchos misterios, al ser más simples y poder salvar algunos de los aspectos éticos de la investigación en neurociencias. Los mecanismos y las moléculas descubiertas en estos animales están evolutivamente conservados en otras especies, incluyendo aves y mamíferos. Poseer modelos animales que nos permiten identificar estados de reposo similares al sueño inaugura novedosos campos para la investigación neurobiológica. |
||||
María Luisa Fanjul de Moles
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||||
Referencias bibliográficas:
Kavanau, J. L. 1997. “Origin and evolution of sleep: roles of vision and endothermy”, en Brain Res Bull., núm. 42, pp. 245-264.
Huber, R., S. L. Hill, C. Holladay, M. Biesiadecki, G. Tononi y C. Cirelli. 2004. “Sleep homeostasis in Drosophila melanogaster”, en Sleep, núm. 27, pp. 628-639.
Ramon, F, J. Hernandez Falcon, B. Nguyen y T. H. Bullock. 2004. “Slow wave sleep in crayfish”, en Proc Natl Acad Sci USA, núm. 101, pp. 11 857-11 861.
_______________________________________________________________
como citar este artículo → Fanjul de Moles, María Luisa. (2005). Sueño y evolución. Ciencias 79, julio-septiembre, 14-17. [En línea]
|
||||
|