Reduccionismo y biología en la era postgenómica |
|
|
Edna Suárez Díaz
conoce más del autor
|
||
HTML↓ | ||
|
||
Coloquialmente, el término reduccionista se utiliza de manera peyorativa, denotando no sólo simplismo sino una fuerte carga ideológica. En biología, con frecuencia se utiliza de manera confusa, junto con una de las ideas más polémicas en la ciencia, el determinismo —sobre todo el genético. A pesar de ello, la mayoría de los científicos adoptan algún tipo de compromiso reduccionista para llevar a cabo sus investigaciones.
El reduccionismo tiene una interesante historia en la filosofía de la ciencia, sus raíces se encuentran en la concepción mecanicista defendida por Descartes en la primera mitad de siglo xvii. Aunque hay diferentes maneras de caracterizarlo, el mecanicismo generalmente asume que el comportamiento de un objeto, en particular de una máquina, está determinado por leyes mecánicas que actúan sobre sus partes, constituidas por materia inerte. Describir las partes que conforman una máquina es el primer requisito en la comprensión de su funcionamiento; así, si queremos saber cómo funciona un reloj estudiamos las partes y mecanismos que determinan el movimiento de sus agujas. Según Descartes, este modelo sirve para estudiar y explicar el comportamiento de los seres vivos, y alrededor de 1648 pretendió utilizarlo en su estudio del problema de la generación —reproducción—, esto es, el desarrollo del feto. La intención cartesiana desató una gran polémica con los vitalistas, quienes no creían que se pudiera eliminar de las explicaciones biológicas la intervención de una fuerza material o divina que organice la materia. El debate, que tuvo repercusiones hasta bien entrado el siglo xix, es muy importante en la historia de la ciencia porque promovió una mayor precisión en la definición del carácter de las explicaciones e investigaciones científicas.
En la primera mitad del siglo xx, la filosofía de la ciencia estuvo dominada por el positivismo lógico o neopositivismo, escuela que considera fundamental comprender la estructura lógica de las teorías, y que sostiene que el conocimiento científico se encuentra contenido exclusivamente en las teorías acabadas de la ciencia. La reducción era entendida como una relación en la que unas teorías o dominios del conocimiento podían ser reducidos o explicados por otros de carácter más general; por ejemplo, la reducción de la biología a la física. Gracias a este concepto, se contaría con teorías cada vez más inclusivas y generales de los fenómenos naturales. Además, la reducción era importante porque estaba ligada con el ideal de la unidad de la ciencia, el cual era más que nada un movimiento cultural, como señaló John Dewey. El proyecto clave de los neopositivistas, la enciclopedia de la ciencia unificada, fue impulsado con la esperanza de que una visión científica e internacional del mundo conjuraría las concepciones nacionalistas y racistas —que eventualmente desembocaron en el nazismo y el fascismo—, contra las cuales estos filósofos se enfrentaban a muerte. “Ícono, marca de verdad o canto de sirena, la unificación ha representado mucho más que un objetivo puramente científico o simbólico”, afirmó el historiador de la física, Peter Galison.
El trabajo de los positivistas lógicos y de sus sucesores es tan amplio que ahora se considera que el reduccionismo es en realidad una familia de problemas y modelos. Una clasificación muy utilizada de éstos es la planteada en 1962 por el biólogo Ernst Mayr, quien sostiene que el término reduccionismo se utiliza al menos en tres sentidos: el constitutivo, el explicativo y el teórico. El primero no es problemático para los científicos del siglo xx pues se refiere al hecho de que la composición material de los organismos es la misma que la de la materia inorgánica. El segundo trata sobre la explicación de un todo en términos de sus partes, acepción relacionada con el uso de la metáfora cartesiana del reloj. El tercero aborda la relación que permite la deducción y explicación de una teoría por otra de mayor generalidad, es decir, el modelo desarrollado por los neopositivistas.
De acuerdo con el modelo clásico de reducción teórica, publicado por Ernst Nagel en 1961, las teorías consisten en sistematizaciones de observaciones —leyes o regularidades— legitimadas gracias a procedimientos experimentales o de observación —si bien esta legitimación no tiene que ser directa. Para Nagel, una teoría B se reduce a una A cuando lo que dice la primera sobre lo que es observable puede deducirse —lógicamente— de la segunda. Para que esto ocurra deben cumplirse dos condiciones: que la explicación de una teoría por otra se realice por medio de una relación deductiva —lo que implica asumir que las explicaciones son nomológico-deductivas, es decir, a partir de leyes generales o universales deducir casos particulares—; y que existan relaciones de identidad entre los términos a los que se refiere cada una de las teorías —A y B. Resulta claro que la derivación de una teoría por otra sólo es posible si la relación entre los términos de ambas es transparente. Nagel se percató de las dificultades de establecer dicha relación —es casi imposible que los términos de dos teorías diferentes, como las de Newton y Einstein, tengan una relación uno a uno—, por lo que propuso la formulación de leyes o principios puente que permitieran conectar los términos de ambas teorías.
Sin embargo, incluso un ejemplo tan socorrido como el de la reducción de la ley de Galileo de la caída libre de los cuerpos sobre la superficie de la Tierra, a la ley de la gravitación universal de Newton, es problemática cuando se trata de entender de acuerdo al modelo de Nagel. Diversas investigaciones —iniciadas con un artículo publicado en 1962 por Feyerabend— mostraron muchas dificultades con ese proyecto, concluyendo que en este particular ejemplo sólo podía llevarse a cabo una reducción aproximada. En biología, el trabajo de filósofos como Keneth Schaffner, David Hull y William Wimsatt fue muy importante; en la década de los setentas demostraron que era imposible cumplir con las condiciones del modelo de Nagel. Hull, en el marco de una larga discusión acerca de si la genética clásica podía reducirse a la biología molecular, fue de los primeros en sostener que en la última las explicaciones recurren a mecanismos responsables de determinados fenómenos y no existen lo que propiamente se llaman leyes en la tradición empirista; esto es, relaciones entre fenómenos descritas por enunciados de aplicación universal. También mostró que no existe manera de traducir los términos y conceptos de la genética clásica a los de la biología molecular. Incluso en el caso de querer reducir teorías que aparentemente se refieren al mismo dominio de fenómenos, el modelo de Nagel no se cumple. Debido a la acumulación de argumentos de este tipo en los últimos treinta años podemos afirmar que actualmente el reduccionismo teórico está de capa caída en la biología.
Mientras tanto, Stuart Kauffman y William Wimsatt desarrollaron modelos que tenían mayor cercanía con los problemas y soluciones del quehacer de los biólogos; lo cual coincide con la sustitución de la física por la biología, como modelo de la filosofía de la ciencia. En los nuevos modelos, una explicación reduccionista involucra reglas y mecanismos empíricos que, con frecuencia, no forman parte de ninguna teoría explícita. Así, se reconoce que el reduccionismo tiene que ver con mecanismos y su alcance explicativo en diferentes niveles de organización. Además, la atención se centra en explicaciones cuyo objetivo es modelar los organismos como sistemas en los que la interacción de partes es sumamente compleja. El énfasis en el estudio de la relación entre mecanismos particulares —y los niveles de organización que esto requiere— y en aspectos ontológicos de la relación entre el todo y las partes en casos específicos plantea problemas concretos que desplazan a los típicos ejemplos de la filosofía neopositivista, permitiendo reflexionar de manera concreta en el tipo de explicaciones que construyen los biólogos en áreas como la biología del desarrollo, la genética, la evolución y la biología molecular. Esto ha sido especialmente propicio para abordar los temas apremiantes que surgen como resultado del avance de la biología molecular.
Explicación versus estrategia William Wimsatt y otros de sus colegas señalan que podemos hablar de reduccionismo en dos grandes sentidos: como una forma de explicación o como una estrategia —o heurística— de investigación. Según Wimsatt, la clasificación de Mayr se refiere sólo al primer tipo. Esta distinción, a partir de un enfoque funcional, permite hablar con mayor precisión de las actividades y productos de los científicos, en particular de aquellos involucrados con explicaciones genéticas. Wimsatt sostiene que “en un universo en el que el reduccionismo es una buena estrategia, las propiedades de las entidades de nivel superior son explicadas mejor en términos de las propiedades e interrelaciones de las entidades de nivel inferior”. Es decir, a diferencia de la tradición neopositivista, él y sus seguidores, incluyendo a Lewontin, consideran que los niveles de organización son entidades reales. Ello explica, según estos autores, los éxitos de las estrategias reduccionistas a lo largo de la historia de la ciencia moderna y el por qué, pese a declaraciones en contrario, la mayoría de los científicos las adoptan como su forma de hacer investigación. Sin embargo, lo anterior no significa que debamos hacer una apología de las explicaciones reduccionistas. Las estrategias de investigación de los científicos —o como las llama Wimsatt, las heurísticas— sistemáticamente introducen sesgos en su investigación. Por ello, la reduccionista introducirá un tipo de sesgos que son inevitables en la percepción y explicación de los fenómenos; lo que puede hacerse al respecto es tener clara conciencia de cuáles son tales sesgos. Además, podemos lidiar con ellos si reconocemos que existen estrategias distintas, las cuales nos permiten contrastar y detectar lo que está mal de nuestras explicaciones reduccionistas. Pero en la ciencia en cierto sentido el reduccionismo es inevitable; es una estrategia entre otras, pero una muy eficiente debido a la estructura de la materia y del mundo.
Por su parte, el determinismo, en el caso de la genética, establece que un tipo de entidades individuales, los genes, son los elementos centrales o privilegiados en la explicación de un fenómeno en un nivel superior de complejidad; posteriormente los responsabiliza como única causa de ese fenómeno. Éste es uno de los sesgos más peligrosos introducidos en la investigación biológica por el uso de estrategias reduccionistas, las cuales sistemáticamente —en genética y biología molecular— enfocan sus baterías hacia la detección de las partes —los genes— de un mecanismo. Sin embargo, debemos subrayar que determinismo y reduccionismo no son sinónimos. Puede haber reduccionismo —es decir, explicaciones de fenómenos que apelan a mecanismos, o reconocimiento de que es importante describir la interrelación de las partes de un organismo—, sin que necesariamente haya determinismo. En cambio, lo contrario no se cumple. Richard Lewontin y muchos otros autores, incluido el recién fallecido Stephen Jay Gould en su libro The mismeasure of man, han documentado ampliamente las funestas consecuencias del determinismo biológico y, en particular, del genético, el cual ha dejado su marca no sólo al fomentar concepciones racistas y sexistas del ser humano, sino al impactar en cuestiones tan concretas como las políticas de inmigración, educativas y otras en diferentes lugares y momentos. Por supuesto, el determinismo también tiene una larga historia en la filosofía y en la ciencia. Por ejemplo, al inicio del siglo xx, el determinismo biológico estuvo íntimamente ligado a la discusión registrada en psicología, antropología y otras ciencias sociales acerca de si los rasgos biológicos de una persona —o de una raza— determinaban su comportamiento social o si, por el contrario, éste se debía a influencias de tipo cultural o social.
Problemas y retos para el futuro El desarrollo de la ingeniería genética y, más en general, de la biotecnología, genera grandes expectativas, pero también atrae la atención de los críticos al reduccionismo y al determinismo genético. Avances en las técnicas de diagnóstico genético y de reproducción asistida, en el desarrollo de fármacos que alteran el comportamiento, así como en la investigación de temas tan distintos como la terapia génica o las células troncales, todos ellos en el marco de una biología que completó la primera fase del Proyecto Genoma Humano, inducen a pensar que numerosos problemas tanto médicos como de orden social podrán tener una pronta y eficaz solución. Sin embargo, la historia de la ciencia ha mostrado que difícilmente la solución a los problemas de la humanidad puede tener un carácter “exclusivamente” científico. Vale la pena detenerse en las comillas ya que la ciencia es uno de los productos de nuestra cultura y, en ese sentido, no es claro que podamos delimitar las soluciones propiamente científicas de aquellas que incluyen otros aspectos. En efecto, las formas en que explicamos el mundo se encuentran cargadas de numerosas expectativas y valores. Lewontin señaló, por ejemplo, que dentro de los supuestos básicos que tienen un efecto profundo sobre las formas de explicación destacan el individualismo, la perspectiva reduccionista y una clara distinción entre causas y efectos que es característica de la ciencia moderna y, en particular, del reduccionismo explicativo. En esa concepción el “mundo es partido en dominios autónomos independientes, lo interno y lo externo; lo que en el caso de la biología desemboca en una perspectiva que percibe los organismos como individuos determinados por factores —o causas— internos, los genes”. Lewontin también indica que en nuestra cultura se prefieren las explicaciones que simplifican los procesos sobre las que reconocen que los fenómenos son “complicados, inciertos y desordenados, sin una regla simple o fuerza que explique el pasado y prediga el futuro”. Así, uno de los mayores males atribuibles a las heurísticas reduccionistas es precisamente su afán de simplificar, en aras de una supuesta visión científica, fenómenos complejos que requieren el análisis y la intervención de numerosas perspectivas, tanto a nivel explicativo como al de las respuestas o soluciones que se proponen. El panorama se complica cuando le añadimos el elemento del determinismo genético a nuestras explicaciones.
La ingeniería genética Casi es un lugar común la creencia de que las posibilidades de manipulación, aislamiento, caracterización y modificación de genes por medio de la ingeniería genética se potenciarán a partir de los logros del Proyecto Genoma Humano. Sin embargo, las historias que presentan estos desarrollos como cadena de eventos científicos y tecnológicos que modifican tanto la investigación biológica, como las políticas gubernamentales y los intereses de la industria, refuerzan la impresión de que las tendencias en la ingeniería genética tendrán consecuencias inevitables en muchos aspectos de nuestras vidas. Aunque existen distintas formas de contar la historia, puede decirse que la ingeniería genética inicia su desarrollo a partir de la década de los setentas, con las llamadas técnicas del adn recombinante. Los experimentos realizados en 1972 por David Jackson, Robert Symons y Paul Berg, en la Universidad de Stanford, se consideran un parteaguas en la historia de las posibilidades de manipulación genética. Estos científicos obtuvieron por primera vez una molécula de adn que contenía genes de organismos provenientes de diferentes especies biológicas y que podía replicarse numerosas veces en una bacteria. El impacto fue notable. De inmediato se anticiparon aplicaciones industriales, por ejemplo la producción de drogas como la insulina humana y la manipulación de especies de importancia en la agricultura. Influyentes publicaciones como Fortune, el San Francisco Chronicle y el New York Times pronto incluyeron artículos en los que las promesas de la ingeniería genética eran retratadas simultáneamente con su potencial comercial. La mayoría de las corporaciones farmacéuticas tardaron varios años en reaccionar, pero algunas lo hicieron con prontitud. Por ejemplo, en 1967 la empresa suiza Hoffman-LaRoche fundó en New Jersey el primer instituto dedicado a explorar las posibles aplicaciones de lo que posteriormente se llamaría ingeniería genética, y en 1971 se creo en Berkeley, California, la firma Cetus Corporation, primera dedicada expresamente a explotar los avances de la biología molecular.
Treinta años después, el panorama ciertamente ha cambiado. Por un lado, el desarrollo exponencial de las técnicas y herramientas de la ingeniería genética provoca que actualmente sea una parte común del quehacer cotidiano de cualquier estudiante de posgrado en un laboratorio de biología molecular. Además, la industria biotecnológica es una realidad y numerosas empresas de este tipo cotizan en las bolsas de valores e invierten en universidades de todo el mundo. En las industrias farmacéuticas y agrícolas, muchos organismos han sido modificados genéticamente para producir sustancias que se adquieren con relativa facilidad, como la insulina humana o el interferón gamma. Gracias a las grandes sumas invertidas en el Proyecto Genoma Humano, ahora los centros de adn son unidades —difícilmente se les puede llamar laboratorios, en el sentido tradicional del término— equipadas con robots, máquinas de secuenciación automática de genes y computadoras que analizan las grandes cantidades de información que se producen.
A pesar de ello, las posibilidades de intervención o manipulación del genoma humano no han cambiado mucho respecto al panorama de hace treinta años. Si acaso, conocemos con mucha mayor precisión la complejidad de los sistemas genéticos de los organismos, lo que significa que sabemos más acerca de la estructura del genoma, de los procesos que regulan la expresión de la información en muchos genes, de la manera en que los genes y otros factores de la célula —o del medio externo— influyen en diferentes momentos de la vida de un organismo, y de los mecanismos con que los seres vivos cuentan para amortiguar cambios en su genoma. Así, la posibilidad técnica de alterar el genoma de un organismo se encuentra, por un lado, cada vez más cerca, pero por otro, cada vez sabemos con mayor detalle lo difícil que será llevarlo a cabo sin generar efectos indeseables en el organismo y en su contexto. En el caso de los seres humanos, junto con los aspectos médicos se debe considerar los retos de orden familiar y social que harán posible —o impedirán— el acceso a este tipo de tecnología médica, así como las cuestiones de tipo ético que son urgentes de resolver; por ejemplo, el derecho de alterar el genoma de generaciones futuras de seres humanos.
El filósofo Philip Kitcher realizó un esfuerzo por revelar las falacias que se esconden en una visión ingenua, que si bien rechaza abiertamente el determinismo biológico, continúa atribuyendo directamente a los genes caracteres complejos. Su crítica se dirige contra la expectativa de contar con explicaciones y soluciones simples a problemas que tienen causas, desarrollo y consecuencias muy diversas. Por ejemplo, distingue dentro de las enfermedades genéticas, las que pueden enfrentarse mediante una terapia relativamente sencilla, las que actualmente sólo podemos paliar en sus consecuencias, y las que causan un deterioro inevitable y grandes dosis de sufrimiento para el enfermo y sus familiares.
Incluso en las enfermedades del primer tipo, como la fenilcetonuria, diagnosticada al momento del nacimiento gracias a un estudio que se aplica regularmente a los recién nacidos y cuya solución radica en un simple cambio de dieta durante la infancia hasta la adolescencia, el panorama no es tan simple como lo sostiene la versión determinista genética. Por ejemplo, los primeros años de diagnóstico de la enfermedad estuvieron plagados de errores —falsos positivos—, con graves consecuencias. Proporcionar la dieta de un fenilcetonúrico a un niño normal genera tanto retardo mental como la dieta normal en un niño enfermo; a la fecha se desconoce cuántos niños fueron afectados por este tipo de error. Asimismo, como las niñas con esta enfermedad rara vez se reproducían, nadie previó que una enferma sin seguir la dieta especial —la que le fue retirada en la adolescencia—, al estar embarazada ocasionaría gravísimos transtornos de desarrollo mental a su bebé. Incluso hoy, cuando los diagnósticos falsos han disminuido, persiste una gran cantidad de problemas que no son estrictamente genéticos. Diversos estudios revelan la existencia de numerosos factores que complican la vida del enfermo, como lo costoso e insatisfactorio de la dieta, la ausencia de apoyo comunitario y familiar, la falta de comprensión del problema, etcétera. Especialmente durante la adolescencia perturba la vida social a tal grado que padres e hijos deben sujetarse a una gran disciplina. Estos factores —falta de conocimiento, carencia de apoyo social y económico— explican que rara vez se cumplan las expectativas médicas y que muchos fenilcetonúricos padezcan al menos algunas de las consecuencias de su enfermedad.
Más complicado es el caso de enfermedades como el mal de Huntington, utilizado con frecuencia para ilustrar los beneficios de la biotecnología. Es una enfermedad que se desarrolla en hombres y mujeres, caracterizada por un grave deterioro neuronal que es física y mentalmente doloroso para el paciente y agonizante para quienes lo rodean. A diferencia de otras enfermedades genéticas, se trata de un carácter dominante; es decir, basta con que el padre o la madre hayan transmitido el gen para que la enfermedad se desarrolle. Cada hijo o hija de un portador tiene cincuenta por ciento de probabilidades de heredar la condición —recuérdese que los gametos o células reproductoras llevan sólo la mitad de la información hereditaria del resto de las células— y si alguno la hereda, con seguridad desarrollará el mal. Pero, dado que la enfermedad se manifiesta tardíamente en la vida del portador —generalmente entre los 30 y 50 años de edad—, es muy probable que éste ya haya tenido hijos y no pueda hacer nada para evitar su transmisión. Claramente, es un caso en el que un diagnóstico genético temprano parece tener grandes ventajas. Hasta los años ochentas no había manera de diagnosticar con antelación a los portadores. En la última década y media esta situación cambió y se detectó al gen responsable, se le mapeó y secuenció. Por supuesto, producto de una estrategia de investigación reduccionista, sostenida por grandes equipos de investigación y financiada para obtener resultados. En teoría, pareciera que aun en casos en donde no fuera posible hacer nada, contar con la información correcta redundaría en mejores condiciones para que los individuos tomen sus decisiones. Sin embargo, desde la aparición en el mercado de la prueba para diagnosticar el mal de Huntington, pocas personas se han sometido a ella. Muchos pueden sospechar desde la adolescencia que son portadores, pero aun así prefieren evitar la confirmación de tan malas noticias. Contar con dicha información puede ser devastador y alterar profundamente los planes de vida si no existe un sistema social que provea el apoyo y la asesoría psicológica y económica necesaria. A esto debemos añadir que, a la fecha, el mal de Huntington no puede ser curado; ni por la medicina tradicional ni por ningún tipo de intervención o ingeniería genética, y las probabilidades de que ello ocurra son remotas dado nuestro escaso conocimiento del sistema nervioso y de la manera como los productos del gen defectuoso interaccionan con otras partes del organismo para producir la enfermedad. Por ello, Kitcher concluye que pensar que la terapia génica consiste en un sólo tipo de respuesta a situaciones tan diversas como las de la fenilcetonuria y el mal de Huntington es no solo incorrecto, sino que responde a una expectativa simplista y entusiasta promovida mayoritariamente en los medios de comunicación masiva por los grandes intereses económicos en juego.
El Proyecto Genoma Humano Otro ejemplo de los límites del determinismo genético y de los alcances de las estrategias de investigación reduccionistas es el Proyecto Genoma Humano, oficializado en 1991 en los Estados Unidos y, tiempo después, transformado en un esfuerzo multinacional desarrollado sobre todo en Europa y Norteamérica. En abril de 2003, un consorcio privado y grupos de investigación pública liderados por la agencia gubernamental de los Estados Unidos, el National Human Genome Research Institute, anunciaron la obtención del primer borrador de la secuencia del genoma humano. Tiempo atrás, en febrero de 1988, un Comité del Consejo Nacional de Ciencia —brazo de la National Academy of Sciences—, recomendó, además de un gasto de 200 millones de dólares anuales a lo largo de quince años, que el trabajo de mapeo genético y secuenciación fuera llevado a cabo no sólo en la especie humana sino en otros organismos, lo que aceleraría la obtención de resultados mediante la comparación de sus secuencias, y que se destinara dinero al desarrollo de tecnologías de secuenciación automática y de análisis computacional de la gran cantidad de datos que se esperaban obtener. En los tempranos días del proyecto, numerosas voces, tanto de científicos como de reconocidos filósofos de la biología, evidenciaron que contar con una larga secuencia de letras era un objetivo inútil; conocer su significado o sintaxis es algo muy distinto. Pero asignar funciones biológicas a segmentos de adn es prácticamente imposible sin otras secuencias con las cuales establecer comparaciones, es peor que buscar una aguja en un pajar. Para establecer funciones es necesario encontrar similitudes en las secuencias del genoma humano y de otras especies de las que se pueda conocer más fácilmente, o ya se conozcan, las posibles funciones. A su vez, esto es factible solamente con programas de cómputo adecuados y mayor capacidad en las computadoras. Es por ello que, gracias al impulso tecnológico del Proyecto Genoma Humano, actualmente se conocen cerca de 200 genomas completos de organismos como bacterias, hongos, animales y plantas, lo que elevó la capacidad de asignar funciones a secuencias concretas. Anotar un genoma es la expresión que se usa para la actividad de establecer hipótesis sobre la posible función de una secuencia, gracias a su similitud con otra de otros organismos en los cuales se ha establecido previamente dicha función directa o indirectamente. Pero anotar el genoma humano no es solamente establecer similitudes con otros genomas; hace falta probar que, en efecto, dicha secuencia codifica para la función —la proteína— que se ha postulado, por lo que es necesario hacer bioquímica y biología molecular tradicionales: aislar el gen, amplificarlo, expresarlo, medir o probar la actividad de su producto —la proteína. Aun en ese caso, la información genética es de escasa utilidad si se desconocen sus mecanismos de regulación, la manera cómo interactúa el producto de esa secuencia con otros productos celulares y la información de tipo clínico o ambiental tan diversa que puede incluir cosas como los hábitos o el contexto psicológico. Así, ahora resultan fundamentales las bases de datos inteligentes, la posibilidad de correlacionar datos de orígenes muy diversos permitirá contrarrestar la simple idea determinista de que los genes codifican características complejas, y tomar en cuenta numerosos factores involucrados en su expresión al momento de plantear soluciones comprometidas con la calidad de vida.
Conclusiones
Resulta absurdo negar los avances de la genética, la ingeniería genética o la bioinformática; asimismo sería irresponsable negar la posibilidad de que estos avances puedan contribuir eventualmente a mejorar la condición humana. No en vano las asociaciones de familiares de personas que padecen algún tipo de enfermedad genética se encuentran entre los más feroces defensores de la inversión en biotecnología. Tales avances son una realidad, en buena parte, a raíz de los logros de una investigación científica guiada por estrategias o heurísticas reduccionistas, cuya aplicación ha resultado en multitud de explicaciones reduccionistas o mecanicistas de los organismos; pero hay dos maneras de lidiar con ese tipo de respuestas. Seguir el camino de creer que son suficientes y que no requerimos ningún factor adicional a los genes para dar cuenta de las características de los organismos de manera satisfactoria, lo que conduce al determinismo genético. O reconocer que esas explicaciones son resultado de nuestras particulares maneras de acceder a los fenómenos naturales y que, en ese sentido, conllevan los sesgos de los caminos que hemos elegido para estudiarlos. Con esto se admite que los genes no tienen por qué ser el factor explicativo privilegiado, lo que no cierra la puerta a otras estrategias y explicaciones que pueden enriquecer tanto nuestra comprensión como el tipo de soluciones que podemos proporcionar a los diferentes problemas que enfrentamos. Este camino es el del pluralismo explicativo, generalmente animado por la convicción de que hace falta mucho más que atribuirle responsabilidad a un gen para encontrar la solución a un problema.
La elección de un camino u otro no es una cuestión meramente científica. Involucra valores, intereses y compromisos. Para un científico puede resultar satisfactorio creer que cuenta con una solución simple y omnipotente, y que ello dota a su ciencia de un mayor estatus epistémico y social. En cambio, para otros es perentorio asumir la responsabilidad de reconocer que, para que la ingeniería genética y todas sus promesas funcionen, se requieren enormes avances en todas las esferas de la vida de las personas: educativa, política, social, familiar y económica.
|
||
Edna Suárez Díaz
Facultad de Ciencias,
Universidad Nacional Autónoma México.
|
||
Referencias bibliográficas:
Ayer, A. J. 1959. El positivismo lógico. Fondo de Cultura Económica, México.
Hull, D. L. y M. Ruse (eds). 1998. The philosophy of biology. Oxford University Press.
Kitcher, P. 1997. The lives to come. Simon and Schuster, Nueva York. Existe versión en español, Las vidas por venir. Instituto de Investigaciones Filosóficas, unam, 2000.
Lewontin, R. C. 2000. It ain’t necessarily so. New York Review Books, Nueva York.
Martínez, S. F. y A. Barahona (eds.). 1998. Historia y explicación en biología. Fondo de Cultura Económica, unam. México.
_______________________________________________________________
como citar este artículo → Suárez Díaz, Edna. (2005). Reduccionismo y biología en la era postgenómica. Ciencias 79, julio-septiembre, 54-64. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |