![]() |
||||
de la solapa | ||||
Conceptos básicos de genética |
|
|||
|
||||
HTML ↓ | ←Regresar al índice | |||
Conceptos básicos de Genética, Rosario Rodríguez Arnaiz, América Castañeda Sortibrán y María Guadalupe Ordáz Téllez. Facultad de Ciencias, unam, 2004. |
||||
La genética es la ciencia que estudia la transmisión de la información hereditaria de una generación a la siguiente, su objeto de estudio son los genes, los cuales pueden abordarse desde distintas perspectivas, molecular, bioquímica, celular, organísmica, familiar, poblacional o evolutiva.
Las primeras teorías sobre la herencia fueron propuestas por los filósofos griegos Hipócrates y Aristóteles en los siglos v y iv antes de Cristo, respectivamente. El segundo propuso la teoría del esencialismo que, en general, postula que todas las especies poseen una esencia que las define y las hace únicas. Las ideas de Aristóteles permearon el pensamiento de muchos naturalistas hasta bien entrado el siglo xix. Sin embargo, durante el renacimiento se realizaron algunos descubrimientos relacionados con la genética, por ejemplo, se proponen las teorías de la epigénesis y la de la preformación que estuvieron vigentes hasta el siglo xix. En la segunda mitad de ese siglo Johann G. Mendel, considerado el padre de la genética, postuló patrones matemáticos exactos para la transmisión de los caracteres hereditarios discretos. En 1900, se redescubren los trabajos de Mendel y en 1906 W. Bateson bautiza con el nombre de genética a la naciente ciencia. Este libro trata sobre los conceptos básicos de la genética, disciplina que se divide, para su estudio, en tres áreas: clásica, molecular y de poblaciones. Como el texto está elaborado siguiendo un enfoque histórico, en los primeros capítulos se tratan los temas relacionados con la genética clásica o mendeliana, necesaria para comprender la molecular y la de poblaciones, que estudia las leyes mediante las cuales la información genética se transmite de generación en generación. La molecular trata sobre la organización y expresión del material genético y sobre cómo la información heredada por un organismo dirige su desarrollo y actividades. La de poblaciones estudia el origen de la variación genética, así como las bases genéticas de la evolución biológica; el análisis y comparación de secuencias ha permitido conocer las relaciones entre especies dentro y fuera de los grupos, clases y reinos biológicos al establecer las bases de la evolución molecular. Los capítulos han sido escritos como unidades discretas, de modo que, si el profesor así lo desea, puede seguir un orden diferente en la enseñanza. Se ha incluido un grupo de referencias por cada capítulo. Al final del texto se presenta un glosario con las definiciones de las palabras empleadas en el libro. |
||||
_______________________________________________________________
como citar este artículo → Rodríguez Arnaiz, Rosario y et. al. (2005). Concepto básicos de genética. Ciencias 79, julio-septiembre, 79. [En línea]
|
||||
|
![]() |
![]() |
|||
imago | ||||
Fotofulgural |
|
|||
Ramón Aureliano Alarcón
conoce más del autor
|
||||
HTML ↓ | ←Regresar al índice ⁄ artículo siguiente→ | |||
Había abandonado a su esposa, a la que amaba sinceramente, y a sus hijos, que eran la alegría de su vida [...] ya no sabía cuántas noches y cuántos días, años quizás, había pasado en su laboratorio, siempre empeñado en descifrar el problema magno del origen de la vida; siempre en persecución de un fantasma que se le escapaba de las manos cuando creía haberlo cogido. | ||||
Conviene no confundir las tendencias de la imaginación con los laboriosos trabajos de la ciencia, pero la relación entre los planos espirituales, psíquicos y físicos de la existencia humana aún nos son desconocidos. En el breve espacio de esta habitación intelectual reúno algunas noticias provenientes de aquellos libritos que bien considerados podemos denominar Almanaques de posibilidades.
Desde la Antigüedad en distintos documentos encontramos curiosas informaciones para explicar las fuerzas invisibles que operan en la Naturaleza. En el siglo xvii el sabio A. Kircher, atraído por las ciencias naturales y sus aplicaciones mecánicas, intento escribir un texto sobre las artes adivinatorias o, mejor dicho, la magia universal. El docto jesuita prestó singular atención al magnetismo, como antes lo hiciera Giambattista della Porta en su Magia Naturalis de 1589, obra en la que designa como polos amigos aquellos que se atraen y polos enemigos a los que se rechazan. Estudiosos de la insigne obra de Kircher sostienen que sus observaciones más acabadas sobre las simpatías-antipatías magnéticas entre minerales, vegetales y animales se recogen en su Magneticum naturae, editado en Roma en 1667. El magnetismo se consideraba una evidencia física de la idea de amor divino. El amor que se transmuta en magnetismo otorgaba sentido a las diferentes formas de atracción, sea de la psique, los sentidos o del espíritu. Por ejemplo, algunos autores afirman que entre los griegos fascinar era conocido bajo la palabra baskaino, “hechizar con la mirada”; en el mundo latino se empleaba la palabra fascinatio —fascinación—, tal vez proveniente del dios Fascinus. Según Plinio, Fascinus fue reverenciado como médico de la envidia y protector de encantamientos. Los hipnólogos conocían los efectos de la fascinación magnética, explicaban cómo el alma incita a elaborar a la “célula nerviosa cerebral un fluido poderoso que sale por los ojos, con vibraciones más o menos intensas según sea el esfuerzo cerebral al producirlas, y estas vibraciones —ondas psíquicas— alcanzan grandes distancias y son percibidas por otros ojos receptores, y aun teniendo la víctima los ojos cerrados es posible que obren sus efectos, aunque con menor intensidad”.
Pero si los hechos de las fuerzas magnéticas en los reinos de la Naturaleza nos revelan cuán grande es el misterio de las energías invisibles del mundo, no eran menos sorprendentes en las postrimerías del siglo xix los conocimientos que sobre la materia se generaban. En 1895 el físico alemán Wilheim K. Roentgen descubrió los rayos x, que varios científicos consideraban de escasa aplicación quirúrgica; sin embargo, en un libro publicado tres años después, Santini exalta “el lado curioso, raro, fantasmagórico, extraordinario de la invención: el esqueleto de una mano viva, reproducido en una placa fotográfica por una radiación invisible”. Entre las páginas amarillas del libro de Santini, encontramos una curiosa imagen de las denominadas fotofulgurales. Según experimentos realizados por el doctor Mendoza del Laboratorio provincial del Hospital de San Juan de Dios de Madrid, la instalación para obtener una imagen de este tipo “se reduce a un carrete Rhumkorff animado por una batería de pilas de bicromato y cuya corriente inducida va a un tubo de Crookes dispuesto en posición vertical, de modo que los rayos sean perpendiculares al objeto que se trata de reproducir. Entre el tubo y el objeto hay un aparato en diafragmas para localizar la acción de los rayos Roentgen. El objeto, por ejemplo, la mano o un animal cuyo esqueleto se desea tener completo, va colocado sobre un chasis especial de base sólida, encerrado en cajas o cubierto por placas de distintas sustancias, una vez que se ha comprobado la acción de penetrabilidad a través de los cuerpos opacos por los rayos de Roentgen”. |
||||
Ramón Aureliano Alarcón
Instituto Mora.
|
||||
Referencias bibliográficas:
El Mundo Ilustrado. 1903. “De cómo el profesor Levisson creo un hombre de la nada”. Año X, tomo II, núm.17, México.
Santini, E. N. 1898. La fotografía a través de los cuerpos opacos: por los rayos eléctricos, catódicos y de Roentgen. Bailly-Bailliere e Hijos, Madrid.
_______________________________________________________________
como citar este artículo → Aureliano Alarcón, Ramón. (2005). Fotofulgural. Ciencias 79, julio-septiembre, 52-53. [En línea]
|
||||
|
![]() |
![]() |
|
La bioética y el proyecto genoma humano |
|
|
Nancy G. Miravete Novelo y Laura Suárez y López Guazo
conoce más del autor
|
||
HTML↓ | ||
Tu meta no es prever el futuro, sino hacerlo posible. Antoine de Saint Exupéry |
||
Los acelerados y vertiginosos cambios en diversos campos de la ciencia y la tecnología son uno de los aspectos que marcan el ritmo de nuestros tiempos. Muchos de ellos se gestan en programas de investigación cuyas implicaciones repercuten en diversos ámbitos del sistema social. Un claro ejemplo lo constituye el Proyecto Genoma Humano, uno de los programas más grandes y ambiciosos, con el que se instaura el reinado de la biología molecular y la genética. Para remarcar su importancia, el biólogo William Gilbert declaró que “la búsqueda del grial biológico continuó durante el paso del siglo XIX al XX, pero ha entrado en su fase culminante con la reciente creación del Proyecto Genoma Humano, cuyo objetivo último es el conocimiento de todos los detalles de nuestro genoma”.
En las dos últimas décadas, se han logrado avances muy significativos en la comprensión de la estructura y función del genoma humano. Muchos consideran esto una verdadera revolución científica de proporciones incalculables, porque su conocimiento permitiría penetrar el código de la vida para intervenir en él, desde una supuesta postura racional. Esta cultura, eminentemente pragmática, que fusiona la ciencia y la tecnología, se le ha denominado tecnociencia. La impresionante tecnología desarrollada en torno al estudio del genoma humano posibilita no sólo su descripción y conocimiento, sino la capacidad de manipularlo. Ésta es conocida, en términos generales, como ingeniería genética, que es el estudio de todo lo que pueda lograrse operando técnicamente tanto organismos como productos que de ellos se derivan; lo cual necesariamente impacta en el orden de la naturaleza. Bajo estas circunstancias, es totalmente comprensible que se abran espacios a los problemas de corte ético. En 1953, J. Watson y F. Crick publicaron en la revista Nature un artículo en el que describían el descubrimiento que inauguró este nuevo impulso de las ciencias y que tiene su centro en la genética y la biología molecular. Lo explicaban de forma bastante sencilla: “deseamos proponer una estructura para la molécula de ácido desoxirribonucleico (adn), ésta tiene características nuevas de considerable interés biológico”. Antes de que este modelo festejara sus cincuenta años, en 2003, el Proyecto Genoma Humano entró en la etapa de delimitar el número de genes que componen nuestro genoma, así como la descripción de una gran cantidad de secuencias en estos; por eso resulta más significativo el corolario del texto de Watson y Crick, “no se nos ha escapado que el emparejamiento de las bases que hemos postulado sugiere inmediatamente un posible mecanismo de copia del material genético”. Por genoma entendemos todo el material genético que está contenido en los cromosomas de un organismo o, en términos más generales, puede decirse que es el patrimonio genético de cada individuo. Desde hace mucho se presuponía que el conocimiento de este patrimonio aportaría una gran cantidad de información y promovería el desarrollo de métodos para curar, corregir o atenuar los efectos de alguna enfermedad, o tratar varias de las malformaciones que afectan al ser humano. En la década de los noventas, las investigaciones en genética impulsaron los primeros intentos en terapia genética, investigación cromosómica en busca de los genes del cáncer, selección genética del primer embrión humano, etcétera. Sin embargo, fue en los albores de esa década cuando realmente se entronizaron la genética y la biología molecular con el Proyecto Genoma Humano, que tendría uno de los más grandes presupuestos asignado a la ciencia —3 000 millones de dólares. A la cabeza del proyecto, invitado por los Institutos Nacionales de Salud de los Estados Unidos, estaba el investigador de la Universidad de Michigan Francis Collins, quien se había anotado éxitos tales como la identificación del gen de la fibrosis quística, el del cáncer de la neurofibromatosis y otros más. También fue propuesto para este programa J. Craig Venter, quien trabajando en los mismos institutos, había descubierto un innovador método para obtener una gran cantidad de datos de secuencias del adn de muchos genes, con el que identificó genes en tejidos humanos. La asociación de estos dos grandes científicos tenía como objetivo obtener la secuencia completa del genoma humano en el año 2005. Nada hacía suponer que varios años después, Venter se separaría de la investigación pública, aceptando la presidencia de una institución privada declarada como no lucrativa para llevar a cabo investigaciones en la misma línea. Esta decisión y el perfeccionamiento de su método para desentrañar la secuenciación completa del genoma humano fueron suficientes para atemorizar a los ciudadanos del mundo, principalmente en los países donde se realizaba este programa, alarmados por el hecho de que una empresa privada tuviera la primicia de este conocimiento; la simple idea de que el proyecto pasara de público a privado despertó una enorme inquietud en la comunidad internacional, se temía que Venter se apropiara de lo que es considerado como un derecho inalienable del ser humano, su ser genético. Aunque parte de esta preocupación se atenuó cuando en Inglaterra, la Fundación Wellcome incrementó significativamente los fondos al Sanger Centre destinados a la secuenciación del genoma humano, esa situación confusa, ambigua y desconcertante fue la piedra de toque que sensibilizó a los ciudadanos en lo que atañía a la investigación misma y a las repercusiones de los resultados del Proyecto Genoma Humano. Por su parte, Venter y otros investigadores de su equipo, para apaciguar las distintas manifestaciones de la comunidad, expresaron su deseo de “poder establecer una asociación mutuamente satisfactoria entre las instituciones públicas y privadas, ya que unas y otras desempeñan un importante papel en la aplicación de las maravillas de la biología molecular en beneficio de todos”. El proyecto no ha logrado deslindarse de estas inquietudes, a pesar de que prácticamente desde que fue concebido, conforme a los reclamos públicos, estableció la importancia de acompañarlo de un Comité de bioética, para monitorear los progresos científicos realizados en este campo. En particular, los Estados Unidos dedicaron 5% del presupuesto asignado al proyecto para apoyar la labor de los comités de ética, y la Comunidad Europea junto con Canadá decidieron dedicar 8%. Entre otras cosas, con estos recursos se elaboró “la declaración universal de la unesco”, específicamente sobre la bioética, y la Convención europea sobre los derechos humanos y la biomedicina en 1997. Las propuestas emanadas de estos eventos fueron adoptadas por las Naciones Unidas en 1998, estableciendo, entre otros acuerdos, que “las consecuencias éticas y sociales de las investigaciones en el ser humano imponen a los investigadores responsabilidades de rigor, prudencia, probidad intelectual e integridad, tanto en la realización de sus trabajos como en la presentación y utilización de sus resultados”. En este marco, la posición de algunas disciplinas científicas al final del siglo xx fue severamente cuestionada, porque no podían dar cuenta de sí mismas; esto era bastante preocupante en campos como la biología molecular y la genética, donde las aplicaciones de sus descubrimientos e invenciones pueden transformar técnicamente el mundo, el cual finalmente sería en gran medida su resultado. Así, puede afirmarse que no son las ciencias las que se encuentran en crisis, sino la propia vida moderna. Crisis que ha permeado la conciencia colectiva, posibilitando evidenciarla y cristalizar los principales reclamos en la parcela de los problemas éticos. La bioética, ¿redención o solución? La bioética se origina a partir de los impresionantes avances científicos y tecnológicos de mediados del siglo xx, caracterizados por sus fuertes connotaciones en los ámbitos ético, social y jurídico. Entre ellos se cuentan los transplantes de órganos —relacionados con la ética en referencia al cuerpo y su integridad—, los diagnósticos prenatal y de la muerte cerebral, la relación médico-paciente y otras más. Desde esta óptica, la gran cantidad de dudas, ambigüedades y desafíos que el desarrollo de las ciencias y tecnologías relacionadas con la vida constantemente plantean, inducen a cuestionar el significado de la vida humana para las ciencias, involucrándolas en ámbitos en los que tradicionalmente trataban de mantenerse apartadas. La gestación de un enorme poder de manipulación sobre la vida humana y sobre la naturaleza, adquirido con base en un conjunto de conocimientos tan controvertidos, motivó la duda de que si bastaba que algo fuera técnicamente posible para que también sea éticamente aceptable. A partir de este cuestionamiento la bioética fue perfilándose como el espacio académico cuyo primer objetivo era sustentar la responsabilidad de los científicos, en un sentido bastante amplio, frente a los descubrimientos e invenciones de la ciencia y la tecnología, especialmente tratándose de aspectos directa o indirectamente relacionados con la vida humana. La paternidad de esta nueva disciplina le corresponde a Van Ransselaer Potter, desde la construcción del neologismo elaborado del latín bios (vida) y ethos (valores), hasta el propósito de contribuir al futuro de la especie humana. En dos artículos y un libro, Potter expone su idea de la bioética. En el primer artículo, “Bioethics, the science of survival” de 1970, acuño el término que apareció por primera vez un año más tarde; en el segundo “Bioethics” y en su libro Bioethics, Bridge to the Future, describe los objetivos planteados para esta disciplina en términos de una fructífera simbiosis de dos culturas, cuya comunicación no es sencilla, la de las ciencias naturales y la de las humanidades. En 1975, en su discurso “Humility with responsability”, Potter hace hincapié en el fin que debe perseguir la bioética, analizar y utilizar los conocimientos surgidos de las ciencias y las tecnologías, para garantizar la supervivencia de la humanidad y mejorar sus condiciones de vida. Aunque es justo el reconocimiento para Potter, André Hellegers del Kennedy Institute es quien le proporciona a la bioética una definición más precisa al caracterizarla como un diálogo entre distintas disciplinas para configurar un futuro plenamente humano, y los interlocutores ideales de este diálogo son, según él, los humanistas y los moralistas. E. D. Pellegrino amplía el encuentro entre la ciencia y la ética y concretiza la interrelación de docencia y bioética. A su vez, D. Callahan plantea que la bioética “consiste en ayudar a los profesionales y al público en general en la comprensión de los problemas éticos y sociales derivados del progreso de las ciencias de la vida”. Sin embargo, prácticamente todas las propuestas para establecer los principios estructurales de la bioética han enfrentado diversas críticas. A pesar de ello, durante las últimas dos décadas los estudiosos en este campo han adoptado la propuesta de Childress y Beauchamp, empleada a menudo en los debates y polémicas sobre bioética, basada en conceptos muy específicos como autonomía, beneficencia, no maleficencia y justicia, como marco mínimo orientado a la resolución de conflictos y problemas que atañen a la ética. Gran parte de los actuales avances científicos y tecnológicos vienen acompañados de una fuerte dosis de aportaciones cuyas aplicaciones tienen un impacto positivo en el bienestar y la salud humana, pero también presentan riesgos e implicaciones sociales, políticas, económicas y morales que no deben soslayarse; desde luego, habría que evitar que la controversia se establezca entre un supuesto mal uso del conocimiento y la posible cura o recuperación de enfermedades genéticas. Por ejemplo, una clara y visible conexión entre el Proyecto Genoma Humano y la bioética surge de la posibilidad de patentar genes y organismos, mostrando la influencia del aspecto comercial sobre el quehacer científico. Este problema ya se había presentado, recordemos los casos de organismos transgénicos como el microrganismo capaz de digerir petróleo en 1980 o el ratón diseñado expresamente para el estudio del cáncer en 1988. En la misma década, se patentaron genes relacionados con algún problema o enfermedad genética, principalmente relativos a su diagnóstico, como los genes asociados a la neurofibromatosis tipo I y los implicados en la fibrosis quística. En torno a la cuestión de patentar los genes, se presentan las discusiones más fuertes respecto al Proyecto Genoma Humano. Al grado que desde su inicio los científicos sugirieron algunas directrices sobre la propiedad intelectual del genoma humano; el mismo Venter planteó la necesidad de publicar la secuencia completa del genoma con el fin de evitar que una empresa privada se atribuyera su propiedad. Para fundamentar la propuesta, partía de la convención de que una patente se otorga si cumplía los siguientes requisitos: que el producto sea nuevo —o novedoso—, inventivo —que no resulte obvio ni para el especialista en el tema—, y útil —que se relacione con alguna utilidad industrial—; Venter y otros de sus colegas, sostenían que al ser publicado no se cumpliría el requisito de novedoso. Otro lado del debate discurre sobre los conceptos de invento o descubrimiento; concretamente los genes del genoma humano se encuentran allí desde hace una gran cantidad de tiempo y se transmiten de generación en generación. Sin embargo, la ambigüedad con que en ocasiones se maneja el concepto de gen resulta en diferentes interpretaciones para patentarlos. Bajo este espectro puede considerarse la pregunta de si un gen se descubre o se inventa; en países como los Estados Unidos no se establece una clara distinción, lo que permite una gran flexibilidad al proceso de patentar. El punto de la diferencia es difícil de establecer, ya que la secuenciación de genes se ha vuelto algo rutinario; no obstante, hay que considerar que para la búsqueda de una determinada secuencia o gen, el científico debe saber lo que busca o lo que espera encontrar. En primera instancia, la utilidad estaría referida a los genes cuya aplicación industrial no tiene discusión, como los que producen insulina u otra proteína terapéutica o, en el caso de la biotecnología vegetal, los que mejoran la producción agrícola; un segundo caso serían los que están relacionados con procesos biológicos, como los neurotransmisores; finalmente encontramos los que constituyen una herramienta indispensable para realizar el diagnóstico de determinada enfermedad. Aquí hay que considerar el papel que juega la mutación en la posibilidad de ser patentado; por ejemplo, cuando la mutación de un gen es la causante de la enfermedad y permite detectarla. Sobre la base de las dificultades que implica definir cada paso o aspecto en el estudio del genoma humano, muchos grupos e instituciones rechazan las patentes de genes; sin estar de acuerdo con este criterio, no puede soslayarse que la patente sobre pruebas diagnósticas otorgadas a un laboratorio encarece el producto de tal manera que resulta inaccesible para muchos individuos que lo requieren, como la prueba para detectar el Alzheimer. Por otra parte, cabe recordar que a pesar de la recomendación de la unesco en 1997, donde propone que el genoma humano en su estado natural no debe ser comercializado, las prácticas para patentarlo la contradicen y ahora en el estrado se debate sobre el significado del estado natural de un gen. Por su parte, la Organización Internacional del Genoma Humano, fundada en 1988, propuso repartir los beneficios obtenidos para invertir en investigación o bien en la infraestructura que ésta requiere. Sin embargo, el snp Consortium creó un banco de genes, el First Genetic Trust de Chicago, cuya información almacenada —proveniente de universidades, institutos de investigación, etcétera—, sólo puede ser consultada con un permiso. Aunado a esto, la comercialización de la información obtenida del genoma humano resulta evidente si consideramos la proliferación de empresas de seguros relacionadas con los genes y la salud. En respuesta se ha creado una comisión para regular las relaciones entre la genética y las compañías aseguradoras, como la Genetics and Insurance Committee en Gran Bretaña. La patente depositada en los Estados Unidos de un gen humano —que pertenece a un individuo radicado en Nueva Guinea— avivó la discusión y conduce a reconsiderar las implicaciones y riesgos que conlleva trabajar con muestras de material vivo. Al parecer, el problema de patentar genes, secuencias, métodos y otros elementos genéticos se vuelve un proceso irreversible ante la lentitud y la problemática alrededor de la legislación correspondiente. Por ejemplo, con la tecnología de adn recombinante, la ingeniería genética se perfila como el rey Midas del presente siglo, ya que con la ayuda de instituciones y empresas dedicadas al estudio y comercialización del genoma humano se pretende convertir al material genético en oro. Por último, los rezagos y dificultades en la legislación no significa olvidar que, tratándose del genoma humano, debe constituir un principio inalienable el que ningún individuo puede ser el medio o la herramienta de nadie más, así como que tampoco se le puede privar de sus derechos fundamentales. Es necesaria una redefinición del concepto de vida humana emanado de la bioética, con la participación de personas morales, instituciones y comités de bioética, para dejar claramente asentado que el ser humano es el fin en sí mismo y no el medio para otros fines que vayan en detrimento de su autonomía. |
||
Nancy G. Miravete Novelo
Laura Suárez y López Guazo
Colegio de Ciencias y Humanidades,
Plantel Sur,
Universidad Nacional Autónoma de México.
|
||
Referencias bibliográficas:
Aldridge, Susan. 1999. El Hilo de la vida, Cambridge University Press, Madrid.
Beauchamp, T. L. y J. F. Childress. 1998. Principios de ética biomédica. Ed. Masson, Barcelona.
Cely Galindo, Gilberto (ed.). 2002, Dilemas bioéticos de la genética. Colección Bioética, 3R Editores, Bogotá.
Davies, Kevles. 2001. La conquista del genoma humano. Paidós, Barcelona.
Gómez-Heras J. Ma. (coord.). 2002. Dignidad de la vida y manipulación genética. Biblioteca Nueva, S. L., Madrid.
Kevles, D. y L. Hood. 1992. The Code of Codes. Harvard University Press, Londres.
Lewontin, Richard. 2001. El sueño del genoma humano y otras ilusiones. Paidós Transiciones, Barcelona.
Moya, Eugenio. 1998. Crítica de la razón tecnocientífica. Biblioteca Nueva, S. L., Madrid.
Potter, V. R. 1970. “Bioethics, the science of survival”, en Perspectives in Biology and Medicine, núm. 14, pp. 127-153.
Potter, V. R. 1971. “Bioethics”, en BioScience, núm. 21, pp. 1 088-1 092.
Potter, V. R. 1971. Bioethics, Bridge to the Future. Prentice Hall editores, Englehood Cliffs.
Purroy, Jesús. 2001. La era del genoma. Salvat, Barcelona.
Wan-Mae, H. 2001. Ingeniería genética, ¿sueño o pesadilla? Editorial Gedisa, Barcelona.
Watson, J. D. 2002. Pasión por el adn, genes, genomas y sociedad. Editorial Crítica, S. A., Barcelona.
Wilkie, Tom. 1994. El conocimiento peligroso. El Proyecto Genoma Humano y sus implicaciones. Debate, Madrid.
Venter, J. C., M. D. Adams, G. G. Sutton, A. R. Kerlavage, H. O. Smith y M. Huntkapiller. 1998. “Shotgun Sequencing of the Human Genome”, en Science, núm. 280, pp. 1 540-1 542.
_______________________________________________________________
como citar este artículo → Miravete Novelo, Nancy G. y Suárez y López Guazo, Laura. (2005). La bioética y el proyecto genoma humano. Ciencias 79, julio-septiembre, 66-73. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ | ||
![]() |
![]() |
|
La especificidad inmunológica, historia, escenarios, metáforas y fantasmas |
|
|
Tania Romo González, Enrique Vargas Madrazo y Carlos Larralde
conoce más del autor
|
||
HTML↓ | ||
El espíritu humano no refleja el mundo
sino que lo traduce a través del lenguaje.
|
|
|
El avance de la ciencia ha contribuido a mostrar que las cosas y la capacidad de percibirlas, de expresarlas lingüísticamente y de reaccionar emocionalmente ante ellas cambian con el tiempo. Esto debilita los supuestos de universalidad e inmutabilidad de la verdad científica, al socavar la creencia de que existe un mundo independiente de la percepción que puede conocerse mediante el método científico, como lo postula la dualidad cartesiana sujeto-objeto. Esta última promovió la utilización irreflexiva de metáforas en la ciencia, las cuales no son igualmente válidas para lo actualmente percibido. Esto provocó errores en la concepción de los vocablos y conceptos al dar la impresión de que son asuntos resueltos. Con ello se desestima que el conocimiento no es producto de una observación o percepción dual sujeto-objeto, sino que depende fuertemente de la constante relación entre el ser y su conocer. La confusión entre objeto-proceso y lenguaje, así como la accidentada reconstrucción de conceptos, podría conducir a teorías anquilosadas, anquilosantes e inapropiadas en el tiempo, dogmas que atrapan o inmovilizan la dualidad sujeto-objeto.
En diversas ramas de las ciencias hay numerosos ejemplos de estos problemas epistemológicos. Tal es el caso de la especificidad, propiedad adscrita a la materia, de enorme importancia para diversas ciencias. En muchas disciplinas biológicas se usa con gran soltura, asumiéndose como establecida y de causa plenamente conocida. En inmunología se utilizan varias metáforas sobre su funcionalidad, particularmente en la teoría referente a la interacción de actores. En los escenarios de la inmunología y de otros fenómenos biológicos, numerosas corrientes de pensamiento o paradigmas han incidido en el establecimiento de la especificidad, pero las dificultades para definirla provienen de que se trata de un problema epistemológico, y no solamente de uno observacional. Un gran número de fenómenos biológicos suceden tras la reacción de asociación de dos moléculas: un receptor y un ligando. Las propiedades de esa reacción suelen estudiarse en el contexto de la ley de acción de masas, “a temperatura y presión constante la velocidad de una reacción es proporcional al producto de las concentraciones de los reactivos”. Algunos ejemplos de estas reacciones son enzima-sustrato, antígeno-anticuerpo, hormona-receptor, neurotransmisor-receptor y hemoglobina-oxígeno. Todas demandan cierta especificidad entre los reactantes involucrados; es decir, que la reacción ocurra entre un tipo y número limitado de los distintos reactantes posibles presentes en el entorno. La especificidad de la reacción limita la operatividad y la conectividad de cada molécula ante un conjunto de opciones enormemente diverso. Por tanto, es la clave de la fisiología ordenada, la vida saludable y su reproducción, lo cual parece implicar que sus violaciones conducen a la enfermedad y la extinción. Algunos ligandos pueden tener un amplio rango de especificidades; por ejemplo, ser a la vez sustrato, antígeno, hormona y neurotransmisor. Pero su identidad funcional depende de con quién se asocia —enzimas, anticuerpos, receptores de membrana, etcétera. No así los receptores, cuya funcionalidad es más estrecha; por lo general, los anticuerpos no son enzimas, ni operadores de redes neuronales. Entonces, la especificidad no depende sólo de alguna de las moléculas reactantes, sino también de la conectividad de éstas con el entorno. Los orígenes del término En biología, la especificidad surge de un esfuerzo por ordenar los seres vivos en grupos —especies— que comparten un alto número de características fenotípicas —ahora genotípicas—, las cuales los distingue del resto. La posición biofilosófica respecto al grado de distinción entre los grupos o conjuntos de organismos conduce a dos grandes paradigmas o paisajes mentales: el discreto, donde se define a especies aisladas rígidamente entre sí; y el continuo, que define un solo conglomerado de individuos con núcleos de similitud o diversidad de límites evanescentes, designado con el término de biomasa. Según lo anterior, la especificidad se refiere a atributos que son directamente dependientes de lo material que reside en el objeto y describe la exclusividad de un grupo limitado de individuos. Mientras que en el primer paisaje mental, la especificidad es más bien una propiedad de las cosas y lo específico un adjetivo que se aplica a una cosa o conjunto de cosas y denota su grado de exclusividad. De acuerdo con esto, en el paisaje continuo no cabe la especificidad. Desde que Linneo propuso su primera clasificación de las plantas, los términos especie y especificidad han sido objeto de enorme debate. Lamarck cuestiona a Linneo, afirmando que la división de la biomasa en clases, órdenes, familias y géneros son artefactos o dispositivos introducidos por los humanos por la conveniencia de simplificar para entender. La biomasa, según el lamarckismo o neolamarckismo, es realmente un continuo donde las barreras intraorganísmicas carecen de rigidez y el ambiente desempeña un papel central en la evolución de los organismos. Sin embargo, a pesar de la fascinante intuición de Lamarck, fueron el darwinismo y el neodarwinismo, con su selección natural de las especies, los que históricamente llegaron a dominar la teoría de la evolución. Esto tuvo un gran impacto en el establecimiento y arraigo de los términos especie y especificidad, ya que no sólo se aplican libremente en disciplinas particulares, sino también en distintos niveles de organización al construir lógicas de interrelaciones sobre la base de estos conceptos. Por ejemplo, la afirmación de que las especies difieren en grados de organización y están en constante competencia y conflicto provocó la ubicación de los microrganismos en una categoría inferior y potencialmente dañina. Esta postura fue adoptada en los trabajos de Koch, en la asociación específica de los microrganismos con la enfermedad, y posteriormente por la inmunología, donde el sistema inmune es visto como un instrumento de defensa de los vertebrados contra seres inferiores. Paisaje muy distinto del pensamiento de Lynn Margulis y su teoría simbiótica, en la cual no existen organismos superiores e inferiores, pues todos los seres vivos son igualmente evolucionados, y donde los límites artificiales para definir especie son fuertemente cuestionados. La generación del conocimiento no es lineal como se piensa, los vicios, virtudes y creencias culturales de antaño con frecuencia son arrastrados e integrados bajo la innovación que homogeniza. Las distinciones rígidas de los microrganismos en especies se colaron a la medicina sugiriendo una relación específica y unívoca entre los agentes causales y las distintas enfermedades. Para la infectología esto significa que los microrganismos pasan a la categoría de enemigos y se justifica su destrucción por poderosos y letales principios antibióticos. Sólo con los más recientes avances de la genética molecular a través de la secuenciación de genomas, el darwinismo ha perdido fuerza y las ideas de Lamarck empiezan a revalorarse, aunque aún son vistas con sospecha por la ciencia normal. Por ejemplo, algunos hallazgos recientes establecen parentescos antes insospechados entre bacterias y virus, fortaleciendo el planteamiento de teorías como la de Gaia —término acuñado por James Lovelock. Gaia corresponde a la totalidad de los organismos vivos, de su medio atmosférico y del terreno de nuestro planeta, el cual presenta numerosos atributos de macrorganismo complejo interdependiente. Esta compleja integración global es el resultado de la interacción simbiótica y coevolutiva de los escenarios de adaptación de las formas vivas que lo integran. En este esquema coevolutivo de Gaia los movimientos de un organismo deforman los escenarios de adaptación de otros. El ambiente desempeña el papel de agente perturbante, pero al mismo tiempo es perturbado. Los cambios estructurales en los organismos individuales no están determinados ni instruidos exclusivamente por el medio, sino que se trata de una compleja red interactiva en donde la historia evolutiva —o deriva natural— es producto de mutuos cambios estructurales entre el ser vivo y el medio, desencadenados por agentes perturbantes y determinados por la estructura de lo perturbado. Esta visión está muy alejada del paisaje mental construido por el neo-darwinismo, en el que el material genético —adn y arn— es el único capaz de controlar, codificar y heredar la información esencial del organismo vivo, y el ambiente sólo opera como conformador de los límites y detalles del organismo. La visión compleja de la vida propone que la información reside en la dinámica —epigénesis— del metabolismo y funcionamiento de la célula, del organismo en su totalidad y, más aún, en sus relaciones con su medio y, en general, con el entorno planetario. En este planeta simbiótico, las bacterias y virus —y todo ser viviente— son protagonistas de la vida y de la evolución y no sólo agentes causales de enfermedad o máquinas biológicas de producción de alimentos y fármacos para los humanos. En inmunología, la inclinación hacia la validación conduce a la construcción del concepto de especificidad como la capacidad de discernimiento inmunológico entre distintos antígenos. Esta propiedad le confiere a los vertebrados la capacidad de distinguir entre lo propio y lo ajeno, lo peligroso y lo inocuo, o entre individuos y especies. En el otro límite, la teoría de Gaia y otras teorías particulares, como la de la red inmune, cuestionan la interpretación de la especificidad inmunológica entendida como un armamento exclusivamente de defensa contra invasores peligrosos. Desde la visión sistémica se vislumbra al sistema inmune como un agente interlocutor no necesariamente belicoso entre las partes que constituyen un organismo, y entre organismos y ambiente. Así, se construye una visión muy distinta de la fisiología inmunológica, que coordina los intereses individuales con los globales de los seres vivos. Visión alternativa a la representada por las metáforas militares entre naciones hostiles, en la que los invasores de un organismo son vistos como una amenaza a la vida o a la identidad y son atacados por armamentos moleculares o celulares. Lo anterior muestra que el conocimiento está atado espacio-temporalmente a un contexto histórico, que la aceptación y dominio de los conceptos de especie y especificidad en biología se estableció también en inmunología. Ello hizo posible adoptar las metáforas sociales propio-ajeno y peligroso-inocuo como la función inmunológica, instrumentada por familias de moléculas —antígenos-anticuerpos, antígenos-mhc, receptores de células T— cuya interacción conduce a procesos biológicos subsecuentes de aceptación-extrañamiento o salud-enfermedad. Bajo este esquema, los isoantígenos representan las cédulas de identidad única y los aloantígenos el pasaporte de los ciudadanos de un país, mientras que los anticuerpos corresponden a los padrones de registro individual o ciudadano. Un ovillo de metáforas seductoramente congruentes con sus orígenes darwinianos de especiación y al mismo tiempo suspicazmente antropomórficas. El arquetipo molecular La especificidad inmunológica aparece en varios niveles de organización biológica —molecular, celular, individual y poblacional—, pero la tradición reduccionista asume que en el nivel molecular radican todas las otras que se manifiestan en los otros escenarios —la especificidad de las vacunas, de las metodologías de diagnóstico, de la comunicación celular, etcétera. A partir de la especificidad de la interacción de las moléculas del antígeno y el anticuerpo se han construido las teorías imperantes que explican el origen y naturaleza de la diversidad y funcionamiento del sistema inmune. Por las facilidades técnicas que ofrece, las propiedades conocidas de la reacción antígeno-anticuerpo se han convertido en el arquetipo de las reacciones entre receptores y ligandos en otros escenarios fisiológicos. La visión de Koch, que implicaba una relación uno a uno o específica entre el microrganismo y la enfermedad infecciosa, fue traspasada al contexto de los anticuerpos y los antígenos. En ese marco, Ehrlich propone su famosa metáfora de la llave-cerradura, la que aparea un tipo de anticuerpo para cada tipo de antígeno. Gruber polemiza contra la visión de la especificidad de Koch y de Ehrlich; su postura fue heredada por Landsteiner, su estudiante, quien propone una visión más simple en la que los diversos anticuerpos no son predestinadamente específicos, sino que todos —o al menos muchos— reaccionan con distinta afinidad a diversos antígenos, siguiendo reglas dictadas por la composición de su estructura química. No obstante, sus paisajes mentales no son discretos y excluyentes de forma absoluta, por lo que paralelamente a sus discrepancias, estos y otros autores compartían una visión exclusivamente química y aislacionista de la interacción antígeno-anticuerpo. Después, Pauling propondría que los anticuerpos se acomodan con el antígeno que confrontan, el cual le sirve además de molde o instructor para su configuración espacial. Las contribuciones realizadas por Landsteiner y Pauling para el entendimiento de las bases bioquímicas de la especificidad resultaron trascendentales, pero al mismo tiempo profundamente controvertibles. Por una parte, complejizó el requisito químico de la especificidad al agregarle requerimientos geométricos de complementariedad en las moléculas reactantes, lo cual permite una cercanía entre grupos químicos para que la interacción sea energéticamente significativa. Por otra parte, la propuesta de Landsteiner y Pauling empujaba hacia una visión flexible y maleable de los requerimientos de unión con el antígeno, perspectiva aceptada sólo durante unos años, para luego ser violentamente rechazada y ridiculizada. El rechazo se basó en que aparentemente violaba el principio fundamental del plegamiento de las proteínas e implicaba que con un solo gen de inmunoglobulina se podía resolver todo el problema de la diversidad de especificidades del sistema inmune. Numerosas evidencias que contradecían estas afirmaciones aparecieron en los años sesentas y setentas. En nuestra opinión, la tragedia que implicó el rechazo de la hipótesis instruccionista es que arrastró en su descrédito no sólo la visión de que era el antígeno el que guiaba el anticuerpo en la construcción de su especificidad, sino también una visión flexible y contextual del fenómeno de la especificidad. La metáfora de la llave y la cerradura En el nivel molecular, la especificidad es un concepto sumamente contradictorio. Por una parte genera un ánimo de seguridad en las personas que lo usan porque parece estar sólidamente fundamentado en evidencia estructural bioquímica, la cual postula un modelo llave-cerradura rígido. Por otro lado, es un concepto vago, sin definición, que se explica a través de metáforas. Fred Karush, uno de los pocos inmunólogos interesados en la historia de su disciplina, afirma que las metáforas “son vehículos para la formulación de los conceptos más básicos […] se asocian con experiencias humanas de naturaleza biológica y cultural en otro contexto o escenario […] nombran o caracterizan un fenómeno o idea nueva por medio de referencias a conceptos con los que ya se está familiarizado, provocando la sensación de entenderla con explicaciones de otra”. Actualmente, la metáfora de la llave-cerradura impera en la especificidad inmunológica a nivel molecular, porque en el paisaje mental de la inmunoquímica, la visión en los últimos cien años siempre se refiere a una complementariedad molecular química y geométrica entre antígeno y anticuerpo. La disputa básica respecto de si la llave-cerradura es rígida o ajustable no cuestiona las entrañas de la visión aislacionista-mecanicista que deposita toda la información relevante para la especificidad en la estructura de las moléculas interactuantes. Por otra parte, en relación con el origen de los anticuerpos —las cerraduras— históricamente han existido dos versiones predominantes: la cerradura es prehecha, según Ehrlich, o es hecha al instante, según propuso Pauling en el modelo instruccionista. El primero propone que las estructuras moleculares complementarias del antígeno y del anticuerpo existen sin necesidad de la presencia del otro en su elaboración, su única restricción es que las moléculas interactuantes tengan un choque eficiente. Landsteiner agrega a esta visión el que la reacción específica depende de la composición química de las regiones moleculares interactuantes. En contraste, los instruccionistas imaginan que el antígeno dirige la formación y plegamiento del anticuerpo, como si fuera un molde, durante la confrontación antígeno-anticuerpo en cierto espacio-tiempo. En sus últimos años, Landsteiner se suma a la visión intruccionista. Para ambas versiones, la estabilidad de la unión antígeno-anticuerpo se mantiene por la suma de fuerzas relativamente débiles, donde los puentes de hidrógeno, las fuerzas electrostáticas y la interacción hidrofóbica son predominantes. Actualmente, la versión de complementariedad química de Landsteiner, integrada y enriquecida con la hipótesis geométrica —la analogía de la llave-cerradura prehecha de Ehrlich—, constituye la visión con la que mejor se explica la especificidad. La introducción de la química a la biología favoreció a Landsteiner; luego, la de la difracción de rayos X y la resultante visualización de las estructuras cristalográficas fuera de su contexto natural, apoyaron fuertemente la visión aislacionista de la metáfora llave-cerradura de Ehrlich. La asociación de la diversidad funcional de los anticuerpos con la diversidad genética de las inmunoglobulinas terminaría por fortalecer la teoría determinista de Ehrlich y desechar la instruccionista. Quizás una mezcla de características químicas y espaciales en los reactantes en interacción flexible con el entorno ofrezcan acercamientos más amplios a la fenomenología inmunológica. Tan ecuánime propuesta aún no es bienvenida en los fragores de las disputas sobre la especificidad inmunológica, y menos aún si implica amplios márgenes de plasticidad y codeterminación en la molécula del anticuerpo durante la reacción con el antígeno. Es evidente que las concepciones de científicos de épocas anteriores, que generaron las bases de la inmunología, son ajustadas para embonar según los paisajes mentales de épocas modernas. En ocasiones estas transfusiones de metáforas entre épocas ocurren sin conciencia de ello, lo que puede generar una transformación interpretativa que asume hechos que tal vez no existieron en absoluto, fantasmas. La metáfora llave-cerradura tiene tal encanto intuitivo que se investiga poco sobre ella, manteniéndose casi incólume tras ser propuesta al final del siglo xix y principios del xx. Aparece y discurre en multitud de textos como cosa sabida, confiable, fundamento incuestionable en los debates, no obstante las dificultades en su definición formal, en su medición y en la gran cantidad de evidencias que a lo largo del siglo xx existieron acerca de su implícita plasticidad ante lo circunstante. La metáfora llave-cerradura transita por nuestras mentes libre de sospechas, despreocupada de sus carencias y tortuosidades metafóricas y de los tropezones al paso, tales como la intrigante analogía de la llave-maestra del conserje —anticuerpo multiespecífico— o la de las ganzúas de los pillos —un antígeno acomodaticio para cualquier anticuerpo. Además, se generaliza a otros escenarios y a otros niveles de organización biológica en cuyo acontecer se supone subyace alguna llave y alguna cerradura, como en ciertos fármacos, hormonas, endorfinas, neurotransmisores, etcétera, cuyos efectos se explican postulando la existencia de receptores no siempre buscados y demostrados, y rara vez formalmente estudiados en cuanto a su especificidad. Su universalidad es indiscutible, se le encuentra sin mayor dificultad en todos lados, desde los rompecabezas de los niños, los tornillos y las tuercas, los enchufes electrónicos y muchos otros artefactos de nuestra industria, hasta en la estructura de los ácidos nucleicos y su consecuente genética. Quizás es la materialización de una fisiología del conocer, del entender y del pensar históricamente determinados, e implica una visión anquilosada sobre la naturaleza de la naturaleza, donde siempre imperan imágenes pareadas, disyuntivas y antitéticas: a toda acción, una reacción; a cada cosa una anticosa; a una cavidad, una protuberancia. En la era de la biología molecular, la hipótesis química de la especificidad cedió terreno ante la geométrica, después ambas se unieron triunfantes bajo la égida de la metáfora llave-cerradura. Probablemente las dos visiones puedan fertilizar y nutrir la aparición de nuevos paisajes mentales en áreas de indagación remotas o cercanas a la reacción antígeno-anticuerpo. Por ejemplo, podría proponerse que la estructura del agua en que se encuentran solubilizados los antígenos y los anticuerpos fuese la protagonista primordial de la especificidad de su unión, y no sólo la naturaleza química o geométrica de los reactantes. Los principales codeterminantes de la estructura del agua serían las moléculas mayoritarias —fuerza iónica, albúmina, lipoproteínas, etcétera—, las que inclinarían al antígeno a reaccionar con el anticuerpo y no tanto sus estructuras moleculares. El peligro de aceptar la metáfora llave-cerradura sin más estriba en que desalienta la consideración de otras posibilidades e inhibe la exploración más profunda en la codeterminación compleja, así como en las consecuencias de una visión sistémica e integrativa de este proceso. El panorama rígido que dio origen a la clasificación de las especies —nivel macro— y, por tanto, a la rigidez en el concepto de especificidad inmunológica —nivel micro—, comienza a desmoronarse con la pérdida de sus fronteras. Pues ¿qué sería lo propio y lo extraño en un continuo de individuos y dentro de una dinámica coevolutiva entre superficies de adaptación? Reconstruyendo la especificidad Para Kuhn el proceso que genera una revolución científica conlleva reemplazar conocimientos distintos e incompatibles; con lo cual se pierden aportaciones valiosas en el curso del cambio de paisajes mentales. Otro factor que contribuye a la extinción disyuntiva de paisajes mentales bajo la búsqueda de verdades únicas es la dualidad cartesiana de separación del sujeto con el objeto, que nos coloca en la creencia de que los conceptos y explicaciones son entidades independientes de personas y momentos históricos, de escenarios experimentales y campos cognoscitivos. Los problemas en la conceptualización y construcción de los conocimientos, indican que la recuperación del sentido biológico de la especificidad sólo será posible si se construye dentro de un marco sistémico y contextual. Es decir, deberíamos preguntarnos por el sentido biológico-cognoscitivo del proceso de reconocer un mensaje multidimensional antigénico, y cómo a través de una trama de enorme complejidad —parámetros determinantes, algunos de los cuales nunca llegaremos a conocer— el sistema inmune y el organismo construyen y dan sentido evolutivo y ontológico a su respuesta específica. Para tal fin se propone que la reacción antígeno-anticuerpo y sus propiedades de especificidad y extensión ocurren y son dependientes cuando menos de: variables intrínsecas a las moléculas de antígeno y de anticuerpo; variables extrínsecas asociadas al entorno y al espacio-tiempo en que ocurre la confrontación; y factores contingentes que están codeterminados tanto por lo que ocurre entre el antígeno y el anticuerpo, como por las respuestas del entorno a esa interacción. A mediados del siglo xx Pauling estremeció los modelos simplistas al encontrar heterogeneidad termodinámica en cada reacción. Como esto ocurre aun con antígenos monovalentes ultrasencillos química y estructuralmente en comparación con los complejos antígenos naturales, no puede dejar de concluirse, desde un escenario determinístico inflexible, que los anticuerpos que participan en una misma reacción no son intrínsecamente iguales. La riqueza de este hallazgo no fue comprendida cabalmente en su tiempo, pero señala que los anticuerpos no son mono-específicos, ni aun los monoclonales, sino que tienen capacidad de reaccionar con un enorme espectro de moléculas, aunque con distinta afinidad. No es difícil imaginar que la especificidad también puede ser función del alosterismo, propiedad de las proteínas complejas que implicaría interacciones inter e intra-moleculares durante el transcurso de la reacción antígeno-anticuerpo. Estas interacciones pueden modificar la tendencia intrínseca hacia la unión —cooperatividad positiva— o la desunión —cooperatividad negativa— de los reactantes. Una suerte de contorsiones moleculares que no sólo ajustan en distintos grados las superficies y resultados de la reacción, sino que pueden organizar el surgimiento de reacciones ausentes en las moléculas originales. Este asunto, antes despreciado, ahora es trivializado —cambios conformacionales— en casi todo fenómeno cuyo estudio se plantee desde la teoría general de receptores. La compresión molecular también puede afectar la especificidad de diferentes tipos de reacciones, ya que según la teoría de la exclusión del volumen, en un ambiente comprimido, la actividad de cada especie molecular, diluida o concentrada, está en función de la composición total del medio. Por ejemplo, si la concentración del trasfondo molecular se incrementa, la magnitud del efecto de compresión puede ser tan grande que el primer sitio pierde la preferencia por el ligando que antes reconocía y la adquiere por otro. Pero no sólo la densidad molecular del entorno está involucrada en la especificidad y cooperatividad, otros factores contribuyen a modificar la energía de interacción molecular. La especificidad y extensión de la reacción pueden alterarse no sólo de acuerdo con su concentración sino también con el tamaño de las moléculas circunstantes del entorno. Por ejemplo, las pequeñas moléculas del plasma —pequeñas proteínas, péptidos, carbohidratos, iones, etcétera— coparticipan con la reacción antígeno-anticuerpo estableciendo equilibrios fugaces pero frecuentes con los grupos más activos en el exterior de las moléculas de antígeno y anticuerpo. Estas interacciones también ocurren con el agua, lo que logra perturbar la reacción hasta alterar su especificidad y extensión. La temperatura, el pH, la fuerza iónica y la concentración de sales alteran la reacción al cambiar la distribución de las cargas y romper el equilibrio de la solución de las moléculas involucradas, lo cual también podría cambiar su conformación. El calcio y otros iones aumentan o disminuyen en varios ordenes de magnitud la precipitación del complejo antígeno-anticuerpo, ya que pueden estabilizarlo por medio de la quelación de las cadenas polipeptídicas o favoreciendo pequeños pero efectivos cambios conformacionales. Algunos estudios cristalográficos han revelado también que el agua juega un papel central en la interacción, porque sus moléculas pueden mejorar el ajuste de la complementariedad en y alrededor de la interfase del antígeno y el anticuerpo. En general, en biología se asigna al agua un papel meramente pasivo como solvente universal, se asume que es el sustrato donde tienen lugar las reacciones químicas de la vida. No obstante, las cosas no son tan sencillas. De entrada, existen diferentes tipos de agua en la célula: agua ligada, agua de hidratación, agua vecinal y agua libre. Aun admitiendo como correcta la estimación de que aproximadamente 95% del agua celular no está ligada, ésta no es un medio fluido —no viscoso— que rellena los espacios que dejan libres las estructuras celulares. Al contrario, parece que el agua contribuye decisivamente a la organización estructural de las moléculas y de la célula viva. Detallados estudios muestran que es capaz de formar agregados ordenados transitorios que se mantienen unidos mediante enlaces cooperativos intermoleculares. Estas unidades básicas interaccionan activamente con las macromoléculas, contribuyendo a su propio ensamblaje y organización. Diversas evidencias indican que la organización del agua predetermina las dimensiones geométricas adecuadas para el funcionamiento de las macromoléculas de la célula viva, como las dimensiones de las membranas biológicas, de los dominios de las proteínas y de los ácidos nucleícos, que responden a dichos requerimientos geométricos. Adicionalmente, el agua contribuye activamente al anclado transitorio de proteínas solubles a la red del citoesqueleto, posibilitando la aparición del fenómeno de la canalización metabólica en el ámbito de la bioquímica vectorial. Además del efecto directo del agua en la interacción, del espacio, el tiempo y la causalidad, a todo fenómeno de la biología debe añadírsele la memoria. Según Davenas y colaboradores, y después Benveniste, el agua es capaz de retener la memoria de las cosas una vez disueltas en ella, permitiendo que las moléculas puedan comunicarse unas con otras al intercambiar información sin necesidad de contacto físico. Entonces, no sólo las moléculas y átomos presentes perturban la especificidad, sino también las vibraciones o espectros electromagnéticos que fluyen y se conservan a través del agua. Es claro que para los químicos, físicos e inmunólogos de la época de oro de la reacción antígeno-anticuerpo —entre 1900 y 1970—, no escapaba la posible participación en la reacción de las variables extrínsecas mencionadas. Ahora parece evidente que de forma global subvaluaron la magnitud de sus efectos conjuntos. Quizás sea oportuno construir un marco teórico más completo y flexible que incorpore la complejidad multimodal de la especificidad, a fin de entender mejor la reacción clave de la inmunología en el nivel molecular. Finalmente, Greenspan y Cooper proponen otro sentido de la especificidad, basado en observaciones de que el grado de afinidad del anticuerpo por el antígeno —y viceversa— no necesariamente se relaciona de forma directa con la magnitud del efecto biológico. Es decir, puede haber unión sin efecto biológico. Por lo que la especificidad inmunobiológica puede divergir de la inmuno-química. Ya que este efecto se ha definido como producto de la “localización, dosis y tiempo de exposición”, no es posible generar una segunda señal —la cual es producida por el efecto biológico—, si la unión de los reactantes inmunológicos no se efectúa dentro del tejido linfoide, o sin la concentración o tiempo necesarios para dispararla. En resumen, la especificidad no existe por sí misma, es creada en el momento en que un receptor se une a un ligando y no a otro. Y no sólo incluye al par antígeno-anticuerpo, sino que es producto del entorno, en cierto tiempo-espacio, y conectada a algún evento biológico discernible. Tal como lo proponía Van Regenmortel, es un fenómeno relacional. Hacia una epistemología integrativa La búsqueda de certezas representa una parte esencial del edificio del conocimiento en la modernidad y el anhelo cartesiano, encontrar un universo mecánico y una mente racional objetiva y aséptica que embonen complementariamente. La imagen baconiana de un científico compungiendo y estresando a la natura para que le revele sus secretos cierra la pinza del dualismo. Esta promesa permitiría revelar una descripción cada vez más certera de la realidad. Pero, ¿cómo es que la ciencia o, más bien, el ser humano conoce? La moderna síntesis de saberes y las recientes crisis epistemológicas, por ejemplo, en física —el paradigma cuántico, las ciencias del caos— o en biología —el campo epigenético, la complejidad ecológica—, conduce a plantearse la inaplazable cuestión de conocer el conocer. La objetividad y el mecanismo comienzan a desvanecerse ante las evidencias de las ciencias cognitivas. Empezamos a percibir que el dualismo cartesiano y la objetividad científica, al operar en solitario y fuera de un diálogo entre saberes, son quimeras paralizantes del saber. El Universo es una extensa e inatrapable complejidad que requiere enfoques sistémicos y contextuales. Las certezas absolutas terminan por encerrarnos en cárceles de parálisis mental, donde tenemos que vaciar la naturaleza de la complejidad de sus interacciones y de su carácter sistémico para llenarla de restricciones y ajustarla así a un modelo de relojería que promete la predictibilidad y la certeza. El proceso reduccionista significaba asegurar que el sistema inmune actuaría a través de agentes moleculares específicos, los anticuerpos o mecanismos de discriminación, que son conceptualizados conteniendo la especificidad como algo autónomo e invariante. Esto puede fabricarse sólo cuando el contexto biológico de la reacción es vaciado de contenido vivo, sistémico y energético; es decir, de su codeterminación estructural. El aislamiento del proceso de reconocimiento molecular de su entorno permite construir un ámbito de conceptualización y experimentación que poco tiene que ver con su accionar en el sistema inmune y, en general, en un ambiente no aséptico. Así, al construir el concepto mecanicista y secularizado, y a partir de éste el experimento, se ratifica la posibilidad de medir y ver un objeto mecánico y predecible para condiciones vaciadas de significado. Esta confusión está ligada a la antigua disputa filosófica entre sustancia y proceso. La visión reduccionista ha insistido en concebir a la realidad como sustancia, donde sus cualidades residen exclusivamente en la estructura material, negando el ámbito transitorio y dinámico —el campo de lo relacional—, que de igual manera determina las propiedades del sistema. El receptor no reconoce en el vacío, sino que múltiples determinantes —como la membrana celular, el efecto de la densidad de epítopes, la concentración de receptores, el paquete de moléculas accesorias al receptor, la compleja trama de interacciones supracelulares, etcétera— le confieren sentido al reconocimiento. Como ahora sabemos, las constantes de afinidad o las concentraciones de antígenos muy elevadas inhiben el desencadenamiento de algunas respuestas del sistema inmunológico. Ningún reconocimiento, aun el de un anticuerpo de ingeniería, obedece a leyes deterministas. Por lo que la certeza y el mecanismo de relojería que nos propone la visión estática y aislada del reconocimiento molecular comienza a desmoronarse. El sistema y sus propiedades relevantes y fundamentales desaparecen al ser disecado y vaciado de su integridad operacional. El movimiento y la relación en síntesis dialéctica son elementos centrales del sistema, tal como lo visualizaron Berthalanffy y Goethe. El proceso en su conjunto sintetiza y proporciona valor semántico a la interacción antígeno-anticuerpo, lo que permite brindar una apropiada —cualidad transitoria y contextual— respuesta biológica. Por tanto, puede decirse que al menos deberíamos preguntarnos ¿cuál es la especificidad de una reacción antígeno-anticuerpo en un contexto serológico y del organismo, y para una historia y ambiente particular? El contexto y el sistema inmunológico Esta perspectiva visualiza la especificidad como una propiedad dinámica y contextual de los procesos biológicos de discernimiento en un ámbito relacional y complejo. Aquí, hemos sugerido que lo específico sólo cobra sentido al colocarlo en un espacio-tiempo particular. En consecuencia, los procesos vinculados serán de igual forma fenómenos relacionales y emergentes, ya que la especificidad inmunológica ha sido ubicada históricamente en el centro del funcionamiento del sistema. En la actualidad, el modelo imperante respecto al sistema inmunológico se basa en la teoría de la selección clonal de Burneo, que esencialmente implica que el sistema inmune funciona basado en una dinámica de selección clonal darwiniana de linfocitos, donde las clonas, con sus respectivos receptores que poseen la combinación de mayor especificidad y afinidad por el antígeno, son seleccionadas y estimuladas. A partir de esta dinámica fundamental de selección adaptativa, el ejército de clonas en combate montarán, en combinación con la maquinaria molecular, celular y tisular complementaria del sistema, una respuesta inmune destructiva en contra del agente patógeno. Dentro de esta lógica, los procesos fundamentales del sistema —como la regulación, la tolerancia, la memoria, etcétera— dependerán de su control sobre las clonas específicas y sus receptores. El modelo de selección se complementa con la afirmación de que el sistema inmunológico funciona discriminando entre lo propio y lo no propio, tolerándose lo primero y atacándose lo extraño. Sin embargo, actualmente y a pesar de la fastuosa y sobrecogedora disponibilidad de miles de datos y descripciones sobre centenas de moléculas, subpoblaciones celulares o arreglos tisulares del sistema inmunológico, persisten enormes lagunas de entendimiento respecto a sus procesos globales. Bajo el modelo militarista y represivo de clonas que poseen reactividad no deseada es imposible explicar fenómenos que señalan un sistema con enorme plasticidad y esencialmente cognitivo, donde el contexto en que ocurre la infección es tan importante como el agente infeccioso. Los trabajos realizados por Jerne y sus colaboradores durante los pasados treinta años en torno a la hipótesis de la red inmunológica, evidencian que diversas propiedades fundamentales del sistema inmune —como la memoria y la tolerancia—, son fenómenos supraclonales que no dependen de los detalles moleculares invariantes de los receptores específicos. Por ejemplo, la memoria inmunológica no es una consecuencia de la interacción exclusiva del antígeno y el anticuerpo, ni mucho menos reside en unas cuantas células. La autoinmunidad no es un defecto en los anticuerpos secretados por las células B o por presencia de células autorreactivas, puesto que de forma natural existen estas poblaciones en los organismos sanos. Lo mismo puede decirse de las infecciones; no se trata de una batalla en la que existe un vencedor y un vencido. La dicotomía entre fuera y dentro —entre lo propio y lo no propio— es artificial. Existen numerosas evidencias que indican que el sistema inmune opera para una sobrevivencia continua que responde a lo interno y a lo externo, asegurando la armonía funcional del cuerpo. La discriminación de lo propio y de lo extraño es una propiedad sistémica relativa a lo supraclonal. Todo lo anterior reitera la necesidad de abandonar los mapas mentales rígidos y deterministas y redireccionarse hacia otros que incluyan propiedades cognoscitivas dinámicas y complejas. “Complejidad no es una palabra solución, es una palabra problema”. |
||
Tania Romo González, Enrique Vargas Madrazo
Instituto de Investigaciones Biológicas,
Universidad Veracruzana.
Carlos Larralde
Instituto de Investigaciones Biomédicas,
Universidad Nacional Autónoma de México.
|
||
Referencias bibliográficas:
Berman, Morris. 1985. El Reencantamiento del mundo. Cuatro Vientos, Chile.
Capra, Fritjof. 1998. La trama de la vida: una nueva perspectiva de los sistemas vivos. Anagrama, Barcelona.
Durand, Gilbert. 1999. Ciencia del hombre y tradición: el nuevo espíritu antropológico. Orientalia, Barcelona.
Foucault, Michael. 1979. Saber y verdad. Colección Genealogía del poder, Ediciones La Piqueta, Madrid.
Greenspan, N. S. 2001. “Affinity, complementarity, cooperativity, and specificity in antibody recognition”, en Curr. Top Microbiol Immunol., núm. 260, pp. 65-85.
Kaivarainen, A. 2003. “New hierarchic theory of water and its role in biosystems. The quantum Psi problem”, en The Journal of Non-Locality and Remote Mental Interactions, núm. 2, p. 1.
Krishnamurti, Jiddu. 1997. Las relaciones humanas. Planeta, España.
Landsteiner, Karl. 1945. The specificity of serological reactions. Dover Publications, Nueva York.
Larralde, Carlos. 1980. Molecules, cells and parasites in immunology. Academic Press, pp. 191-214.
Latour, Bruno y Steve Woolgar. 1979. Laboratory life: the social construction of scientific facts. Sage Publications, Londres.
Lewin, K. 1931. “The conflict between Aristotelian and Galilean modes of thought”, en J Gen Psychol., núm. 5, pp. 141-177.
Margulis, Lynn. 1998. Symbiotic planet. Basic Books, Nueva York.
Morin, Edgar. 1983. El Método 2. La vida de la vida. Cátedra, Madrid.
Nasr, Seyyed Hossein. 1982. Hombre y naturaleza: la crisis espiritual del hombre moderno. Ediciones Herder.
Wilber, Ken. 1999. La conciencia sin fronteras. Kairos, Barcelona.
_______________________________________________________________
como citar este artículo → Romo González, Tania, Vargas Madrazo Enrique y Larralde Carlos. (2005). La especificidad inmunológica, historia, escenarios, metáforas y fantasmas. Ciencias 79, julio-septiembre, 38-51. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |
![]() |
![]() |
|
La evolución biológica como sistema autorganizado, dinámicas no lineales y sistemas biológicos |
|
|
Rodrigo Méndez Alonzo
conoce más del autor
|
||
HTML↓ | ||
|
||
En 1887, para conmemorar su cumpleaños 60, el rey Óscar II de Suecia estableció un premio de 2 500 coronas para quien demostrara que el sistema solar es estable. El matemático francés H. Poincaré señaló que un sistema que considera el movimiento de dos cuerpos es fácilmente predecible, pero conforme aumenta el número de cuerpos también lo hace la dificultad en la predicción, por tanto, un cuerpo influido por nueve planetas era virtualmente imposible de predecir. Para contestar la pregunta, Poincaré diseño nuevas técnicas en matemáticas como el espacio de fases, que es la representación gráfica de la solución de una ecuación diferencial —un espacio matemático conformado por las variables que describen la dinámica del proceso.
En el mismo año Stephen A. Forbes consideró que, partiendo del impredecible resultado de la competencia entre las especies que ocupan un pequeño volumen de agua, se llega al orden imperante en la escala de todo un lago, sosteniendo que la selección natural es la fuerza que mantiene ese orden sin poder explicar lo que conduce al caos aparente en la microescala. En esto seguía la idea de Darwin, para quien la principal causa que produce la multitud de formas de vida es la fuerza de la selección natural, motor de las trasformaciones de las especies en un mundo cambiante.
En las primeras décadas del siglo xx, el matemático Vito Volterra utilizó la técnica elaborada por Poincaré para explicar el planteamiento realizado por su yerno sobre las fluctuaciones en los volúmenes de pesca durante los años de la Primera Guerra Mundial, y en 1926, simultáneamente con Alfred Lotka, Volterra inventó las ecuaciones sobre competencia, y en una carta a la revista Nature se observa el uso del espacio de fases para contestar una pregunta ecológica. Desde entonces, la utilización de las isoclinas derivadas de la cuenca de atracción del espacio de fases y de las ecuaciones de Volterra se han aplicado profusamente en ecología de poblaciones.
La trayectoria de un péndulo puede representarse como un sistema disipativo —aquel que no conserva su propia energía, también llamado hamiltoniano— donde se grafica la posición contra el impulso —que es el producto de la velocidad por la masa— en el espacio de fases. Debido a la pérdida de energía por fricción el péndulo tenderá a detenerse en un punto, independientemente de la energía con la que inicie su trayectoria; a ese punto se le conoce como atractor puntual. Si imaginamos el péndulo libre de fricción, su trayectoria será infinita, y en el espacio de fases quedará representada como un ciclo. A este tipo de atractor se le conoce como atractor de ciclo límite. A la región en el espacio de fases cuya tendencia sea llegar al atractor se le conoce como cuenca de atracción. En 1967 Edward Lorenz, al estudiar el flujo de gases en la atmósfera, encontró un atractor con estructura fractal, por lo cual nunca se repite la misma trayectoria. A este atractor se le llamó atractor extraño. Los fenómenos caóticos deterministas por lo regular presentan este tipo de atractores.
En 1974 Robert M. May señaló que incluso ecuaciones más sencillas que las de Lotka-Volterra tienen un comportamiento muy complejo. Para probarlo, iteró la ecuación logística desarrollada en el siglo xix por Pierre-August Verholst y percibió, al graficar la tasa de crecimiento r contra la población p, que a partir de una r de aproximadamente 3.57 y menor que 4 se llegaba a un comportamiento de bifurcación que progresivamente conducía a una región estrecha donde la cantidad de posibles resultados era infinita, pero bajo determinadas cantidades de r se llegaba a ventanas donde era posible predecir el resultado. Esto es, May descubrió un caos determinista, también llamado complejidad. Con r menor que 4 se alcanza un estado donde es imposible predecir en cualquier escala, esto es, un comportamiento estocástico.
Caos proviene del griego, equivale a abismo o desorden. En realidad la mejor definición de caos determinista es una alta sensibilidad a las condiciones iniciales en un fenómeno donde se puede demostrar que hay acotamiento; esto es, uno con un atractor donde, por la imposibilidad de conocer todas las condiciones iniciales, se llega a una divergencia en la trayectoria, que no sea susceptible de predicción a largo plazo (un fenómeno es caótico si el exponente de Lyapunov tiene valores positivos). La diferencia entre éstos y los fenómenos estocásticos es que los caóticos son deterministas y susceptibles de predicción a corto plazo, mientras que los segundos son imposibles de predecir en cualquier tiempo, por tanto su atractor será de la misma dimensión que el espacio de fases.
La aportación de May impactó las ciencias físicas, donde los comportamientos caóticos en ecuaciones de ecología de poblaciones se conjugaron con los problemas de matemáticos como Mandelbrot y Ruelle, y de químicos como Prygogine, para impulsar una revolución científica que derribó el determinismo, conformado la ciencia del caos o teoría del caos. Posteriormente se descubrió que gran cantidad de fenómenos y estructuras de la naturaleza tienen comportamiento caótico. Sin embargo, en ecología se consideraba que los sistemas no lineales y los comportamientos caóticos no eran más que una posibilidad teórica, o incluso un comportamiento matemático sin aplicación real en sistemas ecológicos. Pero, tras el descubrimiento de May, Michael Gilpin demostró que las ecuaciones de Lotka y Volterra tenían en el espacio de fases un atractor fractal, con lo que se podía concluir que poseían, al igual que la ecuación logística, un comportamiento caótico. Los atractores fractales en el espacio de fases fueron encontrados teóricamente y como explosiones demográficas en plagas de Thrips imaginis y en las fluctuaciones demográficas del lince. También se pensaba que los comportamientos caóticos sólo podían producirse a partir de perturbación humana, pues al reducirse las poblaciones hasta densidades cercanas a la extinción sólo podían tener crecimiento, lo cual llevaría a una continua retroalimentación positiva que podría implicar comportamientos caóticos —o sea la imposibilidad de predecir el resultado del crecimiento poblacional—, pero sólo bajo sistemas modificados, lo que querría decir que los sistemas naturales serían anticaóticos.
En la actualidad, se considera que el caos se presenta en muchos fenómenos ecológicos, como en el ensamblaje de las comunidades. Se ha observado en una comunidad de fitoplancton que al presentarse oscilaciones caóticas, el número de especies supera lo esperado por la teoría de la exclusión competitiva, al menos teóricamente. También se encontró que es posible sostener hasta nueve especies por tres recursos limitantes, con lo que puede explicarse la llamada paradoja del fitoplancton; además se demostró que el resultado de dicha competencia es impredecible por contener en el espacio de fases un atractor fractal.
Autosimilitud en los fenómenos biológicos Una consecuencia de los sistemas no lineales, derivada de las ecuaciones en potencia, es la autosimilitud a diferentes escalas. A fines del siglo xix fueron descubiertas ciertas figuras que contradecían la geometría euclidiana, que no correspondían ni a una línea, un punto, una superficie o un volumen, sino que parecían ser intermedios a estas dimensiones. Poincaré las llamo monstruosidades y para tratar de explicarlas inventó la rama de las matemáticas conocida como topología, donde el punto tiene dimensión igual a cero, la línea a uno, la superficie a dos […] pero hay figuras cuya dimensión es intermedia, como la dimensión de Hausdorff. Las mostruosidades fueron olvidadas hasta 1975, cuando Benoit Mandelbrot las denominó fractales; a partir de ese momento la geometría fractal empezó a considerarse casi ubicua en los fenómenos naturales.
La palabra fractal proviene del latín fractus que significa irregular. Neologismo inventado por Benoit Mandelbrot, quien, al estudiar las diversas mediciones de la costa de la Gran Bretaña, demostró que la longitud podía llegar hasta un infinito teórico. Esto se debe a que la longitud de la costa depende de la unidad de medición, ya que mientras más fina sea más larga será la costa, pues se requerirán más pasos para medir el objeto, y por la forma de la costa se incluirán cada vez más irregularidades, lo que coincide con la foma de los fractales, rugosa y autosimilar. Estas figuras ocupan un intermedio entre las euclidianas y las geométricamente caóticas, que son rugosas pero no presentan ningún patrón de regularidad. Su dimensión topológica es fraccionaria, y en sistemas biológicos tienden a ocupar prácticamente toda la dimensión anterior con el mínimo de llenado en la siguiente, lo cual es claro cuando se piensa en el sistema circulatorio de mamíferos, pues puede irrigar todo el cuerpo —tendencia a una superficie infinita— ocupando 5% del volumen total.
Los fractales pueden utilizarse con provecho en ecología por su característica autosímil en distintas escalas —claro que en los sistemas naturales la escala se ve limitada por la estructura física. Las aplicaciones de los fractales en ecología y evolución se observan en la medición del hábitat, donde a mayores escalas pueden encontrarse más especies por unidad de volumen; en la estructura de muchas formas como hojas y vasos sanguíneos; en la manera como están agrupadas las especies en géneros, pues podría decirse que los árboles filogenéticos siguen una estructura fractal; en las estadísticas de extinción, donde se percibe un patrón autosimilar entre las cinco grandes extinciones de la historia, su recuperación y periodos de estasis. Puede decirse que toda la alometría sigue una estructura fractal derivada de las ecuaciones en potencia. Esto se debe a que en la naturaleza se producen fenómenos de autorganización que conducen a la estructura anidada típica de los fractales, incluso podría esperarse que este comportamiento sea tan ubicuo que permitiría llegar a una teoría unificada de los sistemas biológicos.
Caos, microevolución y macroevolución Para probar que en pequeñas escalas evolutivas también se presentan comportamientos caóticos se han usado diferentes modelos que implican series de tiempo menos largas que las utilizadas para macroevolución. Así, se ha probado la presencia de fluctuaciones caóticas en la frecuencia genotípica —proporción de un genotipo, que es el conjunto de la información genética que porta un individuo, en una población— en casos donde la adecuación del heterocigoto —que representa la proporción de la contribución de un individuo que porta un gen o alelo dominante de un progenitor y uno recesivo del otro a las siguientes generaciones— es la media de la adecuación de los homocigotos —individuos cuya constitución genética consiste en el mismo alelo, dominante o recesivo, para un carácter hereditario—, y donde los heterocigotos tendrían un efecto destructivo sobre los homocigotos y sobre ellos mismos, aunque en el último caso más ligero. Si a este comportamiento se asocia una baja adecuación promedio y una alta fecundidad se obtiene una fluctuación caótica, lo que puede probarse para organismos como Tribolium. Este resultado comprobó que, en genética de poblaciones, incluso en los modelos sencillos de densodependencia, que depende de su densidad, se pueden observar comportamientos complejos. En este caso la selección natural implica la aparición de caos. Las otras fuerzas de la evolución también pueden llevar a fluctuaciones caóticas, como los mutatores —cepas altamente mutables de algunas bacterias como Escherichia coli— en entornos fluctuantes. Las cepas más susceptibles de mutación se adaptan en ambientes más fluctuantes, las menos mutables tienen mayor adecuación en ambientes estables, y en ambientes intermedios mutan cíclicamente. Sin embargo, en un medio donde los cambios sean muy variables —estocásticos o caóticos— las cepas más exitosas serán las que muten en forma compleja, caótica. Este tipo de fluctuación podría permitir una pronta adaptación a los continuos cambios ambientales. El estudio de estrategias evolutivamente estables, producto de la competencia entre fenotipos convergentes en un estado de mayor adecuación para toda una población, el cual es consecuencia de la búsqueda de cada individuo por aumentar la suya, también proporciona resultados interesantes. Por ejemplo, se demostró que la tasa de supervivencia y el reclutamiento pueden llevar a un compromiso (trade-off) entre semelparidad —organismos que se reproducen sólo una vez; el nombre proviene de Sémele, amante de Zeus que murió al ver al Dios en todo su esplendor— e iteroparidad —organismos que se reproducen más de una vez. Cuando la dinámica de la población es densodependiente se presentan tres posibles resultados: un equilibrio estable, donde la estrategia evolutiva sería semelparidad; un escenario donde el equilibrio estable mantenga la semelparidad y también haya dinámica no lineal con iteroparidad como estrategia evolutiva; y un estado donde ambas estrategias sean mutuamente invasivas, entonces no existiría equilibrio, por lo que podría presentarse una fluctuación caótica. En escalas microevolutivas, el caos puede ser adaptativo, como en el caso de los mutatores, manteniendo a las cepas más exitosas en los ambientes más variables, y además puede servir como mecanismo estabilizador. Aunque en pequeña escala las oscilaciones caóticas pueden conducir a extinciones locales, en un contexto global el caos evitaría las extinciones —por ejemplo, de una metapoblación— mediante asincronías locales probablemente debidas a las condiciones iniciales. Esto implica que en el espacio global el caos sería un mecanismo estabilizador que propicia la permanencia.
En el contexto macroevolutivo también se percibe la presencia de dinámicas no lineales, como la autosimilitud en las estadísticas de extinción del registro fósil, indicio de una estructura fractal, que se presenta a diferentes escalas temporales y sugiere regularidad en el registro de extinciones. Por esto, se ha propuesto que causas extrínsecas e intrínsecas a la biología de las especies pueden influir en la extinción regular de géneros y que los ciclos de extinción se repiten cada 26 millones de años. La inspección en el registro de extinciones de los tiempos medios de vida de diferentes géneros y de la distribución de frecuencias en ese registro indica que en tiempos geológicos la extinción se ajusta a una función de potencia decreciente. Esto puede implicar que existe una respuesta no lineal de la biósfera a perturbaciones como, por ejemplo, los meteoritos. Las causas de las extinciones pueden deberse a una multitud de factores, incluyendo uno intrínseco, que sería la dinámica no lineal de la biósfera, actuando como consecuencia de perturbaciones externas o internas. Otro patrón macroevolutivo que puede considerarse no lineal es el de abundancia de los taxa. Al considerar la agrupación de especies por género y de taxa, en el más inclusivo se produce una serie de bifurcaciones que se ajustan muy bien con el proceso de bifurcación matemática conocido como Galton-Watson, una construcción fractal probabilística dependiente de factores estocásticos, más que de un proceso de criticalidad autorganizada.
Los sistemas dinámicos tienden a evolucionar hacia estados lejanos al equilibrio crítico. Se ha propuesto que este mecanismo puede ser la criticalidad autorganizada; es decir, cuando sistemas complejos lejanos del equilibrio evolucionan espontáneamente hacia un estado crítico donde se producen avalanchas periódicas de actividad. Es como cuando se acumula arena en una superficie, al principio se tiene una acumulación sin cambios, luego comienzan a surgir pequeñas avalanchas que posteriormente pueden llevar a varias de mayor magnitud y periódicas. Se ha considerado que cuando un genotipo muta y aumenta su adecuación, baja instantáneamente la de otros genotipos, lo que llevaría a que sean favorecidas las mutaciones de los otros para aumentar su adecuación, resultando una coevolución, que sería una avalancha de coevolución en un tiempo relativamente breve.
La escala más amplia a la que se ha propuesto un sistema evolutivo es la de Gaia, teoría que propone que a escala planetaria hay un sistema cibernético autorganizado y abierto a la materia y la energía, que tiene como límite superior la exósfera y como inferior la corteza susceptible a la acción de la intemperie; es decir, sus límites abarcan tanto la zona influida por la vida, como la que a su vez la influye. Este sistema posee amplios mecanismos de retroalimentación espacial y temporal, ya que la vida ha moldeado las características del planeta, diferenciándolo de los otros del sistema solar, como Venus o Marte, consolidando un sistema estable con cambios en formas pero relativamente constante en el tiempo. Sus principales postulados es que la vida afecta el ambiente, de donde toma energía libre para disminuir su propia entropía, liberando a su vez productos de desecho ricos en entropía. Simultáneamente, la vida se ve limitada por el ambiente que puede definir la habitabilidad de un sitio. Los organismos vivos tienen como propiedades el crecimiento y la reproducción, y se determinan los genotipos dominantes por selección natural. Se puede considerar que Gaia es un sistema adaptativo complejo. Complejo viene del griego Pleko que significa entretejido. La teoría de la complejidad, que busca los orígenes de la organización, puede considerarse una extensión de la cibernética. Un problema complejo no puede entenderse mediante el conocimiento de las partes, debido a que posee propiedades únicas no explicadas a partir de sus componentes. La complejidad es percibida como un subconjunto de los sistemas dinámicos, y a su vez se subdivide en sistemas ordenados, críticos y caóticos. Los sistemas complejos adaptativos constan de tres elementos, diversidad e individualidad de componentes, interacción entre los componentes y un proceso autónomo de selección, basado en la interacción que permite la perpetuación. De estos elementos se desprenden propiedades como adaptación continua, ausencia de control global, organización jerárquica, novedad perpetua y dinámicas lejanas al equilibrio. Como la segunda ley de la termodinámica prohibe la autorganización resultante de las propiedades emergentes de los sistemas complejos adaptativos, éstos son disipativos.
Así, Gaia posee propiedades emergentes en función de la diversidad e individualidad de componentes interactuantes bajo un proceso autónomo —selección natural. Es un sistema complejo pues está lejano al equilibrio, es regenerativo y presenta una jerarquía en sus partes. Se podría considerar que es adaptativo porque sus partes han llevado a flujos geológicos, bioquímicos y físicos que se modifican con el tiempo. Si se revisa la historia de la Tierra se puede observar que ha transitado a un período con una alta productividad y biodiversidad, el cual se ha mantenido más o menos estable desde el tránsito de una atmósfera reductiva a una oxidativa.
Consideraciones finales El resultado de la evolución es la biodiversidad y ambos sistemas son complejos. La actual interacción de los componentes de la biodiversidad se puede estudiar mediante herramientas como las redes complejas, que están sujetas a comportamientos dinámicos. De esta manera se trata de comprender las redes tróficas y las cadenas metabólicas. Para estudiar la evolución se ha propuesto un modelo que demuestra que un sistema ecológico sencillo, a lo largo del tiempo, puede desencadenar fluctuaciones en la frecuencia de extinciones que se ajustan muy bien con el equilibrio puntuado. En un paisaje adaptativo donde ninguna especie adquiere un máximo de adecuación, una que mute y alcance mayor adecuación a costa de las otras interactuantes desencadenará una explosión de cambios hasta llegar a un período de estasis. Esta idea implica que un modelo no lineal puede explicar bien la teoría del equilibrio puntuado de Niles Eldredge y Stephen Jay Gould. En este caso, el puntualismo sería visto como un comportamiento esperado de la dinámica no lineal de una función de potencia, que se ajusta a la cadena de radiaciones adaptativas y a la de extinciones.
|
||
Dado que el modelo contempla ambas posibilidades, pueden esperarse extinciones de gran magnitud cada determinado tiempo, lo que c o r respondería a los ciclos de 26 millones de años pro p u e stos por Sepkoski. Las extinciones y otros procesos macro-e vo l u t i vos pueden pre s e n ta rse sin necesidad de invo c a r causas distintas a la dinámica propia de la evolución.
¿Es la evolución un sistema fractal? Es posible que los p rocesos micro e vo l u t i vos estén regidos por leyes deterministas no lineales, y que también los macro e vo l u t i vo s sean consecuencia de la dinámica no lineal. La idea de p ro t e ctorados sugiere que los procesos regidos por dinámicas no lineales en sistemas muy distintos, pueden presentar el mismo resultado estructural o el mismo tipo de fluctuación en el tiempo. Es posible que se presente un protectorado en los patrones evolutivos; sin embargo, se ha demostrado que muchos procesos en evolución son lin e a l e s, como la selección natural. El hecho de que se presenten comportamientos que no tienen ninguna relación con la no-linealidad no implica que se descarte este modelo de estudio, al contrario, puede enriquecer al modelo.
No es posible llegar a un total entendimiento de la naturaleza ya que desconocemos las condiciones iniciales decasi todos los fenómenos.
La aparición de la vida y su incre m e n to en complejidad estructural no es un proceso surgido entre un mar deposibilidades, en palabras de Cocho y Miramontes, es necesario separar lo posible de lo viable. Actualmente muchos pensadores proponen que la aparición de la vida y su posterior evolución es un proceso necesario dadas las condiciones de un planeta como la Tierra, y que es un proceso que, de repetirse las mismas condiciones, volvería a s u c e d e r, con entidades distinta s, pero con vida. Estas ideas s u g i e ren que los sistemas auto rg a n i zados no son pro d u c to s estocásticos sino necesarios, lo que indica que el caos determinista está profundamente asociado con la aparición de la vida y la evolución.
A r t u ro Rosenblueth, un ferviente determinista, planteaba con mucha razón que la ciencia es un modelo de la n a t uraleza y como tal está limitado. El mejor modelo simplemente será el que explique mejor los fenómenos, pero nunca podrá ser tan exa c to como para reconstruir la re a l idad, en el momento que se pueda reconstruir, la ciencia ya no será necesaria, como sucede en el cuento El arte de la carto g ra f í ade J. L. Borg e s. Entonces hay que ex p l o rar los sistemas no lineales como modelos simplificados de la naturaleza, pero tal vez más explicativos que los lineales.
|
||
![]() |
![]() |
|
Rodrigo Méndez Alonzo
Instituto de Ecología, A. C. |
||
Referencias bibliográficas:
Forbes, S. A. 1887. “The lake as a microcosm”, en Foundations of Ecology. Classic Papers with Commentaries, L. A. Real y J. H. Brown (eds.), University of Chicago Press, Chicago. Volterra, V. 1926. “Fluctuations in the Abundance of a Species considered Mathematically”, en Foundations of Ecology. Classic Papers with Commentaries, L. A. Real y J. H. Brown (eds.), University of Chicago Press, Chicago. May, R. M. 1974. “Biological populations with non- overlapping generations: stable points, stable cycles and chaos”, en Foundations of Ecology. Classic Papers with Commentaries, L. A. Real y J. H. Brown (eds.), University of Chicago Press, Chicago. Gilpin, M. 1975. “Limit cycles in competition communities”, en Am. Nat., vol. 109, núm. 965, pp. 51-60. Schaffer, W. M. y M. Kot. 1985. “Do strange attractors govern ecological systems?”, en Bioscience, vol. 35, núm. 6, pp. 342-350. Schaffer, W. M. 1985. “Order and chaos in ecological systems”, en Ecology, vol. 66, núm. 1, pp. 93-106. Berryman, A. A. y J. A. Millstein. 1989. “Are ecological systems chaotic- and if not why not?”, en tree, vol. 4, núm. 1, pp. 26-28. Huisman, J. y F. J. Weissing. 1999. “Biodiversity of plankton by species oscillations and chaos”, en Nature, núm. 402, pp. 407-410. Sugihara, G. y R. M. May. 1990. “Applications of fractals in ecology”, en tree, vol. 5, núm. 3, pp. 79-86. Talanquer, V. 2002. Fractus, fracta, fractal. fractales, de laberintos y espejos. Fondo de Cultura Económica, México. Brown, J. H., V. K. Gupta, B. Li, B. T. Miller, C. Restrepo y G. B. West. 2002. “The fractal nature of nature: power laws, ecological complexity and biodiversity”, en Phil. Trans. R. Soc. Lond. B., núm. 357, pp. 619-626. Altenberg, L. 1991. “Chaos from linear frecuency dependent selection”, en Am. Nat., núm. 138, pp. 51-68. Travis, J. M. J. y E. R. Travis. 2002. “Mutator dynamics in fluctuating environments”, en Proc. R. Soc. Lond. B., núm. 269, pp. 591-597. Nash, J. 1950. “Equilibrium points in N-person games”, en pnas, núm. 36, pp. 48-49. Ferrière, R. y G. A. Fox. 1995. “Chaos and evolution”, en tree, vol. 10, núm. 12, pp. 480-485. Bascompte, J. y R. V. Solé. 1995. “Rethinking complexity: modelling spatiotemporal dynamics in ecology”, en tree, vol. 10, núm. 9, pp. 361-366. Chu, J. y C. Adami. 1999. “A simple explanation for taxon abundance patterns”, en pnas, vol. 96, núm. 26, pp. 15 017-15 019. Lenton, T. M. y M. van Oijen. 2002. “Gaia as a complex adaptive system”, en Phil. Trans. R. Soc. Lond. B., núm. 357, pp. 683-695. Strogatz, S. H. 2001. “Exploring complex networks”, en Nature, núm. 410, pp. 268-276. Sneppen, K., P. Bak, H. Flyvbjerg, y M. H. Jensen. 1995. “Evolution as a self-organized critical phenomenon”, en pnas, núm. 92, pp. 5 209-5 213. _______________________________________________________________
como citar este artículo → Méndez Alonzo, Rodrigo. (2005). La evolución biológica como sistema autorganizado, dinámicas no lineales y sistemas biológicos. Ciencias 79, julio-septiembre, 26-34. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |
![]() |
![]() |
|||
bibliofilia | ||||
La guelaguetza de la biodiversidad |
|
|||
Patricia Magaña Rueda
conoce más del autor
|
||||
HTML ↓ | ←Regresar al índice ⁄ artículo siguiente→ | |||
Abisaí García Mendoza, María de Jesús Ordóñez y Miguel Briones Salas, compiladores del libro Biodiversidad de Oaxaca, presentan en este volumen los trabajos desarrollados por distintos grupos de investigación, cuya importante labor fortalece el reconocimiento de que Oaxaca es el estado con la mayor riqueza biológica y cultural de México.
La diversidad biológica del país responde a la combinación de muchos factores, como su situación geográfica, su topografía y una amplia variedad de climas. Víctor Toledo, desde los años ochentas, remarcó la urgente necesidad de planear su estudio y contribuir a que las instituciones de investigación se dedicaran a formar un proyecto nacional de investigación de la biodiversidad. Hoy es claro que el uso de los recursos afecta no sólo el nivel local sino el más general; es decir, el planetario. La pérdida de la diversidad biológica es uno de los grandes problemas que enfrentamos, y difícilmente la modificación del entorno puede circunscribirse a un ámbito regional. Sin embargo, el estudio de las condiciones locales, como trata el libro Biodiversidad de Oaxaca, representa una valiosa contribución al conocimiento de la biodiversidad mundial, especialmente si se considera la frecuente apreciación de que la situación de los trópicos es particularmente delicada en cuanto al conocimiento y, al mismo tiempo, destrucción acelerada de los recursos naturales. Las tasas de deforestación y modificación de estas zonas son tan elevadas que difícilmente puede tenerse esperanzas de conocer y preservar la riqueza de especies y genética que guardan. Ya Rodolfo Dirzo había planteado que la biodiversidad se refiere a la riqueza o variedad de formas vivientes que existen; enormes constelaciones de plantas, animales y microorganismos sostenidos como entes vivientes por una constelación de información genética aún mayor, y acomodados en forma compleja en los biomas o ecosistemas que caracterizan el planeta. Aunque hay discusión al respecto, en 2001 el inventario de todas las especies vivas conocidas se situaba en torno a 1.7 millones de especies según Tudge. Otros afirman que la cifra se queda corta y hay hasta quien sugiere que una estimación razonable estaría alrededor de 30 millones de especies. Por su parte, Ken Oyama sostiene que en los análisis de los sistemas naturales existe la creciente tendencia de reconocer que los ecosistemas están constituidos por dos componentes: el biológico y el social. Este parece ser uno de los nuevos paradigmas en ecología y algunas de sus posibles respuestas están en el desarrollo sustentable, porque en muchos sentidos es probable que en ello estribe la supervivencia humana en el planeta. Es por eso que conocer, preservar y decidir sobre el uso de la biodiversidad se convierte en un tema científico de primer orden. Estos dos elementos, el biológico y el social, están presentes en los estudios publicados en el libro Biodiversidad de Oaxaca. El texto, dividido en cuatro partes que van del ambiente físico a diversos aspectos culturales relacionados con la biodiversidad, es apenas una pequeña muestra —de más de seiscientas páginas tamaño carta— de lo que se ha hecho, pero sobre todo un indicador de lo que falta por hacer para conocer totalmente el estado. Todavía se requiere un enorme esfuerzo de exploración, descripción y dedicación sistemática. Las tres primeras partes tratan sobre los aspectos biológicos. La primera, “Ambiente físico y biológico”, comprende la parte geológica, fisiográfica y geomorfológica, la descripción de los suelos y el clima, así como un bosquejo de la evolución florística y los tipos de vegetación del estado. En la segunda, “Diversidad de la flora”, sólo es presentada una parte de las familias de plantas, partiendo de las pteridofitas; quedaron fuera muchos grupos vegetales como las algas, aunque se incluyeron los líquenes. El capítulo final de esta parte está dedicado a hacer un análisis de la integración del conocimiento florístico del estado. Por último, en la tercera parte, “Diversidad de la fauna”, aunque de los grupos de invertebrados sólo hay un capítulo dedicado a un segmento de los lepidópteros, para cada grupo de vertebrados se consagra un capítulo y se cierra con uno de integración del conocimiento faunístico de Oaxaca. Vale la pena resaltar que la riqueza cultural va de la mano de la biológica. En México se calcula que existen alrededor de cincuenta grupos étnicos que hablan cerca de 81 idiomas o lenguas. Ellos han generado, desde la época prehispánica, un profundo núcleo de conocimientos sobre la naturaleza y, junto con el resto de Mesoamérica, son responsables de la domesticación de un buen número de especies vegetales, muchas de las que se consumen ahora en todo el mundo. Además de conocer profundamente su entorno natural y aprovechar muchas de las especies en lo que se ha llamado medicina tradicional, el conocimiento de los grupos indígenas y campesinos, y su participación en las decisiones sobre el uso de los recursos deberían tener un lugar importante en la planeación sobre la utilización de la diversidad biológica en el país. La cuarta parte del texto, “El hombre y su entorno”, trata de los aspectos sociales relacionados con la riqueza biológica. Para un estado tan rico en diversidad cultural, ésto apenas es un pequeño acercamiento al uso y manejo tradicional de los recursos; hay un capítulo sobre el consumo de insectos y se incluye otro muy interesante sobre la clasificación de la vida en las lenguas del estado. Indudablemente, la parte etnobiológica merecería todo un volumen, que además en esta nueva disciplina seguramente está en proceso de desarrollarse. Afortunadamente para el conocimiento de la biodiversidad mundial en las décadas recientes ha surgido un amplio esfuerzo por decretar en Oaxaca áreas de conservación y protección de los recursos naturales, ya que prácticamente todos los tipos de vegetación del país están presentes en el territorio oaxaqueño. Para cualquier persona, ya sea con un espíritu naturalista o para un especialista en cualquier grupo biológico interesado en la investigación o en la toma de decisiones sobre los recursos naturales de Oaxaca, lo que falta por hacer es un reto para el cual se requiere una enorme dedicación y una importante inversión económica. El presente volumen, cuidadosamente organizado por los compiladores, que son también autores de textos centrales en el mismo, tiene una edición finamente acabada que inicia en su portada con una pintura del reconocido maestro Francisco Toledo. Además de datos fundamentales, listados de especies, mapas y fotografías a color, la extensa bibliografía al final de cada capítulo redondea un libro fundamental para todo aquel que reconoce que el conocimiento y uso sustentable de la riqueza natural de nuestro país debieran estar en el centro de nuestro proyecto de nación. |
||||
Patricia Magaña Rueda
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||||
Referencias bibliográficas:
Dirzo, R. 1999. “La biodiversidad como crisis ecológica actual. ¿Qué sabemos?”, en La evolución biológica. F. J. Núñez y L. E. Eguiarte. Facultad de Ciencias e Instituto de Ecología, unam y conabio, México, pp. 339-412.
Oyama, K. 2002. “Nuevos paradigmas y fronteras en ecología”, en Ciencias, núm. 67, pp. 20-31.
Ramamoorthy, T. P., R. Bye, A. Lot y J. Fa. 1998. Diversidad biológica de México. Orígenes y Distribución. Instituto de Biología, unam.
Rzedowski, J. 1992. “Diversidad y orígenes de la flora fanerogámica de México”, en Ciencias, núm. especial 6, pp. 47-56.
Toledo, V. 1994. “La diversidad biológica de México. Nuevos retos para la investigación en los noventas”, en Ciencias, núm. 34, pp. 42-59.
Tudge, C. 2001. La variedad de la vida. Historia de todas las criaturas de la Tierra. Crítica. Barcelona.
_______________________________________________________________
como citar este artículo → Magaña Rueda, Patricia. (2005). La guelaguetza de la biodiversidad. Ciencias 79, julio-septiembre, 74-77. [En línea]
|
||||
|
![]() |
![]() |
|
La interdisciplina desde la teoría de los sistemas complejos |
|
|
Elke Köppen, Ricardo Mansilla y Pedro Miramontes
conoce más del autor
|
||
HTML↓ | ||
|
||
Para los jóvenes de hoy es difícil concebir un mundo sin computadoras; los procesadores de texto, los controladores de la inyección de carburante en los automóviles y la web parecen haber estado siempre aquí. Cuesta trabajo creer que hubo una época en la que no había correo electrónico o chats. La generación que presenció la migración de las computadoras de los laboratorios a las universidades y los hogares es testigo de como éstas se fueron transformando de enormes cajas que ocupaban salas enteras, con aire acondicionado y control de humedad, a las laptops o pdas que cualquier yuppie o ejecutivo lleva consigo hoy día, y que multiplican por varios factores de magnitud la capacidad de cómputo de sus ancestros. Indudablemente, la reducción del tamaño de las computadoras es posible gracias a los avances tecnológicos y a la propiedad esencial de que la capacidad de cómputo no depende de los materiales de los que está hecha la computadora.
En los años cuarentas del siglo pasado, el modelo 13 de la univac estaba construido principalmente con elementos electromecánicos como relevadores y bulbos; luego, se prescindió de las partes mecánicas y se utilizaron únicamente dispositivos eléctricos. En la siguiente generación de computadoras, en los años sesentas, los procesadores se fabricaron con compuestos de estado sólido —transistores— como base material, lo que redujo drásticamente el tamaño; hoy, las computadoras comerciales se construyen con chips de silicio. Las sorpresas —o maravillas— del futuro están más cerca de lo que pensamos; ya se ha planteado la posibilidad de hacer procesadores moleculares, basados en las propiedades de complementariedad del adn, los cuales tendrían una capacidad de cómputo en paralelo tan masiva que, en principio, sería capaz de resolver problemas combinatorios cuya solución pertenece hoy al mundo de las ilusiones. Pero las posibilidades de transformar lo imaginario en realidad no conoce límites, en un futuro lejano —pero no tanto como para que los jóvenes de ahora no tengan esperanza de atestiguarlo— habrá computadoras cuánticas cuya base será la naturaleza discreta de los estados posibles de la materia a nivel ultramicroscópico. Lo anterior merece una reflexión más profunda; si la propiedad de cómputo no depende de la naturaleza material de los dispositivos que la sustentan, entonces ¿de qué depende? Entendemos dicha propiedad como la capacidad de implementar y llevar a cabo las instrucciones de cualquier algoritmo finito —un algoritmo es una serie de instrucciones que nos dice cómo se deben de ejecutar operaciones aritméticas y lógicas secuencialmente. Toda información, en particular los algoritmos y los datos que procesarán, se puede representar en forma de cadenas binarias. En un sistema binario los números se representan como una sucesión de ceros y unos, de la misma manera que en nuestro sistema numérico decimal se usan diez dígitos. Cualquier dispositivo que pueda alternar entre dos estados —prendido-apagado, falso-verdadero, etcétera— permite hacer operaciones entre números binarios. Todo esto hace que el dígito binario —bit— sea la unidad básica de almacenamiento y transmisión de información en una computadora. En 1847, George Boole desarrolló en Inglaterra el formalismo matemático, el álgebra booleana, el cual sustenta el diseño de aparatos que reciben información como cadenas de ceros y unos, la procesan y la devuelven también como cadenas binarias. Por esto, en principio, cualquier conjunto de dispositivos que puedan conmutar entre dos estados —como los bulbos, los transistores de estado sólido, las biomoléculas y los espines de los electrones— tendrá la capacidad de cómputo. Entonces, ¿a qué área de la ciencia pertenece la computación? La respuesta es tan categórica como ambigua: a todas y ninguna. La primera computadora reconocida como tal data de 1834, la Máquina analítica del ingeniero mecánico Charles Babbage. Casi un siglo después, los ingenieros eléctricos diseñaron computadoras, como la eniac de 1943, de arquitectura totalmente electromecánica y cuya primera tarea fue hacer los cálculos para fabricar la bomba de hidrógeno. Después, se pasó a la ingeniería electrónica y, como hemos apuntado, llegará el día en que veamos ingenieros biomoleculares e ingenieros cuánticos que nos maravillarán con computadoras cada vez más pequeñas y veloces. Si hacemos a un lado los detalles de los fierros —hardware— y atendemos sólo al control y funcionamiento de las computadoras, entonces la ciencia de la computación, por derecho propio, es distinta de las tradicionales. Ha surgido una disciplina que se brinca las trancas de las demás, tiene su propia dinámica y la articula a través de un lenguaje común con las otras, la matemática. Tan es así que, en la década de los treintas, el eminente matemático inglés Alan Turing sentó las bases de la computación moderna de manera totalmente independiente de la naturaleza material de los dispositivos. En resumidas cuentas, para hacer computadoras puede que sea necesario ser ingeniero, pero para hacer computación es indispensable recurrir a la matemática, ese lenguaje universal y abstracto que el intelecto humano ha desarrollado. ¿Es esto un ejemplo de interdisciplina?, gente con diversas formaciones trabajando en un mismo problema ¿es un caso de práctica interdisciplinaria?, ¿tiene la interdisciplina un lenguaje propio diferente de las disciplinas que entran en juego? Para estar en condiciones de responder estas preguntas es necesario un viaje por la historia y otro en torno al debate contemporáneo acerca de la interdisciplina. Las disciplinas Después de casi mil años de oscurantismo en los cuales, generación tras generación, la mayoría de los habitantes del mundo que hoy llamamos occidental vivían para rendir vasallaje y pagar impuestos a sus señores locales y diezmos y primicias a los representantes terrenales de un dios vengativo y violento que todo lo ve desde los cielos, en la Europa del siglo xviii, el Siglo de las Luces, el Renacimiento tiende un puente entre la Antigüedad clásica y la edad de la razón. Hasta entonces, las supersticiones habían hallado en la ignorancia su mejor caldo de cultivo, propiciando que el poder político, anclado y confundido con el de las jerarquías religiosas, avasallara a los individuos y los sometiera a los peores excesos, sobre la base del miedo generalizado a lo sobrenatural. Mediante la violencia y el crimen cotidiano, el aparato de poder había creado un estado de terror para someter a la gente. La exaltación de la razón por encima de los dogmas en el siglo xvii y su implacable ejercicio crítico fueron un fermento subversivo cuya acción desencadenó una revolución de las conciencias y produjo el racionalismo como doctrina filosófica y como actitud ante la vida. En Francia, Denis Diderot y Jean le Rond d’Alembert encabezaron el proyecto intelectual más ambicioso de cuantos se habían concebido, La Enciclopedia. Diecisiete tomos —en su primera edición— que recogen todo el saber y las ideas de la época. En la monumental obra se hace una clasificación exhaustiva de las artes, las ciencias y los oficios. A partir de ese momento quedan establecidas las fronteras entre distintos aspectos del conocimiento y es posible hablar de disciplina con la connotación moderna, como sinónimo de campo o área de trabajo. Con el tiempo, esta noción se ha transformado y evolucionado de tal forma que en nuestros días conlleva un factor institucional, de gremios académicos —cuando no de mafias—, de intereses y de poder. Hoy, las disciplinas forman un conjunto abigarrado de ciencias y campos de conocimiento y, en torno a cada una, se aglutinan grupos de profesionales que se identifican corporativamente con ellas. No obstante, las fronteras disciplinarias son borrosas. Por ejemplo, la pregunta acerca de qué son, con precisión, la biología y la sociología, no tiene respuesta. Si tomamos al azar un ejemplar de la prestigiosa revista Science, encontraremos artículos de biología estructural computacional, de ecología del bentos marino, de evolución molecular y de biofísica de membranas celulares. ¿Se puede hablar de la existencia de la biología cuando ningún especialista en cada uno de estos temas puede discutir los últimos avances de su campo con los colegas de los otros? En una ocasión, uno de nosotros tenía urgencia de saber cuáles de los nucleótidos son purinas y cuáles pirimidinas, le preguntó al primer biólogo que encontró —que resultó ser un ecólogo de vegetación tropical— quien con gran honestidad respondió que no tenía idea de que son las purinas y las pirimidinas. Otro ejemplo, los matemáticos especialistas en teoría de sistemas dinámicos forman un grupo aparte de los que trabajan teoría de representaciones de grupos y los físicos cosmólogos no se entienden con los acústicos. El fenómeno de la especialización excesiva y la fragmentación del conocimiento parece haber convertido la intención interdisciplinaria en la búsqueda utópica o nostálgica de la unidad de las ciencias. Para muchos científicos, la ciencia interdisciplinaria es, si acaso, una metáfora. Por su parte, los funcionarios académico-administrativos usan intensamente el término, pero su propósito es mucho menos altruista, lo incorporan al discurso de reforzamiento del poder y del reparto de prebendas entre grupos influyentes de administradores de la ciencia o para reducir presupuestos con el argumento de la falta de recursos. La discusión acerca de la interdisciplina tuvo su auge en los años setentas del siglo xx y se refleja en la vasta literatura publicada después de esta fecha. En 1970, la Organización para la Cooperación y el Desarrollo Económico (ocde) convocó a un gran seminario sobre el tema y pronto muchas universidades crearon áreas o centros de estudios interdisciplinarios por excelencia, como los estudios de género, los ambientales y los regionales. Aunque han pasado tres décadas, la búsqueda de una definición única, aceptable para todos, que incluya todas las formas en que se practica, sus motivos y propósitos, y que sirva para delimitar claramente entre lo que es y lo que no es interdisciplinariedad ha resultado infructuosa. Podemos partir de una certeza, la interdisciplina no existe sin las disciplinas y tampoco se puede prescindir de los especialistas. Es más, el desarrollo de las ciencias ha estado marcado por un continuo proceso de diferenciación e integración que genera cambios constantes. Muchos campos interdisciplinarios constituyen formas de especialización que poseen el potencial de, eventualmente, convertirse en nuevas disciplinas. Asimismo, la interacción de varias disciplinas, característica común en la mayoría de las definiciones de interdisciplina, puede presentar toda una gama de posibilidades cuyos casos extremos son la multidisciplina y la transdisciplina. Si algún hipotético presidente de la República Mexicana decidiera resolver los problemas del estado de Chiapas, entonces mandaría diseñar un proyecto que contemplara mejorar los caminos, la agricultura, la educación, los servicios de salud, etcétera. Para ello se ocuparían ingenieros, médicos, agrónomos y pedagogos —o militares, para no perder el control. El proyecto global es multidisciplinario en su conjunto porque involucra la participación de trabajadores de muchas disciplinas distintas, pero cada campo mantiene su método, lenguaje y perspectivas. La multidisciplina representa una yuxtaposición de disciplinas que es meramente aditiva y no conlleva la integración ni el enriquecimiento mutuo. En cambio, en la interdisciplina la colaboración traspasa las fronteras disciplinarias y, aunque los especialistas participantes mantienen la identidad de sus ramas, existe la disposición de estudiar lo necesario de las otras con el propósito de sentar las bases para una comprensión mutua. Un médico aprende el sentido de modelar con ecuaciones diferenciales y un matemático entiende cómo se propaga una epidemia, el resultado —la epidemiología matemática— trasciende tanto la medicina como la teoría de ecuaciones diferenciales. Surgen interrogantes nuevas que no se les ocurrían a los investigadores por separado, y se crean o redefinen viejos conceptos como complejidad, caos o frustración, hasta eventualmente llegar a la creación de nuevas especialidades institucionalizadas. La interdiciplina puede considerarse como el resultado de un proceso de sinergía que requiere el concurso de las partes y propicia la emergencia de cosas nuevas. Así como en la multidisciplina los campos del saber marchan en conjunto pero sin revolverse y en la interdisciplina la colaboración permite saltar los muros que separan las disciplinas, en la transdisciplina, como su nombre lo indica, las metas son mucho más ambiciosas: la desaparición de las fronteras. Por ahora, esta propuesta es la más progresista y la más cercana de aquella unidad perdida o nunca alcanzada de las ciencias. La transdisciplina penetra el sistema entero de la ciencia y, al eliminar la fragmentación arbitraria, lleva a la búsqueda ya no de leyes particulares de la física, la biología o la sociedad, sino de leyes de la naturaleza (cuadro 1). La transdisciplina suena bien, pero en la práctica no funciona. Nadie sabe cómo hacer para que las barreras entre las disciplinas desaparezcan. Hay una extensa bibliografía de pensadores que han trabajado mucho esta propuesta pero, como suele suceder cuando los conceptos no son claros, la forma del lenguaje domina al fondo del asunto. Se elaboran complicados discursos acerca de la necesidad de un metalenguaje, una especie de esperanto intelectual, que borre las fronteras y que permita una especie de libre comercio entre las disciplinas. Lindo ¿no? Pero a un médico no le vamos a hablar de metafísica si queremos salir vivos del quirófano. El problema es que aun la gente que cotidianamente trabaja de manera interdisciplinaria, y que sería la indicada para hacer propuestas constructivas, le da pereza fundamentarla conceptual y epistemológicamente. Una cosa es ser interdisciplinario en la práctica y otra ponerse a teorizar sobre esta actividad. La asociación de interdisciplina y complejidad Frecuentemente, los términos de interdisciplina y complejidad están asociados. Pero si el primero se presta a confusión, peor sucede con lo complejo, que es una de las palabras cuyo significado en la ciencia difiere de su uso habitual en el lenguaje cotidiano —otros ejemplos serían gravedad y caos. Complejo no es sinónimo de complicado y, por lo mismo, complejidad no lo es de complicación o de dificultad. Por complejidad entendemos un estado peculiar de organización de la materia cercano a la transición orden-desorden. Cuando se habla del par dialéctico simplicidad-complejidad se debe entender que ello ocurre porque la complejidad se encuentra en algún lugar entre dos simplicidades; por ejemplo, entre el orden cristalino y el desorden azaroso. En las discusiones acerca de la complejidad, también es frecuente un uso extremadamente libre y erróneo de otros términos asociados. Tal es el caso de caos. La identificación del caos con el azar, lo aleatorio o el desorden, es incorrecta y anula su riqueza conceptual y dinámica. Justamente, en la teoría de los sistemas complejos, la existencia de un comportamiento a la vez determinista y globalmente impredecible es uno de los aspectos más asombrosos y característicos. Un sistema complejo consta de componentes individuales que interactúan y, como producto de ello, pueden modificar sus estados internos. El número de componentes es suficientemente grande para que su estudio al estilo de Newton —resolviendo una ecuación diferencial por cada grado de libertad— sea imposible, y suficientemente pequeño para que el formalismo de la mecánica estadística —donde promediar proporciona sentido al uso de variables macroscópicas— no sea válido. La interacción no es lineal y, habitualmente, ésta resulta de dinámicas antagónicas. Un sistema complejo es reconocible por su comportamiento; en él suele haber autorganización, frustración y evolución hacia la zona crítica, leyes de potencia espacio-temporales y, fundamentalmente, emergencia de patrones. La emergencia es el proceso de nacimiento de estructuras coherentes y discernibles que ocurren como resultado de la interacción de los componentes individuales de un sistema complejo. Es un comportamiento colectivo que no se puede deducir de las propiedades o rasgos de los componentes del sistema. Los fenómenos emergentes pueden ser espaciales —emergencia de formas o patrones geométricos— o temporales —de conductas o funciones nuevas. A menudo, la emergencia de patrones es el rasgo distintivo entre un sistema complejo y uno complicado. En el primero, es más importante la relación entre sus componentes que la naturaleza material de los mismos. Clases de universalidad dinámica El hecho de que sistemas de naturaleza muy distinta exhiban el mismo comportamiento, independientemente de los detalles particulares de sus componentes —como en las computadoras—, sugiere la existencia de principios organizativos que actúan en el nivel mesoscópico; esto es, entre la dinámica microscópica y la macroscópica. En el año 2000, David Pines y Robert Laughlin designaron como propiedades protegidas de la materia al resultado de estos principios organizadores, y protectorados al conjunto formado por los componentes microscópicos, los principios mesoscópicos y las propiedades universales macroscópicas —por cierto, estas nociones coinciden con la propuesta del principio esclavizador de Hermann Haken en 1978. Es posible encontrar ejemplos de protectorados en diferentes niveles de organización de la materia; desde los que mencionan Pines y Laughlin —superconductividad, superfluidez en líquidos bosónicos, etcétera— hasta algunos que trascienden el ámbito de la materia inerte para adentrarse en el mundo de lo vivo. En adelante, para acentuar el carácter emergente de las propiedades protegidas, y también con el propósito de alejarnos de una nomenclatura con un fuerte sabor imperialista —protectorado fue el nombre usado por los colonialistas europeos durante buena parte del siglo xx para disfrazar su política intervencionista—, los llamaremos clases de universalidad dinámica. Así, la capacidad de cómputo resulta ser una de tales clases. Otro ejemplo es el crecimiento fractal. Como se sabe, los fractales son objetos geométricos cuya dimensión topológica es diferente de la del espacio de dimensión mínima que los aloja —cero para un punto, uno para una curva, dos para regiones planas y tres para objetos sólidos. De manera que muchos fractales tienen dimensión fraccionaria, lo que significa que llenan más espacio que el de la unión numerable de sus componentes. Cuando una partícula de polvo se pega a otra, y una tercera se agrega a las dos orginales, y así sucesivamente, comienza a formarse un agregado ramificado, pues las ulteriores partículas que se suman tienen mayor probabilidad de hacerlo en una rama periférica que de llegar al centro del cúmulo. El cuerpo que se forma es un fractal con una dimensión que se puede calcular numéricamente con facilidad. Sucede que el objeto así formado es indistinguible de los que resultan del crecimiento de una colonia de la bacteria Bacilus subtilis en un plato de Petri, o de la migración de partículas metálicas en un medio coloidal bajo la acción de un campo eléctrico o de la inyección de un líquido en un medio también líquido pero de mayor densidad —agua en glicerina. Entonces, esto es una clase de universalidad dinámica. Lo más relevante del asunto es que el modelo matemático que describe el comportamiento de uno de los integrantes de la clase, describe por igual a los demás. En este ejemplo particular dicho modelo se llama agregación limitada por difusión. El poder epistemológico del concepto de clase de universalidad dinámica es algo que vale la pena destacar. Si se puede obtener un comportamiento macroscópico común en muchos sistemas, independientemente de sus composiciones microscópicas, entonces la descripción matemática más parsimoniosa del que sea el más sencillo de modelar, en principio, es válida para todos. De hecho, esta es la razón por la cual los modelos matemáticos existen, funcionan, y lo hacen muy bien; son el retrato de un arquetipo, de una clase de universalidad dinámica. Por consiguiente, no hay razón para extrañarse de que un modelo matemático originalmente formulado para algún problema de dinámica de poblaciones, sea también efectivo en epidemiología o para la propagación de rumores; tampoco que las herramientas de la mecánica estadística sean las mismas que las de la economía global, o que la conducta de agregados neuronales se parezca a la del comportamiento social de las especies gregarias de insectos. Complejidad y disciplinas Si los sistemas que integran una clase de universalidad dinámica son indistinguibles desde la óptica de la matemática que los describe, entonces, las barreras disciplinarias son demolidas —al menos demolibles— y es posible plantear, desde la teoría de los sistemas complejos, nuevas perspectivas para la interdisciplina. Puede ser que eventualmente los sistemas y su estudio demanden interdisciplina y que el resultado sea exitoso, pero la teoría de los sistemas complejos hace desaparecer las fronteras entre disciplinas, con lo que trasciende la interdisciplina. La discusión de inter, multi o transdisciplina pierde sentido, no sólo al ser derribados los muros entre disciplinas, sino por la emergencia de leyes y principios generales que se pueden estudiar cobijados bajo clases de universalidad dinámica. Entonces, la unidad de la ciencia se dará, naturalmente, en la medida en que sea posible identificar tales clases y el metalenguaje al que aspiran quienes proponen la transdisciplina será, desde luego, el de la matemática. Resulta ingenuo pensar que las especialidades van a desaparecer con esta propuesta —incluso no creemos que esto sea conveniente— pero a la luz de la teoría de los sistemas complejos las fronteras entre el estudio de lo vivo y lo inerte, de lo natural y lo social, desaparecen. El principio unificador es la matemática de los sistemas no lineales. |
||
Existe un rechazo injustificado de ciertos círculos académicos hacia la matemática. Se afirma, con más desconocimiento que mala fe, que ésta constituye una serie de métodos cuantitativos cuando es también una ciencia de las cualidades. Es verdad que el medir es una de las operaciones primarias para relacionar la realidad física con el mundo de abstracciones que forman el universo matemático, pero restringir los alcances de esta ciencia a la búsqueda del rigor en las mediciones corresponde a la visión positivista baconiana según la cual sólo es objeto de estudio lo que puede registrarse empíricamente —es decir, medirse.
Las grandes teorías de las ciencia se han construido sobre bases matemáticas y esto no tiene que ver con la pretensión de exactitud en las mediciones sino con las posibilidades de plantear hipótesis sobre cómo ocurre algo en la naturaleza, de construir un esquema mental imaginativo que abra la puerta a la teorización y llevar las consecuencias en el ámbito de los formalismos matemáticos.
En palabras de José Luis Gutiérrez, “matematizar una disciplina es […] penetrar los objetos de estudio con las herramientas para el pensamiento que nos proporciona la matemática, es buscar en ellos lo esencial y acotar lo cont i n g e n t e, es aprender a reconocer las relaciones estructurales o dinámicas entre sus diversos elementos paradeducir lo que no es evidente”.
El éxito de la matemática como lenguaje de la ciencia está directamente vinculado con su inagotable capacidad para descubrir pautas y estructuras donde la observación d i re c ta y la estadística —justificadora de prácticamente cualquier cosa— sólo puede acumular dato s. Es cierto que la matemática también sirve para contar y medir, pero dichas tareas no son sino una ínfima parte de la enorme riqueza que tiene como método, herramienta y lenguaje.
Colofón En la época del positivismo de los albores del siglo XX, se e m p re n d i e ron en México campañas alfabetizado ras porque se consideraba que todo individuo debería saber leer y escribir para tener acceso a la cultura y a las líneas del progreso de su tiempo, en pocas palabras, para ser un hombre de su tiempo. Ahora, en los albores del XXI, eso ya no b a s ta, es necesario que todo individuo que quiera vivir su tiempo conozca las herramientas mediante las cuales la naturaleza nos revela sus secretos, los cuales se encuentran cifrados en lenguaje matemático. principio unificador es la matemática de los sistemas no lineales.
|
||
Elke Köppen, Ricardo Mansilla
Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades, Universidad Nacional Autónoma de México. Pedro Miramontes Facultad de Ciencias, Universidad Nacional Autónoma de México. |
||
Referencias bibliográficas
Álvarez, R. 2003. Los protectorados en la naturaleza: el caso de la filotaxia. Tesis de licenciatura en física. Facultad de Ciencias, unam, México. Cocho, G. y P. Miramontes. 2000. “Patrones y procesos en la naturaleza. La importancia de los protectorados”, en Ciencias, núm. 59, pp. 12-23. Klein, Julie Thompson. 1990. Interdisciplinarity; theory, and practice. Wayne State University, Detroit. Laughlin, R. B. y D. Pines. 2000. “The theory of everything”, en Proceedings of the National Academy of Sciences usa, núm. 97, pp 28-31. Mainzer, K. 1994. Thinking in complexity. Springer-Verlag, Berlin. Stanley, E. 1999. “Scaling, universality, and normalization: three pillars of modern critical phenomena”, en Reviews of Modern Physics, núm. 71, pp. S358-S366. Ramírez, Santiago (coord.). 1999. Perspectivas en las teorías de sistemas. Siglo xxi Editores-ceiich, unam, México. _______________________________________________________________
como citar este artículo → Köppen, Elke y Mansilla Ricardo, Pedro Miramontes. (2005). La interdisciplina desde la teoría de los sistemas complejos. Ciencias 79, julio-septiembre, 4-12. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |
![]() |
![]() |
|
La metafísica de lo complejo |
|
|
Juan Pablo Pardo Guerra
conoce más del autor
|
||
HTML↓ | ||
|
||
Desde hace un par de décadas, la física enfrenta una transformación no menos que formidable. En un torbellino de cambios y discusiones, esta disciplina ha visto modificada no sólo su forma de trabajo —resultado de la apropiación de un sinnúmero de nuevas tecnologías— sino, más en general, su forma de ver, interpretar y explorar la naturaleza. Esto se debe, en gran medida, al desarrollo de una nueva área de estudios, la de los sistemas complejos, que representa un conjunto de retos sin precedentes para la ciencia en general y primordialmente para la física.
Como todo gran reto, resulta poco probable que los productos del estudio de los sistemas complejos se limiten a una sola disciplina, sin derramarse a otras áreas. Dado su carácter altamente interdisciplinario, resulta inequívoco que con el paso del tiempo los logros —y fracasos— de esta nueva rama impactarán de forma significativa la manera de hacer y de relacionarse con la ciencia en su totalidad. Los sistemas complejos llegaron para quedarse y también para revolucionar.
Aunque para muchos sea relativamente fácil pensar que su estudio es una suerte de moda, algo pasajero que se disipará al cabo de algunos años, los hechos desmienten tal suposición. Existe gran cantidad de evidencia apuntando en dirección contraria; es decir, hacia la idea de que los frutos de esta nueva área formarán una parte importante del lenguaje de la física del futuro. En otras palabras, la noción finalista de que lo tradicional basta para dar lógica a la naturaleza puede ser la que esté —afortunadamente, desde mi perspectiva— en peligro de extinción. El exitoso surgimiento de áreas interdisciplinarias, por ejemplo las llamadas econofísica y sociofísica, es importante prueba de ello. Otra es el creciente número tanto de publicaciones especializadas como de artículos científicos sobre este tema; tan sólo de 1997 a 2003, el número de artículos del servidor de Los Álamos con el término complex systems pasó de 17 a 66, aunado al lanzamiento de revistas especializadas en problemas relacionados con este tipo de sistemas. Pero más allá de tendencias particulares, las crecientes demandas para la comprensión de sistemas con dinámicas enmarañadas, que en ocasiones requieren metodologías de análisis poco ortodoxas, probablemente será lo que consolide el lugar de los sistemas complejos entre la comunidad científica, pues es en este tipo de estudios donde los resultados son más prometedores y, sobre todo, más prácticos.
Lo complejo y lo complicado Antes de explorar la relevancia de los sistemas complejos es necesario entender a qué nos referimos por estas entidades. En este punto resulta esencial distinguir lo complejo de lo complicado, pues es frecuente confundir ambos conceptos.
La física desde sus inicios ha tratado con sistemas complicados. De una u otra forma, la complicación de algo no limita la posibilidad de su estudio, como lo muestra el desarrollo de la teoría cinética en el siglo xix y de la mecánica cuántica desde principios del xx. En realidad, lo complicado no es más que una forma de catalogar sistemas definidos por muchos componentes, que hacen de los cálculos una tarea interminable. Por ejemplo, al estar conformado por un gran número de parámetros microscópicos —un número que típicamente es del orden del de Avogadro—, un gas es un sistema sumamente complicado; los cálculos necesarios para encontrar su evolución precisa son, en el mejor de los casos, descomunales. Sin embargo, estudiar el comportamiento estadístico de este tipo de sistemas es relativamente inmediato, ya sea a través de la mecánica estadística o bien de la termodinámica clásica. Los físicos son, como resulta claro tras una breve revisión de un libro de texto estándar, artesanos de la aproximación, pues convierten algo sumamente complicado —un billón de billones de parámetros correspondientes a los momentos y posiciones de las partículas de un gas— en algo sumamente manejable —temperatura, presión, volumen, densidad y energía interna.
En contraste con lo complicado, los sistemas complejos tienen un comportamiento mucho más difícil de aprehender. En el año 2003, Johnson, Jefferies y Hui caracterizaron estas entidades por medio de una larga lista de propiedades, entre las que destacan la retroalimentación, la inestabilidad, muchos agentes interactuantes, adaptación, evolución y sistemas abiertos. Adicionalmente, Philip Anderson agrega la emergencia —comportamientos macroscópicos que no son lógicamente consecuentes de las leyes microscópicas— como la característica primordial de la cual surge la complejidad. Es decir, los sistemas complejos son entidades mucho más afines en términos conceptuales a una comunidad biológica que forma parte de un ecosistema que a un gas ideal en un contenedor hermético y térmicamente aislado. Los sistemas complejos son, en efecto, un nuevo paradigma para la física que sustituye a la vieja concepción de lo mecanizado, lo lineal y lo estadísticamente estacionario.
Pero, ¿cómo afectan estas cualidades la metodología de la física cuando ésta se adentra en el estudio de los sistemas complejos? Para entender esto es necesario revisar, a grosso modo, la forma en la que los físicos ven e interpretan la naturaleza.
La metafísica de lo complicado En el prefacio a la edición francesa de los Principia Philosophiae de 1644, René Descartes estableció una jerarquía que, a su parecer, define la estructura del conocimiento humano. “Toda la filosofía es […] como un árbol, donde las raíces son la metafísica, el tronco la física, y las ramas que surgen de él son todas las otras ciencias”. Después de más de tres siglos y medio de su publicación, estas palabras aún no han perdido del todo su fuerza. La obra de Thomas Kuhn y de Paul Feyerabend permiten retomar esta idea cartesiana del conocimiento y hacerla un poco más general, sobre todo actual. Si consideramos la ciencia como una actividad sustentada por una matriz social, es decir, por un conjunto de actitudes, nociones y estructuras de corte social, entonces la metafísica bien puede catalogarse como una parte íntegra de esta matriz. En terminología de Kuhn, es un componente esencial del paradigma sobre el cual se sustenta la ciencia, sea cual fuere, desde las concepciones aristotélicas hasta las interpretaciones menos inmediatas de la física cuántica al estilo de Copenhague.
La ciencia moderna, en particular la física, en gran medida depende de un conjunto de principios metafísicos, por lo que es importante identificarlos con precisión. De cierta forma, son una serie de compromisos ontológicos que han moldeado el camino de los programas de investigación científica y que forman parte de la cosmovisión de la ciencia moderna. Entenderlos representa conocer una porción probablemente pequeña pero apreciable de lo que constituye la ciencia en nuestros días.
Cabe la posibilidad de que esta metafísica no sea un conjunto pequeño de enunciados sino más bien una lista interminable. Sin embargo, y por mero pragmatismo, podemos identificar entre los elementos de esta lista a cuatro principios rectores que describen de manera aproximada los planteamientos sobre los que descansan muchas de las construcciones de la física moderna. Estos son el principio de Ockham-Newton, el de Galileo, el de los estados y el de causalidad.
El principio de Ockham-Newton, uno de los fundamentos más claros de la ciencia moderna, es el precepto de que el camino de lo simple es lo más adecuado en cualquier razonamiento. Aunque esta idea tiene sus orígenes en tiempos anteriores a los de Guillermo de Ockham (1280-1347), generalmente es atribuida a este filósofo medieval en la forma de la Navaja de Ockham. Posteriormente, Isaac Newton incorporó explícitamente una idea similar en sus reglas para filosofar, “no deben admitirse más causas de las cosas naturales que aquellas que sean verdaderas y suficientes para explicar sus fenómenos […] Por ello, en tanto sea posible, hay que asignar las mismas causas a los efectos naturales del mismo género”.
El principio de Galileo representa uno de los puntos claves en la evolución de la ciencia, la matematización de las explicaciones de los fenómenos naturales. La concreción de esto se debe en gran medida al trabajo de Galileo Galilei, quien en 1623 acuñó la famosa frase “el libro de la naturaleza […] está escrito en caracteres matemáticos”. Pasar de lo retórico a una representación matemática, estrictamente formal, fue uno de los hitos que permitieron el desarrollo de un lenguaje común para la comunidad científica, facilitando así la articulación de las actividades de investigación. Sin embargo, abrazar la matemática como el lenguaje propio de la ciencia no es algo evidente. Implica aceptar que la naturaleza tiene un lenguaje similar al de la ciencia o, en el peor de los casos, uno que puede ser traducido en términos matemáticos sin pérdidas considerables.
Si la naturaleza puede ser representada con un lenguaje matemático, es necesario saber qué es lo que se va a representar. En general, esto corresponde a los estados físicos, con los cuales se pretende describir las características de un sistema por medio de un conjunto finito de variables, lo que corresponde al principio de los estados. Por ejemplo, el estado de un gas se representa por medio del conjunto de posiciones y momentos de sus partículas, junto con la descripción de todas las interacciones que puede tener con su entorno —las fuerzas y los campos externos.
Dado un estado de un sistema físico, su evolución se determina como el efecto de una cadena causal de otros estados, el principio de causalidad. La relación se establece por un conjunto de leyes que se aplican de igual manera a todos los componentes del sistema —leyes universales. En otras palabras, una vez definido el estado de un sistema, existe un camino o, más en general, un conjunto de caminos con una estadística bien delimitada, que nos describen la evolución del sistema.
Lo complejo simplemente es diferente ¿En qué sentido son insuficientes estos cuatro principios para el análisis de los sistemas complejos? Intuitivamente, y partiendo de la idea de lo que constituye un sistema complejo, resulta medianamente claro que los principios que sustenta la física moderna son insuficientes. Basta con tomar su definición y aplicarla a un caso particular para percatarse del contraste entre la metodología tradicional de la física y las nuevas demandas a resolver. Con el fin de observar esto con mayor cuidado, tomemos uno de los casos más estudiados en los últimos años. Así, y por meras razones argumentativas, utilizaremos un mercado financiero como parámetro de comparación. Aunque no es inmediato, muchos de los argumentos utilizados para este sistema se pueden exportar a otros casos, desde la dinámica del tráfico y las transiciones de fase, hasta los estudios sobre el origen de la vida.
Los mercados financieros no son simples. La evidencia más reciente sobre su comportamiento señala que a pesar de ser entidades que se rigen por un pequeño número de reglas, muestran dinámicas que no siempre siguen patrones regulares, mucho menos patrones simples. Los trabajos de Robert Shiller revelan que no sólo son sistemas abiertos —lo que es natural, al estar inscritos en un sistema económico mayor—, sino que su comportamiento se rige fuertemente por influencias culturales, sociales y, como los llamó Alan Greenspan, conductas exuberantemente irracionales. Hasta ahora, fenómenos derivados de esta complejidad ambiental —como, por ejemplo, las caídas estrepitosas de las bolsas de valores— se han comparado con otros procesos físicos igualmente complejos, tales como las transiciones de fase. Adicionalmente, modelos evolutivos como los desarrollados por investigadores del Instituto Santa Fe parecen describir mejor la dinámica regular del mercado que los que parten de la física clásica y, hasta cierto punto, reduccionista.
Los mercados financieros no hablan matemáticas. La evidencia sobre el comportamiento de inversionistas muestra que las desviaciones de las estrategias racionales —de alguna forma, provinentes de una lógica normal— son frecuentes y de hecho constituyen una parte importante de la dinámica del sistema. Es muy probable que modelar esos comportamientos irracionales esté fuera del alcance de las técnicas tradicionales, y que se requiera utilizar otros métodos —como simulaciones computacionales y algoritmos genéticos— que aún no se han explorado plenamente, a pesar de que muchos investigadores recurren a ellos. Siguiendo la misma línea, los métodos experimentales para cuantificar y cualificar el comportamiento de inversionistas están lejos de consolidarse y demandan un gran desarrollo teórico.
No puede definirse el estado de un mercado financiero, porque al estar constituido por el comportamiento humano, sería necesario definir su estado antes que el del mercado. Desafortunadamente, nuestra comprensión de la conciencia y, en general, del comportamiento es todavía inadecuada como para poder describir el estado de un inversionista en particular. Así, una descripción por medio de estados es, en el mejor de los casos, improbable. No importa que tan cerca estemos de determinar el estado de un mercado —es decir, las acciones en mano de todos los agentes en un tiempo dado—, esa descripción no puede considerarse válida, ya que no hay nada en ella que proporcione indicios sobre el estado siguiente.
La evolución de un mercado es multifactorial. El de valores, además de verse afectado por su dinámica interna, también lo es por la información del exterior, que contribuye notablemente en las alzas o caídas de las acciones. En el mejor de los casos podemos hablar de tendencias de corto plazo, pero tratar de encontrar leyes que describan la evolución del sistema para periodos largos es sencillamente inimaginable. La retroalimentación de información, la capacidad de adaptación de los integrantes y la imposibilidad de ver lo que hay en la cabeza de cada uno de los inversionistas es una muralla que impide el avance de cualquier intento por construir una descripción causal —en el sentido de un determinismo estadístico— de los sistemas económicos en general.
Hacia una metafísica de la complejidad ¿Cómo podemos ampliar nuestra visión del mundo para dar cabida al estudio de los sistemas complejos? Es claro que muchas de las ideas que heredamos de la física, tal como las conocemos, aún tienen un valor indiscutible. Sin embargo, otras requieren revisarse si queremos construir una física de la complejidad. Entre las posibilidades que conviene explorar, está la navaja de Ockham generalizada.
Más allá de viajar por los caminos más sencillos —lo que esto quiera decir— la física del futuro tiene el enorme reto de generar una noción adecuada de lo que constituye la simplicidad. Las herramientas tradicionales, como la minimización de energía en sistemas mecánicos o la maximización de entropía en sistemas estadísticos, pueden no ser la descripción natural de muchos procesos, por lo cual añadir otras causas se convierte en una posibilidad valiosa. En este sentido, para evitar la proliferación de una miríada de explicaciones ad hoc —en el extremo, una para cada sistema complejo—, es necesario enfrentar de lleno los problemas teóricos planteados por la autorganización y por los fenómenos emergentes, para obtener una descripción sencilla pero medianamente general de los mismos.
Otro enorme reto es la construcción de una definición adecuada de complejidad. En la actualidad, existen un gran número de formas de percibir la complejidad, desde la entropía simbólica de Shannon hasta la complejidad efectiva de Gell-Man. Cada una responde a distintas necesidades —de la búsqueda de predictibilidad a la de estructura. Por esto, el desarrollo de marcos teóricos más sólidos y extensos probablemente permitiría una mejor delimitación de las distintas ideas sobre lo que es la complejidad. Además, nos facultaría para ver la importancia de factores no estudiados tan frecuentemente, como es el caso de la estructura informacional en sistemas económicos —sistemas complejos—, o en general, lo que hace al todo más que la suma de sus partes.
|
||
No es fuera de lo ordinario encont ra rse con sistemas complejos para los cuales las soluciones analíticas sencillamente no existen. Una parte importante del cambio de paradigma de lo tradicional hacia una física de lo complejo será el apro p i a rse de nueva s t e cnologías como herramientas de análisis. Por ejemplo, simulaciones computacionales de muchos agentes, algoritmos genéticos, autómatas celulares y similares.
Para finalizar
La articulación de una nueva visión del mundo nunca es algo trivial. En todos los casos re q u i e re ingenio, perspicacia y, sobre todo, un momento en la historia que se preste para una revolución. Ingenio y perspicacia tenemos en todo el mundo. Y el momento , en mi opinión, lo estamos viviendo. Los problemas de nuestros días no son los mismos que los que enfrentaban los científicos hace cuatro siglos y que sirvieron de cuna para el desarrollo de la ciencia tal y como la conocemos.
En la actualidad, las nuevas agendas políticas basadas en los ideales de d e s a r rollo sustenta b l e, participación comunitaria, pluralidad y diálogo int e rc u l t u ral nos demandan genera r n u e vos paradigmas coherentes con los problemas que enfre n tan nuestra s sociedades ya de por sí polariza d a s.
E n t re estos para d i g m a s, una ciencia de la complejidad es un impera t i vo , aunque ello implique ponerle un ro st ro enteramente distinto al actual. Sin e m b a rgo, el desarrollo de esta ciencia no es algo inmediato. Re q u i e re que nos formulemos pre g u n tas sumamente profundas sobre el mundo a construir. ¿Qué es lo que deseamos? ¿Cómo queremos obtenerlo? ¿Para quiénes es el futuro?
Las respuestas a éstas y otras muchas pre g u n tas deben servir de base p a ra una física de lo complejo. Así como Copérnico le quitó al ser humano el centro del unive rso, lo complejo debe quitarnos la idea de una y sólo una ve rdad, de una y sólo una to talidad. Y así como los árboles crecen del suelo, a nueva ciencia de lo complejo debe comenzar desde la metafísica por los c u e s t i o n a m i e n tos más básicos sobre la natura l e za, poniendo en el banquillo del acusado al reduccionismo, que hoy muestra ser más un lastre que una c o n veniencia meto d o l ó g i c a .
El futuro se muestra brillante y complejo. Es momento de apre c i a r el panorama, de ver el bosque, y de c o m e n zar la edificación de las ra í c e s de lo que podrá conve r t i rse en un frondoso elemento del conocimiento h u m a n o .
|
||
Juan Pablo Pardo Guerra
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||
Referencias bibliográficas:
Johnson, N., P. Jefferies y P. K. Hui. 2003. Financial market complexity. Oxford University Press, Oxford.
Anderson, P. 1994. Physics: the opening to complexity, en www.santafe.edu
Kuhn, T. 1999. La estructura de las revoluciones científicas. Fondo de Cultura Económica, México.
Feyerabend, P. 2000. Tratado contra el método. Tecnos, Madrid.
Heidegger, M. 2001. Hitos. Alianza Editorial, Madrid.
Newton, I. 2002. Principios matemáticos de la filosofía natural. Alianza Editorial, Madrid.
Shiller, R. 2002. Exuberancia irracional. Océano, Madrid.
_______________________________________________________________
como citar este artículo → Pardo Guerra, Juan Pablo. (2005). La metafísica de lo complejo. Ciencias 79, julio-septiembre, 18-24. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |
![]() |
![]() |
|||
de la red | ||||
La solución somos todos |
|
|||
Susana Biro
conoce más del autor
|
||||
HTML ↓ | ←Regresar al índice ⁄ artículo siguiente→ | |||
|
||||
Si los grandes problemas que aquejan a la humanidad están causando su insomnio, no pierda un solo instante más de sueño. Ahora, prácticamente sin esfuerzo alguno, todos podemos ayudar en la búsqueda de soluciones del calentamiento global, la cura del sida y hasta en la detección de vida extraterrestre.
El importante desarrollo de Internet permite que millones de computadoras personales en todo el mundo estén conectadas. Además, ya sea porque suena el teléfono, hay una junta o es la hora de la comida, todos dejamos la computadora encendida y sin utilizar durante periodos considerables. Partiendo de esto, se han desarrollado varios proyectos globales diseñados para aprovechar la capacidad de procesamiento de esas máquinas en sus ratos libres. Aquellos que están preocupados por buscar señales de vida inteligente provenientes del espacio fueron entre los primeros en percatarse de este poderoso recurso. Así, desde 1997 existe el proyecto seti@home (setiathome.ssl.berkeley.edu) que coordina miles de computadoras voluntarias de todo el mundo. Utiliza los ratos libres de sus procesadores para analizar las señales recibidas por el radiotelescopio de Arecibo en Puerto Rico, en busca de patrones regulares que pudieran indicar la existencia de otros seres como nosotros. La reciente publicación del genoma humano representa un gran paso hacia la comprensión de nuestros cuerpos y con ello la solución de múltiples problemas que puedan tener. Sin embargo, todavía nos falta conocer el proteoma humano; es decir, el mapa de las proteínas que componen nuestro cuerpo y que determinan su funcionamiento. En la actualidad existen enormes cantidades de datos con los que podríamos identificar la función de proteínas individuales, pero hay que analizarlos y esto puede tomar años. El Human Proteome Folding Project pretende reducir este tiempo de procesamiento a escasos meses reclutando la ayuda de donadores del tiempo libre de sus computadoras personales, proyecto apoyado por uno más amplio, el World Community Grid (www.worldcommunitygrid.org) patrocinado principalmente por ibm. Como nos informan en su sitio, su misión es “crear la red pública de computación más grande para el beneficio de la humanidad” y pretenden impulsar otros proyectos más adelante. El calentamiento global es solamente uno de los cambios que está sufriendo nuestro ambiente en la actualidad. Para poder hacer predicciones sobre el futuro del clima en nuestro planeta, es indispensable entender los efectos que pueden tener los diversos factores involucrados. Para ello, es necesario correr un vasto conjunto de simulaciones numéricas complejas. Justamente esto es lo que se está haciendo en el proyecto británico climateprediction.net, patrocinado por el Nacional e-Science Centre (www.nesc.ac.uk), un organismo gubernamental con una visión muy amplia de todas las actividades basadas en Internet que pueden servir para apoyar el quehacer de los científicos.
Conscientes de que dependen del interés del público general, los sitios de estos proyectos tienen información interesante sobre el tema que trabajan así como foros de discusión para los participantes. En ocasiones, incluso se le permite al voluntario apreciar los datos que ayudó a procesar. Existen muchos otros ejemplos de causas científicas a las que podemos dedicar el tiempo libre de nuestras computadoras. En todos los casos, basta con instalar un programa que se obtiene en el sitio y darnos de alta para ser requerido cuando se detecte que no estamos usando nuestra máquina. Entonces, como usuarios sólo nos resta seleccionar la causa que queremos apoyar. Como mexicanos, sería agradable encontrar proyectos que utilicen esta poderosa herramienta para atacar problemas nacionales o locales. Y como habitante del permanente embotellamiento que es la Ciudad de México, es inevitable pensar, si se hicieran simulaciones del flujo de tránsito, que se podrían buscar mejores soluciones para la vialidad de esta megalópolis. |
||||
Susana Biro
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Biro, Susana. (2005). La solución somos todos. Ciencias 79, julio-septiembre, 36-37. [En línea]
|
||||
|
![]() |
||||
de la solapa | ||||
La nuevas ciencias y las humanidades. De la academia a la política |
|
|||
Pablo González Casanova
|
||||
HTML ↓ | ←Regresar al índice ⁄ artículo siguiente→ | |||
Colección Autores, textos y temas Ciencias Sociales, Anthropos.
Instituto de Investigaciones Sociales, unam y Editorial Complutense de Madrid, 2004.
|
||||
La actual revolución científica ha sido equiparada a la que ocurrió en tiempos de Newton. Hoy ya no podemos pensar sobre la naturaleza, la vida y la humanidad, sin tomar en cuenta los descubrimientos que se iniciaron con la cibernética, la epistemología genética, la computación, los sistemas autorregulados, adaptativos y autopoiéticos, las ciencias de la comunicación, las ciencias de la organización, las del caos determinista, los atractores y los fractales. La profundidad de esos descubrimientos va más allá de sus claras manifestaciones científicas y técnicas; incluye nuevas formas de pensar y actuar que comprenden las llamadas ciencias de la complejidad y las tecnociencias.
El impacto de la nueva revolución científica altera profundamente nuestra división y articulación del trabajo intelectual, de las humanidades, las ciencias, las técnicas y las artes. Obliga a replantear, iniciado el siglo xxi, una nueva cultura general, y nuevas formas de cultura especializada con intersecciones y campos acotados, que rompan las fronteras tradicionales del sistema educativo y de la investigación científica y humanística, así como del pensar y el hacer en el arte y la política. Quien no se acerque con inquietud a la comprensión y el dominio de las nuevas ciencias como ciencias de la complejidad no sólo no entenderá —y practicará mal— el quehacer tecnocientífico, sino el artístico y el político. Este libro es una introducción a las nuevas ciencias y humanidades. Incluye la forma de acercarse a ellas desde la academia hasta la política, desde la cultura general hasta la especializada. En el terreno de las ciencias humanas busca abrir el camino a la comprensión más profunda de los conocimientos fundamentales sobre la transformación de la sociedad contemporánea actual y virtual, dominante y alternativa. El libro quiere romper tabúes del propio pensamiento crítico y alternativo. Inserta tanto a los sistemas complejos disipativos como a los autorregulados y a las hegemónicas tecnociencias del conocimiento y la información en una dialéctica que en gran medida redefine a las fuerzas dominantes. En ella las fuerzas alternativas sólo podrán imponer el interés general, el bien común o el proyecto humanista, democrático, libertador y socialista, si en la renovación de su conocimiento y de su acción dan a las nuevas máquinas de pensar-hacer, a las tecnociencias del conocimiento y la información, y a la cultura hobbesiana del poder la importancia que tienen en el diseño de un capitalismo que antes no existía. Un sistema mundial alternativo depende en gran medida del conocimiento de las nuevas ciencias como instrumento de liberación. _______________________________________________________________
como citar este artículo → González Casanova, Pablo. (2005). Las nuevas ciencias y las humanidades de la academia a la política. Ciencias 79, julio-septiembre, 78. [En línea]
|
||||
|