De la mente al conocimiento mediante la ciencia cognitiva |
El conocimiento es abordado por las ciencias cognitivas mediante investigaciones empíricas que plantean tres niveles de acceso y operación sobre la información: (1) funciones como la sensación, la percepción, la emoción, el pensamiento, la imaginación, la memoria o la voluntad, (2) representaciones del mundo y (3) características generales del conocimiento derivadas de la investigación cognoscitiva.
|
|
José Luis Díaz
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
Conocer implica tener algo en mente, específicamente tener la representación de ese algo en la mente. Esta definición de diccionario parece sencilla, pero está plagada de problemas en referencia al sujeto, al cerebro, a la información o la naturaleza de la representación. Los enigmas del acto de conocer han atareado a generaciones de pensadores y cabe preguntarse si podemos agregar algo nuevo a esta bien trabajada y aun trillada discusión. Una novedad en este campo ha sido la denominada ciencia cognitiva, un acercamiento a la mente y al conocimiento que podríamos considerar naturalista. La ciencia cognitiva surgió desde la década de los setenta con una analogía entre la mente y la computadora: la idea que la mente opera mediante el procesamiento de símbolos. Con el tiempo la ciencia cognitiva irradió en disciplinas que tomaron el apellido de filosofía cognitiva, neurociencia cognitiva, etología cognitiva, psicología cognitiva, antropología cognitiva y otras más que se convirtieron en las ciencias cognitivas. El adjetivo “cognitivo” vino a calificar un tipo de abordaje en el cual los procesos mentales deberían ser claramente identificados o medidos como variables. Las ciencias cognitivas han generado una enorme variedad de datos, resultados empíricos y modelos de interés para concebir la mente. Sin embargo, la discusión sobre el concepto central de la mente y su operación no ha llegado al consenso. Desde el núcleo de la ciencia cognitiva, además de la concepción simbolista inaugural, se han agregado al menos dos tendencias más: la orientación conexionista en la década de los ochenta y la idea de la mente como un sistema dinámico necesariamente situado en un contexto ambiental hacia finales del siglo.
Tomar al conocimiento como objetivo de análisis parece incuestionable para una ciencia que lleva en su propia denominación el conocimiento, pues la palabra cognoscitivo se aplica a todo aquello relativo y relevante para conocer. Bien se puede concebir la ciencia cognitiva como una disciplina que tiene entre sus objetos centrales elucidar el conocimiento. Desde luego que una materia con ese objeto ha existido con el nombre de epistemología desde los albores de la filosofía, y es su rama encargada de argumentar sobre la naturaleza del conocimiento, las reglas para obtenerlo o la posibilidad de lograrlo. A diferencia de ella, la ciencia cognitiva se aboca a estudiar metódica y empíricamente los procesos cognoscitivos para llegar a formulaciones teóricas y modelos generales sobre ellos. La aproximación más definitiva que aporta la ciencia cognitiva a la epistemología es una teoría naturalista del conocimiento. Las representaciones mentales son concebidas como estructuras o procesos que se encuentran en relaciones naturales con los objetos que suponen representar, porque surgen en un sistema de un alto grado de evolución, desarrollo, complejidad y maleabilidad, a saber: el sistema mente-cerebro. Estas relaciones se dan porque en el conocimiento intervienen canales naturales de información, como son los sentidos, la percepción, la memoria o el comportamiento. De esta forma la ciencia cognitiva mantendría que las leyes naturales garantizan la veracidad del conocimiento.
Información, conocimiento y conciencia Si bien el conocimiento requiere necesariamente de información, no toda información es conocimiento, sino sólo aquella organizada de tal forma que es o puede ser deliberadamente útil. La palabra información viene del latín informare, dar forma, poner en forma. Un material desorganizado o entrópico carece de forma y así el grado de la entropía negativa o neguentropía es precisamente la medida de la información en la teoría de Shannon y Weaver de 1949. Esta doctrina se restringe a los aspectos cuantitativos y físicos de la información, sin tocar los contenidos, la semántica o la cualidad de la experiencia, atributos indispensables del conocimiento. El notable matemático inglés Alan Mathison Turing se interesó durante la primera mitad del siglo XX en las operaciones de selección, transformación y uso de la información; a partir de las cuales la ciencia cognitiva estableció dos nociones fundamentales. La primera fue explicar los mecanismos mentales en términos de información; la otra considerar al cerebro, en analogía con la computadora, como un órgano especializado en operar información sobre la representación de un conjunto de símbolos. Según este concepto parecería posible unificar o avenir la mente y el cuerpo al postular que la función del sistema mente-cerebro es captar, almacenar, transformar, recrear y emitir información, pues la definición es aplicable indistintamente a la conciencia y al cerebro. La información debe fluir entre los sistemas mediante un proceso activo, es decir enérgico y costoso, que se llama propiamente comunicación, y tiene tres partes esenciales: la codificación, el mensaje y la decodificación. La acción de situar información en señales constituye la codificación y al productor de la señal le llamamos emisor, que de maneras muy variadas se engarza en actos de comunicación. A los productos de la codificación les damos el nombre de señales, en tanto elementos físicos, o mensajes en tanto significados. Una vez emitida, la señal deberá ser decodificada, es decir, recogida por un sistema receptor dotado de un receptáculo apto que desencadene su absorción, procesamiento y comprensión. Los sistemas vivos son exquisitamente sensibles a las señales que les son importantes y las discriminan sobre un fondo vasto de información menos relevante, al cual se llama ruido.
Es necesario establecer una distinción entre comunicación y lenguaje, pues este es un sector restringido aunque culminante de aquella. La palabra lenguaje identifica señales cuyo contenido de información no está en relación directa con su constitución física, por lo que es una comunicación simbólica. La importancia del lenguaje para el conocimiento es de tal magnitud que algunos cognitivistas, como Jerry Fodor, consideran que el conocimiento se almacena y expresa fundamentalmente en forma de proposiciones del lenguaje. Según los cálculos de Devitt y Sterenly, la capacidad lingüística aumenta en varios órdenes de magnitud la información que es posible procesar y transmitir. Los niveles que separan a la información de la comunicación y a ésta del lenguaje están marcados por la creciente densidad de mensajes y, concomitantemente, de conocimiento y de conciencia. No todo conocimiento es consciente, sólo aquél que se encuentra en uso de manera tal que el sistema sea capaz de sentir y modular el procesamiento de información; es decir, de tener experiencia, el hecho de vivir y pasar por algo, de conocer ese algo de forma que contribuya al adiestramiento y desarrollo. La propia palabra conciencia (del latín scientia: saber, es decir, saber que sabe de sí) implica el advertir algo que ocurre en la mente. Sin embargo, según lo ha demostrado Fred Dretske, no es necesario estar consciente de algo para que ese algo sea consciente, es decir no es necesario tener conceptos o percatarse de poseer un contenido mental, para que ese estado sea consciente. Muchos estados conscientes consisten sencillamente en que un organismo adquiere información y simplemente reacciona a ella de manera alerta y atenta. Dretske plantea además que el conocimiento puede ser identificado como el contenido de la información de la siguiente manera: una señal r acarrea la información que s es F(k).
Donde s denota un elemento demostrativo situado en la fuente u objeto de información, es decir un elemento de re o de hecho, lo que llamamos un dato. F denota un concepto, es decir, un elemento de dicto o de discurso. Finalmente k denota la base de conocimiento sobre la que opera el acarreo de información, lo cual modifica crucialmente el contenido. Si digo “mi abuela está sonriendo”, una serie de elementos o estímulos situados en la fuente de información s, en este caso una mujer haciendo un gesto determinado, factura la información necesaria para justificar en mí la creencia de que esa mujer no es otra que mi abuela y su gesto es precisamente una sonrisa (F ). El conocimiento previo de mi abuela, de los gestos que llamamos sonrisa y otros elementos del conocimiento aprendido (k) son necesarios para que se establezca la creencia dicha. El umbral más definitivo para definir al conocimiento se ubica en el momento en que podemos hablar de representación, es decir la ocasión en la cual un organismo es capaz de establecer una suplencia mental de su mundo, o mejor aún, de sectores específicos de este mundo. Del enlace funcional de una vasta red de codificaciones nerviosas en el cerebro emerge la representación cognitiva que tendría así un aspecto neurofisiológico y otro mental, el contenido mismo del acto psicológico que constituye uno de los meollos del conocimiento.
Ahora bien, los procesos mentales globales que constituyen el conocimiento están integrados por procesos más simples y discretos que se pueden estudiar y modelar como elementos asociados en un sistema dinámico, a saber, la propia mente o el sistema mente-cerebro, que puede ser abordado con herramientas cognoscitivas o neurobiológicas que inciden separadamente sobre el mismo proceso ontológico que, suponemos, es de naturaleza psicofísica.
Los operadores básicos del conocimiento La mente es un proceso complejo de información y representación en constante movimiento compuesto por facultades o funciones distintas que se traslapan para posibilitar la experiencia y el conocimiento. Las modalidades o contenidos mentales genéricos, como son la sensación, la percepción, la emoción, el pensamiento, la imagen, el recuerdo y la intención son muy distintos entre sí, pero tienen zonas de enlace y superposición en las que precisamente operan la conciencia y el conocimiento. En un conocido texto de 1983, Fodor ha sostenido que la modularidad de la mente se sustenta en el hecho de que la información parece estar parcial o inicialmente encapsulada, es específica para cada dominio, es compulsiva e innata y se procesa en sectores restringidos del cerebro.
Muchos de los módulos operativos del sistema mente-cerebro contribuyen de manera particular a la fabricación del conocimiento y constituyen mecanismos peculiares de adquisición y operación de la información cognoscitiva. Conviene hacer un breve repaso de las características cognoscitivas de las funciones mentales particulares para poder examinar luego las formas en que éstas se acoplan para constituir diversos modos de conocimiento. La atención La atención es la focalización de la mente sobre alguna pieza de información. Incluye capacidades como la localización, la manutención, la concentración o el ocultamiento. La atención es entonces un requisito para el aprendizaje, la reflexión, la decisión y la inteligencia. Más aún, al permitir la selección de aquella información que demanda o requiere procesamiento ulterior, la atención es un operador básico del conocimiento. En efecto, el poder evadir la distracción y enfocar selectivamente los recursos mentales en un objeto, problema o tarea es requisito necesario para lograr la comprensión, la memoria y la solución.
La sensación La experiencia que surge de (o corresponde a) la activación fisiológica de un sistema sensorial o de un “sentido” iniciada por un estímulo constituye un sistema elemental de conocimiento. Así, el color, timbre, olor, sabor, textura, calor o peso constituyen atributos intrínsecos de información pues acarrean o contienen detalles particulares sobre el estímulo y constituyen formas elementales de conocimiento. Se trate de sensaciones específicas que surgen cuando se activa un sistema delimitado como son los cinco sentidos clásicos o sensaciones no específicas como el hambre, la sed, la náusea, la postura, el orgasmo o las cosquillas; las sensaciones proporcionan información o elementos y datos de conocimiento básicos sobre el cuerpo y el entorno.
La percepción
La percepción es más que el registro consciente e intuitivo de sensaciones y no se explica sólo por la naturaleza del estímulo. La percepción consiste en percatarse de (y darle significado a) lo que se presenta a los órganos sensoriales mediante un proceso de reconocimiento. En la percepción están involucrados procesos cognoscitivos como la memoria, los conceptos, las creencias o los afectos. La percepción es en cierto sentido ecológica, como lo propuso James Jerome Gibson, por involucrar al medio ambiente desde un punto de vista privado, circunscrito y exclusivo. La percepción no es solamente una recepción de información, es una construcción activa que finalmente se puede considerar una acción, como el acto de mirar que involucra el despliegue armónico de múltiples facultades sensorio-motrices.
La emoción
La emoción es una experiencia híbrida de movimiento y agitación del ánimo, similar a las sensaciones por estar dotada de cualidad e intensidad, a la percepción por tener un objeto o contenido reconocible y al juicio por constituir una valoración de apetencia. La emoción tiene un claro componente cognitivo que la define como juicio fáctico que resulta de (y en) creencias o conocimientos y otro componente de apetencia o repudio que implica la apreciación del objeto. Ambos componentes dan lugar a acciones y conductas útiles o no al sujeto. En todo caso la emoción es una actividad mental representativa cuyo contenido se desencadena usualmente por un estímulo y tiende a conductas de adaptación. Así, el sentimiento subjetivo constituye no sólo un movimiento del ánimo, sino al mismo tiempo una información valiosa para la adaptación del organismo al estímulo emocionante.
El pensamiento
El pensamiento es aquella asimilación de la información que elabora, transforma, combina y recrea el material del conocimiento, particularmente (aunque no sólo) en forma de lenguaje interior. Desde este último punto de vista se pueden distinguir tres niveles progresivos del pensamiento: los conceptos, los juicios y los razonamientos.
La imaginación
La imagen mental es una experiencia de tipo sensorial similar a la percepción pero que se genera sin un estímulo sincrónico a los receptores sensoriales. A diferencia de las percepciones, las imágenes mentales son menos estables, intensas, vívidas y ricas en información; sin embargo, son más plásticas, inventivas y creativas. Las imágenes se suelen organizar en tramas narrativas que incluyen la creación de escenarios perceptibles (imaginación), el desarrollo de tramas escénicas o “soñar despierto” (fantasía), las imágenes oníricas durante el dormir (ensueño) y las imágenes generadas en estrecha alianza con la manipulación de materiales y objetos externos (juego). La imaginación constituye un recurso cognoscitivo particular para representar al mundo pues, a diferencia del pensamiento, conserva la topografía y el punto de vista.
La memoria La captación, el depósito y la evocación espontánea o voluntaria de experiencias o conocimientos pasados son ingredientes íntimamente involucrados en el conocimiento y el saber pues en ambos casos se adquiere información mediante el aprendizaje; ésta se almacena en algún tipo de huella y con el tiempo se recupera con el recuerdo. El aprendizaje y el recuerdo son posibles gracias a la activación de una “memoria de trabajo” de capacidad limitada pero de fácil acceso, que acciona la información en referencia a una “memoria de almacenaje” de inmensa capacidad y organización compleja. El recuerdo implica una búsqueda en rutas de conexiones establecidas durante el proceso de aprendizaje en referencia al significado de los hechos.
Existen recuerdos autobiográficos que reconstituyen experiencias pasadas del sujeto (memoria episódica) y recuerdos genéricos que hacen referencia al conocimiento que el sujeto tiene del mundo y se manifiestan en forma de conceptos, datos y creencias (memoria semántica) mediante el ordenamiento de los significados. En ambos casos se trata de memoria explícita o declarativa, a diferencia de la memoria implícita o de procedimiento que Polanyi ha denominado conocimiento tácito. La intención y la voluntad El conjunto de actividades mentales deliberadas, resolutivas y decisivas que tienden hacia el cumplimiento de una finalidad u objetivo implica una habilidad para elegir entre disyuntivas haciendo uso patente del conocimiento. Hay una referencia a algo valioso y ausente tanto en la formulación de la intención como en el esfuerzo hacia su cumplimiento. El apremio y el querer la realización del valor son intrínsecos a la voluntad, que de esta manera se enlaza fuertemente al sistema afectivo. La vida mental propositiva incluye la operación de varios sistemas que incluyen la motivación, el deseo y la voluntad. En su manifestación más elaborada y humana la voluntad implica la elección de una conducta a partir de la representación y cotejo de posibles cursos de acción. La solución de problemas, la inteligencia y la creatividad La solución de un problema es el procedimiento cognitivo que opera para obtener ciertas metas y objetivos a partir de no tenerlos. Involucra el conocimiento previo, la representación del problema y la puesta en práctica de ciertas estrategias y consiste en la búsqueda y el empleo de estrategias heurísticas en un mapa de decisiones sucesivas. Las estrategias más heurísticas se conforman mediante la eliminación de opciones ineficaces, una operación que es característica de la inteligencia.
La inteligencia constituye el conjunto de aptitudes innatas y adquiridas para razonar, ajustarse y adaptarse al medio, adquirir nuevas capacidades y resolver problemas desconocidos. Así, en tanto el conocimiento implica la construcción de una representación dinámica, la inteligencia involucra las habilidades en la ejecución y aplicación práctica de tal representación. La creatividad en la solución de problemas significa la habilidad en cambiar la representación y evadir la rigidez. La solución de un problema a veces surge como la repentina visualización de una estrategia alternativa y eficaz (insight, eureka), lo cual implica tanto una operación inconsciente como el acceso consciente al resultado. La propuesta de Gardner sobre ocho formas de inteligencia, cada una de ellas asociada a una forma particular de expresión, sugiere que existen habilidades mentales muy distintas y aun discordantes entre los seres humanos. Las formas generales de conocimiento Lejos de operar en aislamiento, las capacidades mentales elementales enunciadas conforman una red de interacciones que dan por resultado un segundo nivel de organización cognoscitiva: las formas genéricas de conocimiento relativamente distintas en el manejo de información, usualmente basadas o centradas en alguna o varias de las capacidades cognitivas básicas. Para Timo Airaksinen esto quiere decir que hay diversos tipos de conocimiento, lo cual es relevante para entender las formas de conocer y determinar su validez. Se trata entonces de un nivel superior de abstracción que el previo, en el cual esbozamos las operaciones cognoscitivas elementales en tanto actividades mentales genéricas y modulares sólo en apariencia. El conocimiento perceptivo
Si yo veo un río puedo afirmar con gran convicción que existe y tiene ciertas características. En este tipo de conocimiento interviene bastante más que la percepción. Hay elementos de la memoria que me permiten reconocer un río, taxonómicos que me permiten clasificarlo, estéticos que me emocionan, o de la voluntad según los cuales ese río me es significativo porque me quiero bañar en él, lo deseo pintar o lo debo cruzar. El conocimiento perceptivo es una integración a partir de la percepción y no es totalmente certero. La ciencia cognitiva ha mostrado que aun el conocimiento perceptivo no es directo, como la foto de un objeto, sino que es constructivo o descriptivo, aunque no sea lingüístico. Zeki, un destacado neurofisiólogo de la visión, ha dicho que la percepción es una construcción del sistema mente-cerebro, el cual se las arregla para mantener la identidad de los objetos eliminando las inconsistencias para categorizar sus contenidos.
La observación es una forma notoriamente constructiva y vivaz de percepción, en el sentido de que constituye un acto intencional (dirigido conscientemente) y selectivo (restringido a un aspecto de la naturaleza). Llamamos dato a “lo dado” en la observación, es decir, a una información sistematizada, sea por descripción, clasificación, medición o cualquier intervención controlada. Los resultados de este tipo de observación, que la ciencia ha llevado lejos, son datos objetivos en el sentido que cualquier observador podrá obtenerlos si reproduce el procedimiento. De esta manera la percepción se enlaza con las demás facultades cognoscitivas para engendrar una verdadera experiencia.
El conocimiento consensual Si la percepción se confirma en otros sujetos, el conocimiento adquiere mayor fuerza pues constituye un consenso, una conformidad de percepciones. La ciencia se basa en el acuerdo entre observadores para certificar la existencia de un objeto o de un fenómeno y toda la información científica se puede considerar un conocimiento por consenso constantemente sujeto a confirmación o refutación independiente. La construcción de muchos conocimientos es el resultado de un consenso entre una comunidad de personas o incluso de animales como sucede con los panales o las bandadas de pájaros. La cultura implica una serie de creencias creada cooperativamente y compartida por una comunidad. De esta forma, el conocimiento por consenso no se limita a compartir ciertas experiencias, sino también al proceso social de discutir, planear, realizar estrategias y derivar nociones en grupo.
Cuando se habla del sentido común se apela a algo más fundamental que la comunidad de las percepciones o de la cultura, se apela a un conocimiento de tipo intuitivo o axiomático común a los seres humanos. En tales supuestas verdades, sean innatas, adquiridas o reveladas, se han sustentado los derechos humanos, las políticas públicas y aun los principios filosóficos. El conocimiento admisible El conocimiento que nos parece aceptable tiene que ver con la verosimilitud que le otorguemos a nuestras fuentes de información. Sé que existen y dónde están muchos países que no he visitado o personajes históricos que no he conocido porque hay múltiples evidencias confiables que lo indican. Abrigo por la misma razón dudas sobre los fantasmas, los ovnis o la existencia histórica del indio Juan Diego porque preciso datos más firmes para convencerme de su existencia.
El conocimiento verosímil es entonces aquel que se encuentra apuntalado por conocimientos previos y puede serlo en diversos grados que van desde la sospecha hasta la certeza absoluta. Utilizamos continuamente juicios de verosimilitud al considerar un argumento, la respuesta a una indagación y para juzgar qué tanto un nuevo escenario se ajusta a los ya sabidos. El conocimiento operacional El conocimiento constituido por las habilidades y las experiencias particulares de un sujeto adquiridas en el transcurso de sus vivencias puede tener tres formas diferentes: el operacional, el almacenado y la sabiduría. El primer tipo de conocimiento aprendido es el conocimiento operacional que mediante entrenamiento deviene en pericia o virtuosismo. Se refiere al “saber hacer”, como saber abrocharse las agujetas, manejar un auto, tocar un piano, operar una computadora o una nave espacial. Es en cierta medida inconsciente y anida no sólo en nuestro cerebro sino en todo nuestro cuerpo al ser aplicado en la resolución de múltiples tareas para sobrevivir y operar sobre el medio. El desarrollo de la mano, de las habilidades motoras y la adquisición de destreza son sus características visibles más distintivas. Este tipo de conocimiento es general para las actividades humanas y constituye, según Piaget, la primera de las etapas de desarrollo intelectual en el niño que empieza a aprender manipulando cosas. El conocimiento operacional llega a su expresión más acabada en quienes llamamos peritos para las técnicas o virtuosos para las artes. A pesar de su necesario componente adquirido, hay un factor que no es conquista-do mediante el esfuerzo, es decir, la inclinación, disposición o facultad natural que predispone favorablemente al individuo para desarrollarlas: el llamado talento. A veces se llama genio a quien posee talento en gran escala, pero el genio no es sólo eso, sino el resultado de una extraordinaria aptitud en combinación con un entrenamiento igualmente excepcional.
El conocimiento almacenado y racional Otro tipo de conocimiento aprendido es el conocimiento almacenado que deviene erudición. Más que con la percepción o la conducta, tiene que ver con la capacidad de memoria de largo plazo. Un erudito es alguien quien mediante el estudio prolongado y la investigación sagaz construye una base de datos cada vez más amplia sobre temas específicos y desarrolla habilidades para recrearla, para usarla en su tratamiento o enseñanza y en la resolución de los enigmas que el asunto le depara. Usualmente denominamos intelectual al erudito que utiliza creativamente sus capacidades mentales, en especial aquellas derivadas de la razón, es decir del intelecto. Los datos de la memoria son, en efecto, material esencial para las operaciones intelectuales que se identifican con el razonamiento o el raciocinio. La Razón, con mayúscula, fue subrayada con entusiasmo por los clásicos como aquello que distingue a los seres humanos de los instintos irracionales de los animales, como la función intelectual por excelencia. Hoy
ya no se habla de la razón en las ciencias cognitivas como se hacia en la epistemología clásica; en todo caso, se la estudia en términos del razonamiento, el cual, sin duda, conserva su importancia en la génesis, manipulación y aplicación de conocimiento. También se toma como cierto que el conocimiento intelectual no está encapsulado y que se coordina con la emoción, la imaginación o la voluntad para ejercer adecuadamente sus funciones. La lógica sigue situada en la base de los procedimientos intelectuales y el carácter discursivo de la cognición humana sigue siendo un importante eje de su análisis, aunque no el único. El conocimiento sapiente El tercer tipo de conoci-miento aprendido es el co-nocimiento vivencial y disposicional que deviene sabiduría. Este tipo es el más personal en el sentido que deriva de la experiencia única de cada uno en su relación con el mundo. Villoro nos aclara que ciertas vivencias de nuestras relaciones personales o de la naturaleza, algunas experiencias de la actividad laboral, profesional o de la cultura, ciertos episodios de dificultades, enmienda de errores o periodos de descubrimiento nos dejan una enseñanza fundamental para vivir, para discernir lo valioso, discriminar entre opciones diversas y elegir lo más adecuado. Éste es un conocimiento que llega a su máxima expresión en los ancianos y, particularmente, en las personas que llamamos sabios. La sabiduría es fundamentalmente práctica pues, aunque desde antiguo se expresa en aforismos, poemas, mitos o proverbios, éstos de nada sirven si su enseñanza no es aplicada por cada uno en su propia vida. La sabiduría está más allá de las palabras, en una apertura directa de la experiencia; es el conocimiento más individual, el polo opuesto del conocimiento universal que es la ciencia.
El conocimiento intuitivo Dos voces griegas designan al conocimiento, la primera es episteme, que podemos entender como la información congregada y ordenada racionalmente, la segunda es gnosis, la percepción, el saber y la comprensión intuitivos que no sólo involucran inicialmente al intelecto, sino que, a partir de una penetración directa, en ellas se funde una amplia constelación de facultades cognoscitivas, emotivas y volitivas en una intensa certidumbre. Este tipo de conocimiento se liga con el anterior aunque el primero es fruto de experiencias vividas y profundizadas con atención, determinación y esclarecimiento creciente, en tanto que el segundo es producto de una forma de intuición o captación directa.
El conocimiento intuitivo parece ser fruto de un estado amplificado o elevado de conciencia que William James identificaba como éxtasis y que Laski caracteriza como la experiencia de contacto con el objeto mediante una facultad que parece fundir diversos contenidos mentales en una pauta intensamente significativa que la autora denomina supra-creencia (overbelief ). El psicólogo Abraham Maslow ha argumentado que este tipo de experiencias “cumbre” desemboca en un substancial desarrollo de la personalidad. Las características generales del conocimiento A pesar de lo diferentes que parecen los diversos tipos de conocimiento, hay elementos comunes que mantienen la noción general de conocer. Podemos reafirmar por lo expuesto, y en conformidad con la epistemología clásica, que el conocimiento es una relación que se establece entre un sujeto y un objeto por medio de la cual el sujeto desarrolla esquemas de representación-acción y, en consecuencia, una capacidad adecuada sobre el objeto que modifica su acción y es modificada por ésta de manera adaptativa. En esa relación intervienen de manera central un conjunto de datos por los cuales el sujeto considera que su saber es válido y una creencia, o un conjunto de ellas, que sustenta sus conclusiones como certeras. Una persona adquiere certeza de algo por medios tan diversos como la percepción, el razonamiento, la imaginación, la confirmación de otros, las fuentes de información humana, la manipulación de un objeto, la afinación de un movimiento o la vivencia de una situación. Es decir, el conocimiento se da siempre en un contexto, en una relación de circunstancias, y es este contexto la clave para que ocurra. A la luz de la ciencia cognitiva es necesario acotar y aun cuestionar la tajante distinción que ha establecido la epistemología clásica entre sujeto y objeto. Para empezar, el conocimiento dista de ser una imagen o representación pasiva de un objeto como lo sugiere la idea del conocimiento como el aprehender o capturar un objeto,lo cual requiere plantear un objeto trascendente, como sería una manzana, y un sujeto igualmente trascendente, como si fuera una cámara fotográfica, con la representación como la foto de la manzana. Para que el conocimiento pueda surgir, la criatura debe comportarse activamente hacia el objeto y la relación entre ambos consiste en una serie de operaciones gnoseológicas particulares como son percibir, atender, valorar, razonar, imaginar o manipular información referente al objeto. La representación que surge como resultado de la concatenación de estas operaciones desemboca en una modificación del comportamiento y la acción producida también manifiesta claramente el papel activo del sujeto, ya que el conocimiento se traduce en un cambio conductual del individuo que refleja el proceso mismo de adquisición de información que llamamos aprendizaje. Sólo en un proceso activo y constructivo de interacción de objeto y sujeto puede surgir el conocimiento; de hecho podría decirse que el conocimiento es un esquema dinámico de tal interacción.
La relación entre sujeto y objeto que denominamos conocimiento es una unidad dinámica con dos polos. Por un lado, el objeto determina la representación y, por otro, la conciencia y las propiedades mentales, que antaño se llamaban razón o entendimiento, también establecen la representación del objeto. Si bien una clave fundamental del conocimiento está en la representación, no son los procesos mentales particulares ligados a ella los que mejor definen el conocimiento, sino una resultante de operaciones mentales, comportamientos particulares e interacciones del organismo y el objeto en los cuales la representación opera, se desenvuelve y se acomoda. La epistemología de Francisco Varela, derivada de Merleau-Ponty, llega al punto de sustituir la representación por la enacción, es decir por una pauta sensorio-motriz de índole cognoscitiva. El objeto, como algo concreto que ocurre en el espacio-tiempo en oposición al sujeto y este como algo abstracto fuera de estos parámetros, son nociones que se disuelven en la práctica y en el tiempo real. Ambos, sujeto y objeto, pueden tomarse tanto como entidades concretas en el sentido de cosas, elementos o procesos existentes en el mundo o bien como entidades abstractas en el sentido de que se trata de términos o conceptos fabricados por el sistema mente-cerebro. Todo lo que percibimos, pensamos, inferimos, incluido el lenguaje común y el matemático, es producto de la función cerebral o la función misma que los científicos cognitivos consideran constituye la mente. Sin embargo, si queremos ser insidiosos, podremos agregar que también el cerebro es un objeto más de ese mundo de la mente, lo cual dibuja un tipo de paradoja como los que gusta plantear el epistemólogo cognitivista Douglas Hofstadter para provocar el aturdimiento. Un decálogo gnoseológico El conocimiento es representativo y simbólico La información propia de las actividades mentales es de tipo representativo o representacional; tiene contenido, es acerca de algo.
Elucidar la naturaleza de las representaciones mentales es problema central de la ciencia cognitiva. Hipótesis de la ciencia cognitiva clásica: el sistema mente-cerebro es un órgano computacional capaz de incorporar, almacenar, manipular y expresar información automáticamente en virtud de que realiza transformaciones en la representación de tal información de acuerdo a una serie finita de reglas sintácticas (Fodor). La representación mental es plástica y se manifiesta en el uso y manipulación de los objetos; es una reconstrucción variable en constante demanda de mayor certidumbre. El conocimiento es adquisitivo y constructivo Los empiristas han planteado que el conocimiento surge de los sentidos y la experiencia; los racionalistas del pensamiento y la razón.
Tomás de Aquino propuso que el conocimiento surge de la experiencia sensorial y del pensamiento al trabajar ambos en conjunto. Kant afirmó que el conocimiento tiene elementos previos a la experiencia (el contenido procede de la experiencia, la forma de la razón). Piaget muestra que el desarrollo intelectual de los niños está regido por cambios activos e impetuosos de adquisición y periodos relativamente largos de asimilación y equilibrio. Los procesos cognitivos que constituyen el conocimiento se vislumbran como transiciones de unidades estructurales que generan formas nuevas y mapas inéditos que vienen a constituir las representaciones mentales. El conocimiento es relativo y progresivo Ningún organismo reconstruye el mundo de manera absoluta. Lo que aprehendemos de los objetos son fracciones o aspectos y no esencias o integridades. Todo conocimiento individual es limitado y no puede haber conocimiento verdadero en forma absoluta y permanente.
La relatividad del conocimiento no debe conducir a un escepticismo sombrío pues tiene validez condicional y circunscrita, pero potencial y progresiva. La validez del conocimiento depende del nivel de habilidad del aparato representativo, del sistema mente-cerebro. El aparato cognoscitivo es limitado y deficiente, pero también es considerablemente perfectible. El conocimiento es metódico y normativo El método para conocer es utilizado en etapas sucesivas desde las especies inferiores hasta el desarrollo tecnológico de la especie humana.
El método es el conjunto de procedimientos de observación, asimilación y operativos desarrollados en la especie humana que han sido particularmente sistematizados, probados, pulidos y depurados por la ciencia. Para conocer todo método se vale. El método es dúctil y puede ser modificado y reinventado, pero en el conocer siempre hay un procedimiento sujeto a estimación. Idea de la inteligencia artificial: un sistema experto procede mediante la identificación de dominios y detalles técnicos o herramientas para establecer un diagnóstico de la situación. El conocimiento es activo y productivo El organismo reconstruye el mundo y está predestinado por esquemas para recobrarlo. El esquema de representación-acción es un procedimiento para examinar y utilizar el objeto.
Lo que mejor expresa si un conocimiento es verdadero o falso es el éxito o fracaso de los actos asociados con él. La conducta no sólo es el efecto de la cognición sobre el medio, sino un intermediario del organismo y su entorno. El comportamiento es clave para evaluar lo que el organismo sabe de ese mundo. El conocimiento consiste en la posesión de una técnica para la comprobación, descripción, cálculo y previsión de un objeto. Tal técnica es una propiedad cognoscitiva ligada a la inteligencia: el conocimiento viene a ser identificado como una competencia o capacidad para actuar adecuadamente (Abbagnano). El conocimiento es aplicado y mañoso El conocimiento no sólo es una acumulación de representaciones, esquemas y conceptos, sino también la generación de modelos y teorías, sistemas explicativos que interpelan, interpretan y predicen la realidad.
Las hipótesis científicas son conjeturas precisas, verosímiles y contrastables, es decir probables o refutables. El aspecto pragmático del conocimiento queda plasmado en la producción de artefactos y en la generación de tecnología. La representación establece con los artefactos una relación de enriquecimiento recíproco. El conocimiento es adaptativo y creciente
La evolución de la vida es un proceso de ganancia de conocimiento y la cognición debe de haber sido seleccionada y depurada durante la evolución por su valor adaptativo (Wuketits). El deseo de saber y su satisfacción, el conocer, son el teatro de la vida misma. El conocimiento supone una figuración del mundo, la cual permite al organismo actuar sobre el medio de forma eficiente. La función del conocimiento es la adaptación y su consecuencia la evolución. Debe de existir una correspondencia entre los objetos del entorno y las representaciones. El aprendizaje es un proceso de adaptación a nuevos contextos. Ocurre por la evolución de los recursos cognitivos necesarios para resolver los requerimientos planteados por cada situación desconocida. El conocimiento es difuso y ecológico El conocimiento se manifiesta como una interacción del sujeto y su medio que implica la totalidad del organismo.
Aunque el cerebro es determinante en el conocimiento, no se puede delimitar a un estado mental o nervioso concreto; éste sería un componente necesario pero no suficiente. En el organismo íntegro, con sus órganos, flujos de información y mecanismos conductuales reside y opera el conocimiento. Mediante la conducta el conocimiento se imprime en el medio ambiente y lo modifica. La urdimbre de los ecosistemas determina que cada organismo se constituya como un elemento acoplado con otros mediante cadenas de energía y señales. Entre ellos se establece una red pulsátil que exhibe propiedades que se adjudican a la vida y la inteligencia. Los ecosistemas, con sus complejos nichos ambientales y la intrincada red de información en la que están inmersos son la definición de inteligencia o parecen inteligentes (Bateson). El conocimiento es válido y adecuado La verdad se ha tomado en la epistemología como la adecuación entre el conocimiento y el objeto. La adecuación se define como una “correspondencia”. La verdad como correspondencia exacta entre la mente y el objeto es elusiva pues aun la descripción más exhaustiva no puede constituirse en una verdad absoluta.
La idea pragmática: la verdad enuncia la validez o la eficacia de los procesos cognoscitivos, la cualidad por la cual un procedimiento cognoscitivo resulta eficaz. La ciencia cognitiva moderna considera que la cognición está situada en un mundo de forma tal que se aboca a resolver problemas prácticos. El organismo poseería una cierta verdad en la medida en que, al contener una dosis necesaria de adecuación, su representación le es útil para sobrevivir. El aprender de los errores y corregirlos es un recurso relevante de la inteligencia. El conocer implica la formación de esquemas continuamente perfectibles en la búsqueda de acciones más eficientes y mejores respuestas a los enigmas. El conocimiento es convincente y manifiesto La verdad de un conocimiento adquiere un atributo de convicción en la conciencia humana. Cuando la convicción es subjetiva es llamada certidumbre, cuando objetiva, certeza o garantía que llamamos saber. Una seguridad subjetiva no garantizada por criterios objetivos o públicamente demostrables sucede con la fe religiosa. El conocimiento explícito en la conciencia implica que puede ser declarado de varias maneras y así volverse manifiesto también en la cultura. Los conocimientos se enlazan, se apoyan, se contrastan, se defienden y se derrotan en relación a los demás, pues son cosa pública. El conocimiento socialmente sancionado posee un intenso poder de convicción y éste es un fenómeno central de la cultura que constituye el ingrediente central de la cosmovisión. La sanción pública tampoco es garantía de veracidad y el individuo utiliza sus recursos de reflexión y crítica para deslindar el conocimiento que le parezca verdadero del falso. |
||
José Luis Díaz
Departamento de Historia y Filosofía de la Medicina, Facultad de Medicina, Universidad Nacional Autónoma de México. |
||
Referencias bibliográficas
Airaksinen, T. 1978. “Five types of knowledge”, American Philosophical Quarterly, núm. 15, pp. 263-274.
Armstrong, D. A. 1987. “Knowledge: naturalistic analyses”, en Oxford Companion to the Mind (R. L. Gregory, editor), Oxford University Press, Oxford, pp. 410-412.
Arrillaga Torrens, R. 1987. La naturaleza del conocer, Paidós, Buenos Aires.
Auxier, R. E. 1997. “Imagination and Historical Knowledge in Vico: A Critique of Leon Pompa’s Recent Work”, Humanitas, 10 (1).
Bateson, G. 1980. Mind and Nature. A Necessary Unity, Bantam, Nueva York.
Bronowski, J. 1979/1981. Los orígenes del conocimiento y la imaginación, Gedisa, Barcelona.
Bunge, M. 1981. La ciencia, su método y su filosofía, Siglo Veinte, Buenos Aires.
Devitt, M., & K. Sterelny. 1993. Language and Reality, mit Press, Cambridge, Mass.
Dretske, F. 1981. Knowledge and the flow of information, mit Press, Cambridge, Mass.
Feyerabend, P. 1974. Contra el método, Ariel, Barcelona.
Fodor, J. 1983. Modularity of Mind, mit Press, Cambridge, Mass.
2001. The mind doesn’t work that way, mit Press, Cambridge, Mass.
Gardner, H. 1993. Frames of Mind: The Theory of Multiple Intelligences, Basic Books, Nueva York.
Gibson, J. J. 1979. The ecological approach to visual perception, Houghton Mifflin, Boston.
Goldman, A. I. 2002. Pathways to knowledge: private and public, Oxford University Press, Oxford.
Hessen, J. 1940/1989. Teoría del conocimiento, vigésima segunda edición, Espasa Calpe, México.
Hofstadter, D. R. 1997. Godel, Escher, Bach: una eterna trenza dorada, Conacyt, México.
Laski, M. 1961. Ecstasy in Secular and Religious Experiences, Jeremy P. Tarcher, Los Ángeles.
Maslow, A. H. 1968/1979. El hombre autorrealizado, Kairos, Barcelona.
Piaget, J. 1975. Biología y conocimiento, Siglo XXI, México.
Polanyi, M. 1958. Personal Knowledge, Harper & Row, Nueva York.
Reisberg, D. 1997. Cognition. Exploring the Science of the Mind, W. W. Norton & Co., Nueva York.
Schrödinger, E. 1967. What is life? & Mind and Matter, Cambridge University Press, Nueva York.
Shannon, C. E. & W. Weaver. 1949. The Mathematical Theory of Communication, University of Illinois Press, Urbane, Ill.
Thompson, D’Arcy. 1942. On growth and form, 2nd ed., Cambridge University Press, Londres.
Turing, A. 1950. “Computing machinery and intelligence”, Mind, núm. 56 (236), pp. 433-460.
Varela, F. J. 1990. Conocer, Gedisa, Barcelona.
Villoro, L. 1982. Creer, saber y conocer. Siglo XXI, México.
Wuketits, F. M. 1991. “Life, cognition, and intraorga-
nismic selection”, Journal of Social and Biological Structures, núm. 14, pp. 184-189.
Zeki, S. 1993. A Vision of the Brain, Blackwell, Londres.
_______________________________________________________________
|
||
José Luis Díaz es médico cirujano y psicobiólogo, investigador de la unam, actualmente en el Departamento de Historia y Filosofía de la Medicina, Facultad de Medicina. Ha publicado 120 artículos de investigación y diversos libros.
como citar este artículo → Díaz Ortega, José Luis. (2007). De la mente al conocimiento mediante la ciencia cognitiva. Ciencias 88, octubre-diciembre, 4-17. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
Emerge una nueva disciplina: las ciencias cognitivas |
El objetivo de este artículo es dar cuenta de las ciencias cognitivas en cuanto al problema de la representación del conocimiento, lo cual toca naturalmente a la filosofía y a la concepción de la mente como una computadora. Por otro lado, se hace un análisis del descubrimiento científico a partir de la filosofía, las ciencias cognitivas así como el papel de la filosofía de las ciencias cognitivas.
|
|
Atocha Aliseda Llera
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
Como tantos otros temas de la filosofía, los antecedentes del estudio de la mente se remontan a los griegos. Durante varios siglos éste fue un tema privilegiado y exclusivo de la filosofía. Cuestiones referentes a las bases del conocimiento sobre el mundo, la capacidad humana de acceder a ese conocimiento y de generar conocimiento nuevo, así como la justificación de las ideas y su fundamentación, son todas preguntas originarias de la filosofía. La psicología incursiona en el estudio de la mente en el siglo xix, durante los inicios de la psicología experimental. En el siglo xx la decadencia gradual de la influencia del conductismo, según el cual sólo podemos estudiar el comportamiento humano por medio de respuestas a estímulos externos, y el interés cada vez más profundo por entender la memoria y fenómenos complejos como son el lenguaje y la comunicación, dieron como resultado la preferencia por teorías psicológicas que revelaran algún tipo de representación mental, sobre todo para la memoria.
En los años cincuentas emergen las ciencias cognitivas o ciencias cognoscitivas, como algunos prefieren llamarlas. Son los estudios sobre aquellos aspectos y procesos de la mente que nos distinguen como seres vivos racionales. Esta nueva disciplina o, mejor dicho, conjunto de disciplinas, están unidas por un reto común —entender la mente— y por la convicción de que la mente es sujeto de investigación en sí misma, que no es una cosa inmaterial, misteriosa e inaccesible a nuestro conocimiento.
Las disciplinas que conforman las ciencias cognitivas desde sus inicios son tanto teóricas como empíricas, la filosofía, la psicología, la lingüística, la antropología, las neurociencias y las ciencias de la computación. Los científicos cognitivos, en general, son investigadores de alguna de estas áreas y, en general, enriquecen sus trabajos con herramientas o descubrimientos de las otras disciplinas. Así por ejemplo, un lingüista que quiera dar cuenta de la adquisición del lenguaje, puede tomar herramientas formales de las ciencias de la computación para ofrecer un modelo de la estructura de las gramáticas de los lenguajes y con esto argumentar, a su vez, que su modelo es una buena representación interna de la mente. Esta investigación a su vez se confronta con la tesis conductista en psicología y propone un mecanismo más complejo y diferente del lenguaje y su adquisición. Además, refuta la tesis en antropología de la completa inmersión de los lenguajes en culturas y sociedades diversas. Esto es precisamente lo que propuso Noam Chomsky con sus gramáticas compuestas por reglas, mismas que hacen uso de un tipo de máquinas de Turing, la representación originaria del modelo de una computadora. Más aún, propone un modelo de la mente y de sus mecanismos, y se compromete con posturas filosóficas sobre la relación mente-cuerpo. Se puede pensar, por ejemplo, que a todo estado mental corresponde un estado físico, y entonces ser un reduccionista, con posibilidades de serlo todavía más si se agregan los resultados de la investigación en las neurociencias orientados a las estructuras internas de la mente y de sus mecanismos.
En toda teoría de la cognición, el diseño de un modelo de la mente involucra necesariamente un modelo de representación y manipulación del conocimiento. Así, un objetivo primordial es desarrollar herramientas para representar y organizar el conocimiento adquirido, así como caracterizar el tipo de capacidades cognitivas para manipular dicho conocimiento. El tema de la representación del conocimiento está localizado en la intersección de todas las disciplinas ya mencionadas, con la lógica y la computación como sus herramientas metodológicas principales. Su campo de acción es principalmente la inteligencia artificial, mismo que promueve el diseño de agentes inteligentes que modelen, o no, la inteligencia humana. Por un lado, la lógica ha servido a los modelos de representación del conocimiento desde sus inicios. Ya en la época moderna, en los años sesentas, la propuesta del lenguaje de programación de lisp, diseñado por John Mc Carthy y la de los “marcos” propuestos por Marvin Minsky son útiles como representaciones de mecanismos cognitivos de inferencia en lenguaje computacional. A fines de los setentas y hasta entrados los ochentas, emergieron y proliferaron nuevas lógicas en la inteligencia artificial, mismas que han servido a la representación del conocimiento en los casos de razonamiento de tipo científico y de sentido común, sobre todo este último. Por otro lado, las herramientas computacionales dieron lugar a la creación de modelos computacionales de la mente humana y se materializaron en productos específicos, como lo fue el pionero, y un tanto ingenuo, General Problem Solver (gps) de Newel y Simon, un programa que imita la resolución de problemas. Una tarea de estas dimensiones que privilegia la mente como tema de investigación y pretende estudiar los mecanismos cognitivos para adquirir nuevo conocimiento, involucra la filosofía, la psicología y la computación, las tres disciplinas constitutivas de las ciencias cognitivas. La Sociedad de las Ciencias Cognitivas y una nueva revista se constituyeron en los setentas y propiciaron que la investigación interdisciplinaria sobre la mente tomara vuelo. Así, los investigadores pioneros citados —John McCarthy, Marvin Minsky, Allen Newell y Herbert Simon— se convirtieron en los fundadores del campo de la inteligencia artificial y, junto a Chomsky, son a su vez los pilares fundadores del campo de las ciencias cognitivas. El estudio sobre la mente motivó la creación de programas e instituciones para impulsar este tipo de estudios desde una perspectiva interdisciplinaria.
Esta convergencia de disciplinas generó las condiciones para una nueva visión en el estudio sobre la mente. En esta nueva visión, la aparición de las computadoras fue otro factor fundamental. Una parte del mundo inexistente hasta entonces se convirtió en terreno fértil para el desarrollo de cálculos automáticos, simulaciones y una multitud de herramientas para las ciencias cognitivas, sobre todo para estudiar la resolución de problemas de manera automática. El lema que sostiene el trabajo de Herbert Simon: “el razonamiento científico es resolución de problemas”, se traduce en programas computacionales con herramientas propias para modelar el descubrimiento científico. Este tipo de programas son una muestra de la posibilidad de simular descubrimientos científicos de manera automática. Además, nos ayudan a entender los mecanismos fundamentales que nos permiten hacer las inferencias creativas que nos llevan a generar conocimiento nuevo. Sin embargo, en la filosofía el tema del descubrimiento científico, aun siendo una preocupación desde la antigüedad, estuvo relegado en la filosofía de la ciencia contemporánea, en la cual prevaleció la distinción entre el contexto de descubrimiento y el contexto de justificación, con la convicción de que los asuntos que tienen que ver con la justificación de teorías científicas son materia propia de la metodología de la ciencia, mientras que los asuntos sobre el descubrimiento son temas fuera de ella, quizá de interés para la psicología. En este nuevo enfoque integral sobre el estudio del conocimiento, las ciencias cognitivas le extienden la mano a la filosofía de la ciencia para que incorpore en sus estudios asuntos del contexto de descubrimiento con herramientas computacionales. A partir de este nuevo enfoque, ya no es sólo relevante el estudio del conocimiento como un objeto estático en sí mismo, sino que se vuelve necesario dar cuenta de su dinámica, esto es, explicar los mecanismos de generación de nuevo conocimiento y de la manipulación del conocimiento existente.
No olvidemos, sin embargo, que los enfoques en las ciencias cognitivas son muy variados y de amplia cobertura. Incluyen, por ejemplo, investigaciones antropológicas sobre el comportamiento de los humanos en un ambiente donde es requisito cooperar para sobrevivir, haciendo un énfasis en los aspectos culturales de los mecanismos racionales. Por otro lado, existen los estudios empíricos sobre identificación directa de las zonas cerebrales que se activan cuando estamos resolviendo problemas. El enfoque computacional sobre el estudio de la mente no está exento de críticas que apuntan a las carencias de los agentes computacionales como la intencionalidad y la qualia, dos virtudes inherentemente humanas, y que por tanto no se puede dar cuenta de una manera completa de la mente por medio de este enfoque. Esto no obsta para que sea una de las analogías fundamentales para la representación del conocimiento, la de concebir a la mente como una computadora. La mente como computadora Durante la década de los cincuentas, momento del contacto entre la filosofía y las ciencias de la computación, las teorías de la representación mental emergieron a partir de la analogía “la mente como computadora”. Esta idea sirvió de puente entre la filosofía de la mente y la inteligencia artificial. La primera proporcionó la base conceptual y la segunda las herramientas para representar y manipular el conocimiento. Una de las tesis fundamentales de las ciencias cognitivas que subyace a esta analogía es la siguiente: el pensamiento es el resultado de representaciones mentales y procesos computacionales que operan sobre estas representaciones. Dicha tesis asume que la mente posee representaciones análogas a las estructuras de datos y a procedimientos computacionales análogos a los algoritmos. Es decir, que el proceso del pensar puede ser modelado por programas computacionales. No hay un único modelo computacional de la mente, ya que tampoco hay un modelo único o un enfoque computacional único. El enfoque funcionalista, por ejemplo, asume que la mente es una máquina de Turing, que opera sobre estructuras en forma de reglas de transición entre estados. Por otra parte, el enfoque conexionista ha propuesto ideas novedosas de representación y computación que usan neuronas y sus conexiones como inspiraciones de estructuras de datos, a las neuronas disparando, y a las activaciones de neuronas como inspiraciones de algoritmos. Thagard hace una excelente introducción a estos temas. La analogía de la mente como computadora ha sido sumamente útil en el desarrollo de las teorías cognitivas y una de las áreas exploradas por excelencia es la resolución de problemas. Hay al menos tres tipos de resolución de problemas que han interesado a las ciencias cognitivas, tanto a nivel conceptual como de sus aplicaciones. Estos son los siguientes: problemas de planeación, de toma de decisiones y de explicación. Pensemos en el modelo de un robot con un cuerpo artificial. Además de contar con una clara representación del mundo a su alrededor, debe poder efectuar mecanismos de planeación. Por ejemplo, el robot quiere ir (o recibe la instrucción de hacerlo) del cuarto donde se localiza en ese momento al otro extremo del espacio. Hace uso entonces de un “mapa mental” del lugar y conforma un plan de acción para movilizarse hacia su objetivo. Más aún, al llevar a cabo el plan, el robot debe poder tomar las decisiones adecuadas en caso de que tenga más de una opción para aproximarse a su objetivo. Finalmente, para dar una explicación tanto de sus planes como de su ejecución, el robot debe construir explicaciones de sus planes de acción y de cómo las lleva a cabo. Si algo falla, el robot no puede continuar su camino, debe ser capaz de construir la explicación de que ha encontrado un obstáculo, lo cual lo lleva a modificar el plan de acción. Un robot debe poder aprender un nuevo conocimiento sobre el mundo, así como producir conocimiento nuevo. La agenda de investigación de las ciencias cognitivas es impresionante y es imposible cubrirlo todo.
¿Una lógica del descubrimiento científico? Aunque ya se contaba con computadoras en el mundo moderno, si consideramos escritos de filósofos como Popper, Kuhn, Lakatos y Feyerabend, antes de los años setentas éstas no se mencionan prácticamente en la literatura contemporánea. Sin embargo, tanto el conocimiento científico como el descubrimiento constituyeron el objeto mismo de sus investigaciones. Los científicos cognitivos, por otra parte, importaron algunos de los problemas de la filosofía de la ciencia y los resolvieron con herramientas computacionales. Un ejemplo muy claro en esta dirección de la interacción de las ciencias de la computación, la inteligencia artificial, la lógica y la filosofía de la ciencia, es el desarrollo del campo dedicado al aprendizaje por computadora, actividad que refuta en gran medida la afirmación popperiana de que “la inducción es un mito”, ya que los programas computacionales son capaces de llevar a cabo procesos inductivos exitosamente en muchos casos. Otro tipo de inferencia de gran relevancia en los estudios sobre la mente, desde un punto de vista lógico, es la abducción. Ha sido estudiada en la filosofía como una forma de razonamiento explicativo, la cual llevó al diseño e implementación de nuevas representaciones computacionales y procesos para modelar este tipo de inferencia. En general, ha habido avances significativos en lógica, y nuevos sistemas como las “lógicas no-monotónicas”. Esto significa —para la filosofía de la ciencia— que el enfoque lógico puede ser reconsiderado con una serie de herramientas mucho más poderosas y flexibles que las existentes en la época del positivismo lógico. El alcance del enfoque lógico puede extenderse de tal manera que incluya el estudio del descubrimiento, aunque por el momento tengamos que confinarnos a los casos de la ciencia normal. La pregunta de si existe una lógica del descubrimiento científico ha estado presente desde la antigüedad. Hasta mediados del siglo xix esta búsqueda estuvo guiada por un ideal filosófico fuerte, el de tratar de encontrar un sistema universal que captara la manera como razonan los seres humanos en la ciencia, desde la concepción inicial de nuevas ideas hasta su justificación última. Esto es, cubriendo todo el espectro en el continuo que va desde la idea inicial hasta su justificación como una buena teoría científica. Siguiendo el espíritu de Characteristica Universalis de Leibniz, este ideal fue el motor detrás del fin último por encontrar una lógica del descubrimiento. Se buscaba una lógica que sirviera tanto a los propósitos del descubrimiento como a los de justificación de teorías, que preservara la verdad para garantizar que el conocimiento obtenido fuera considerado como definitivo y que una vez descubierto, éste debía permanecer y, por lo tanto, ser infalible. El principal producto de esta investigación estuvo marcado por la caracterización de leyes empíricas, como el descubrimiento de enunciados universales concernientes sólo a entidades observables, tales como “todos los gases se expanden cuando se calientan”. La lógica correspondiente era la inducción, lo que ahora con más exactitud se denomina inducción por enumeración, el proceso inferencial que consiste en la generalización de un conjunto de instancias que comparten una cierta propiedad. Por ejemplo, a partir de una serie de observaciones particulares de cuervos negros, podemos inferir de manera inductiva que todos los cuervos son negros, como una ley tentativa y con posibilidad de ser refutada. Mientras tanto, es nuestra mejor inferencia y una manera de ampliar el conocimiento. Pero la inducción también incluía procesos de selección de hipótesis, como lo es la propuesta de “inducción eliminativa” de Bacon, que es, de hecho, un método para la selección de hipótesis y no tanto de descubrimiento de las mismas. No fue sino hasta 1750 cuando varios científicos y filósofos se interesaron en modelar también el descubrimiento de teorías explicativas, las que atañen a entidades teóricas. Con este propósito, se requería un mecanismo lógico mucho más complejo que el de la inducción enumerativa. La idea de aproximación a la verdad estaba detrás de la concepción de estas lógicas y, en consecuencia, fueron denominadas “lógicas autocorrectivas”. Estas lógicas suelen abarcar una teoría de base (que se funda en leyes), condiciones iniciales y una observación relevante. La meta de este aparato lógico era producir una teoría mejor y más verdadera que la anterior. Posteriormente, se dio un cambio filosófico importante al pasar del infalibilismo al falibilismo para legitimar el conocimiento. Éste ya no podía ser definitivo, sino más bien, susceptible a ser refutado a la primera de cambio. Por consiguiente, más o menos a mediados del siglo xix, se abandonó la empresa de una lógica del descubrimiento per se y se reemplazó por la búsqueda exclusiva de una lógica de la justificación, una lógica de la evaluación post hoc. Esta lógica tomaría las nuevas ideas como ya existentes y analizaría su estructura lógica y su valor empírico. Poco a poco quedó claro que un cálculo universal como el concebido por Leibniz, en el que todas las ideas pudiesen ser traducidas y mediante el cual los argumentos intelectuales se plantearan de manera concluyente, era una meta imposible de alcanzar. La meta inicial era demasiado ambiciosa. La pregunta que se buscaba tenía que ver, más bien, con una lógica de la justificación. En el siglo xx se establece una distinción clásica en la metodología de la ciencia contemporánea entre el contexto de descubrimiento, dentro del cual se gestan las ideas nuevas o teorías científicas, y el contexto de justificación, dentro del cual se analizan las teorías científicas ya producidas y tiene que ver exclusivamente con el llamado “informe de investigación concluido” de una teoría. Una pregunta que tiene que ver con estos contextos de investigación es la que atañe a indagar si son susceptibles de reflexión filosófica y permiten un análisis lógico. En el siglo xx, filósofos y metodólogos de la ciencia en general consideraban que los asuntos sobre el descubrimiento estaban fuera de los linderos de la filosofía de la ciencia. Si acaso, estos estudios podían tener algún interés desde el punto de vista de la psicología o cualquier otra disciplina encargada de investigar los mecanismos cognitivos que conlleva el estudio de cómo es que los científicos generan sus ideas. Sin embargo, el tema sobre el descubrimiento no abandonó la filosofía de la ciencia en su totalidad y no se descartó por completo la empresa de encontrar una lógica que examinara la concepción de ideas nuevas, como se constata en la obra de Charles S. Peirce, fundador de la postura filosófica conocida como pragmatismo. La inspiración computacional La obra pionera de Herbert Simon y su equipo comparten el ideal sobre el cual se fundó inicialmente toda la empresa de la inteligencia artificial, a saber, la construcción de computadoras inteligentes que se comportaran como seres racionales, algo que se parece al ideal filosófico de Leibniz, antes mencionado, y que guió la búsqueda de una lógica del descubrimiento. Sin embargo, es importante esclarecer, por un lado, en qué condiciones fue heredado este ideal y, por el otro, de qué manera fue puesto en acción. En su ensayo ¿Tiene el descubrimiento científico una lógica?, Simon se plantea el reto de refutar el argumento general de Popper, reconstruido para sus propósitos de la siguiente manera: “Si no existe, en absoluto, un método lógico para tener nuevas ideas, entonces tampoco existe, en absoluto, un método lógico para tener pequeñas nuevas ideas”. Así, Simon convierte el ambicioso objetivo de buscar una lógica del descubrimiento que revele su proceso en general, en una meta poco pretenciosa: “Su modestia [de los ejemplos que aborda] como casos de descubrimiento será compensada por su transparencia al revelar el proceso subyacente”, como lo expresa en su ensayo. (Por otra parte, a Karl Popper se le atribuye la postura filosófica que afirma que no existe una lógica del descubrimiento científico —sólo hay un método en el desarrollo del pensamiento científico, su método de “conjeturas y refutaciones”—, ni inducción ni ninguna otra cosa.) Este humilde pero brillante cambio de postura permite a Simon establecer otras distinciones sobre el tipo de problemas que se han de analizar y sobre los métodos que se usarán. Para Simon y sus seguidores, el descubrimiento científico es una actividad de resolución de problemas. Con tal fin se proporciona una caracterización de los problemas que los divide en aquellos que están bien estructurados y los que están mal estructurados, y la pretensión de encontrar una lógica del descubrimiento se concentra en los problemas bien estructurados. Aunque no hay un método preciso mediante el cual se logre el descubrimiento científico, como una forma de resolución de problemas, se puede caracterizar a manera de estrategias. El concepto clave en todo esto es el de heurística. Los métodos heurísticos del descubrimiento se caracterizan por el uso de una búsqueda selectiva con resultados falibles. Es decir, aunque no ofrecen garantía completa de que se llegará a una solución, la búsqueda en el espacio de problemas no es ciega, sino selectiva conforme a una estrategia predefinida. La heurística es pues una guía en el descubrimiento científico que no es ni totalmente racional ni absolutamente ciega. Filosofía de la ciencia computacional Hacia fines de los años ochenta, el investigador Paul Thagard propone el campo “filosofía de la ciencia computacional”, una manera de hacer filosofía de la ciencia con herramientas computacionales. Este es un punto de encuentro natural entre las ciencias cognitivas y la filosofía de la ciencia. Herbert Simon y su equipo, así como el propio Thagard y otros más, se dedicaron a diseñar e implementar programas computacionales orientados a la simulación del descubrimiento científico. Más que describir los programas particulares, analicemos los principios y las afirmaciones que caracterizan a la investigación en esta área: (1) El descubrimiento científico es resolución de problemas; (2) el estudio del descubrimiento es parte de la agenda metodológica de la filosofía de la ciencia; (3) los programas computacionales deben ser históricamente, psicológicamente y filosóficamente adecuados. El primero de estos principios va de acuerdo con el paradigma de los años setentas de ver la ciencia como una actividad de resolución de problemas, pero en este caso aplicado al descubrimiento científico. Así, el segundo principio establece que la noción misma de resolución de problemas puede ser estudiada dentro de la metodología de la ciencia. A su vez, esta interacción con otras disciplinas, como lo es la inteligencia artificial, promueve que se importen otras herramientas a la filosofía de la ciencia con el fin de modelar los aspectos y la maquinaria del conocimiento científico, incluyendo su concepción y desarrollo. Estrategias heurísticas conforman el programa de simulación computacional, ejemplos del área de aprendizaje por computadora realizan la tan rechazada inducción por Popper, y también existen sistemas que aplican la inferencia abductiva a través de los procesos epistémicos de la generación de explicaciones. En cuanto a las afirmaciones del tercer punto, apuntan a las condiciones de adecuación de los programas computacionales de descubrimiento. Idealmente, los programas computacionales que simulan el descubrimiento debieran capturar algunos aspectos de su historia, al menos aquellos que sean necesarios para una descripción coherente del desarrollo del descubrimiento. Más aún, un diseño computacional de este tipo no debiera pasar por alto que, a fin de cuentas, es una simulación del modo en que los humanos procederían. Esto implica un “compromiso cognitivo” con la computadora, dándole sentido al requerimiento de adecuación psicológica. Finalmente, el programa computacional debe ser filosóficamente adecuado, en el sentido que debe existir alguna teoría filosófica actuando como base para su epistemología. Sin embargo, estas afirmaciones pueden entrar en conflicto entre ellas. Esta discusión es ampliada por Kuipers en su obra Structures in Science. Heuristic Patterns Based on Cognitive Structures. La resultante de toda esta empresa es impresionante. Al menos en lo que concierne a la unificación de todas las disciplinas involucradas por un objetivo común, la búsqueda de los mecanismos de descubrimiento y de desarrollo de un tipo privilegiado de conocimiento, el conocimiento científico. El punto que se genera desde la metodología de la ciencia es que tanto los métodos como las estrategias heurísticas usadas en las ciencias de la computación han resultado ser aún más útiles para la inteligencia artificial y para la simulación cognitiva, y son usados por muchos de estos programas. Todas estas herramientas se han importado a la filosofía de la ciencia para dar cuenta de manera computacional de viejas nociones como lo son la explicación, confirmación, falsificación, evaluación y descubrimiento, y en general, el modelaje de la dinámica de las teorías científicas. Una crítica de toda esta empresa a considerar, sin embargo, se refleja en el debate en torno a si estos programas computacionales realmente producen nuevos descubrimientos, ya que más bien parecen producir teorías nuevas para el programa, pero no para el mundo entero, y estos descubrimientos son creados ad-hoc, más que realmente creados. Sin embargo, investigación reciente nos revela que de hecho la computadora ha sido capaz de producir nueva investigación científica. Un ejemplo muy representativo es el descubrimiento de leyes nuevas sobre proteínas de segunda estructura. Hay otros casos prominentes sobre descubrimientos taxonómicos en astrofísica, así como leyes cualitativas en la investigación de cáncer en biomedicina, que han sido descritos por Gillies. El papel de la filosofía La investigación empírica, así como los aspectos teóricos de los estudios sobre la mente tienen su fundamentación, o están fuertemente influenciados, por diversas posturas filosóficas respecto de la relación entre la mente y el cuerpo. El dualista, por ejemplo, sostiene que estamos compuestos de materia física, el cuerpo, y que por otro lado tenemos algo inmaterial —para algunos espiritual— la mente. Los dualistas dejan cerrada la puerta al estudio científico de la mente, al convertirla en algo inaccesible para nuestro conocimiento. El materialismo, por su parte, afirma que la mente no está compuesta de sustancias diferentes a las de los objetos físicos. Hay a su vez tres versiones de materialismo. El materialismo reduccionista, según el cual todo estado mental se corresponde con un estado físico en el cerebro, lo mental se reduce a lo físico. El materialismo eliminativo, por otra parte, opina que no debemos identificar todos los aspectos de nuestra vida mental con eventos físicos del cerebro. De cualquier manera, estas dos posturas se vuelcan al cerebro y afirman que lo mental se va a explicar a partir de lo físico, al menos en buena medida. No debemos descuidar lo que los neurofisiólogos tengan que decir acerca de lo que encuentren en el ámbito físico, neuronal y biológico de la mente. Hay una tercera posición, el funcionalismo, según el cual los estados mentales no son necesariamente estados físicos, pero sí son en cambio estados físicos que se relacionan entre sí mediante ligas causales que se pueden dar entre diversas formas de la materia. Así por ejemplo, podemos decir que un robot tiene ciertos estados mentales, aunque el proceso de pensar dependa en el caso humano de neuronas biológicas y en el otro caso de chips de silicón. Aun siendo un materialista de cualquier tipo, es importante detenerse en la veracidad de la tesis de la autonomía, según la cual el estudio de la cognición constituye un dominio autónomo de investigación. Para que un nuevo campo pueda emerger, tiene que justificar que de alguna manera se alimenta del estudio desde distintas disciplinas y que a su vez es un campo autónomo de investigación. Así podrá tener sus propios programas de estudios, sus congresos, sus revistas. Podría suceder, por qué no, que los principios de la cognición no puedan ser totalmente separados de los principios de lo mental o que no puedan separarse de los principios de la neurociencia y de la biología en general. El enfoque que predominó desde el inicio de los estudios en los años cincuentas, la idea de que la mente es como una computadora, presupone la tesis de la autonomía, ya que es posible caracterizar los mecanismos de raciocinio humano mediante operaciones a calcular por una computadora. Este enfoque computacionalista, sin embargo, dejó de ser el preferido en los años noventas cuando otras representaciones fueron mejor aceptadas, involucrando sobre todo el trabajo en conjunto con otras disciplinas. Hoy día la ciencia cognitiva se ha vuelto el espacio de convergencia de diversas disciplinas como la filosofía, la lingüística, la computación, las neurociencias, la antropología. La ciencia cognitiva es el estudio de la mente en lo general y, en lo particular, de la relación de la mente con el cerebro, de sus intercomunicaciones y de sus productos, procesos y pensamiento en general. |
||
Atocha Aliseda
Instituto de Investigaciones Filosóficas, Universidad Nacional Autónoma de México. |
||
Referencias bibliográficas
Aliseda, A. 2006. “Abductive Reasoning: Logical Investigations into the Processes of Discovery and Explanation”, Synthese Library, vol. 330. Gillies, D. 1996. Artificial Intelligence and Scientific Method, Oxford University Press, Oxford. Kuipers, T. 2001. “Structures in Science. Heuristic Patterns Based on Cognitive Structures”, Synthese Library, vol. 301. Langley, P. 2000. “The computational support of scientific discovery”, International Journal of Human-Computer Studies, núm. 53, pp. 393-410. Página web: www.isle.org/~langley/pubs.html Laudan, L. 1980. “Why was the logic of discovery abandoned?”, en T. Nickles (ed.). Scientific Discovery, Logic and Rationality, Reidel, Dordrecht / Boston, pp. 173-183. Simon, H. 1973. “Does scientific discovery have a logic?”, en H. Simon. Models Of Discovery, Reidel (Pallas Paperbacks). Thagard, P. 1996. Mind: Introduction to Cognitive Science, mit Press, Cambridge, Mass. _______________________________________________________________
|
||
Atocha Aliseda Llera es licenciada en matemáticas por la Facultad de Ciencias de la unam y doctora en filosofía y sistemas simbólicos por el departamento de filosofía de la Universidad de Stanford. Ha publicado y compilado libros sobre lógica y filosofía de la ciencia, ha escrito decenas de artículos en revistas y libros especializados de filosofía, además de varias reseñas y artículos de divulgación.
como citar este artículo → Aliseda Llera, Atocha. (2007). Emerge una nueva disciplina: las ciencias cognitivas. Ciencias 88, octubre-diciembre, 22-31. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
Las diez plagas de Egipto y la undécima en México: la plaga del nopal |
Las plagas han sido un eje conductor de desastre humano desde hace varios siglos. Ahora México enfrenta la invasión de la palomilla del nopal, Cactoblastis cactorum, una especie fugada de control biológico en el Caribe y otras partes del mundo que amenaza varios siglos de cultura, economía y biodiversidad basada en el nopal. La llegada de C. cactorum nos hace pensar en los efectos de la invasión de una especie exótica que tendrá consecuencias análogas a las plagas bíblicas, afectando a los nopales que constituyen un recurso natural arraigado en nuestra cultura.
|
|
María C. Mandujano, Mario Mandujano, Mayra Pérez, Habacuc Flores, Gisela Aguilar y Jordan Golubov
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
Existe un texto bíblico, más o menos conocido por todos, que alude a las temidas plagas que asolaron a los pueblos de la antigüedad. Se trata de los pasajes del libro del Éxodo, en los que el pueblo hebreo busca su liberación del reino de Egipto, luego de haber padecido la esclavitud y el hostigamiento de un faraón que se sentía amenazado por el aumento de la población judía. Moisés y el profeta Aarón, fueron designados por dios para convencer al faraón de dejarlos partir, pero como el gobernante se negó una y otra vez, dios envió diez plagas para demostrar su poder y ser temido.
La primera plaga ocurrió cuando Moisés dijo a Aarón: “Toma tu cayado y extiende tu mano sobre las aguas de Egipto” y el agua del río Nilo se convirtió en sangre; todos los peces murieron, el río quedó contaminado y el pueblo de Egipto no pudo beber más de él. Algunos científicos han descrito este episodio como un fenómeno natural de coloración de las aguas, pues a finales de junio el río se tiñe de color rojo debido a los sedimentos que arrastra la corriente. Sin embargo, las aguas no son nocivas para el hombre o los animales, como se cita en el relato. La segunda plaga fue la invasión de las ranas. Aarón extendió el bastón y su mano sobre el río y las ranas invadieron todo el país. Aunque las ranas fueron aniquiladas, por la invocación de Moisés a dios, dejaron un horrible olor en Egipto. Los mosquitos fueron la tercera plaga y le siguieron los tábanos, la peste, los brotes de úlceras y tumores, el granizo, una invasión de langostas, las tinieblas y la muerte de los primogénitos de todo ser vivo. El texto bíblico describe expresivamente los sufrimientos que padecieron los egipcios hasta que el faraón liberó al pueblo de Israel después de 450 años de estadía en aquellas tierras. La partida de los israelitas, guiados por Moisés, culmina con el famoso pasaje en el que las aguas del mar Rojo se abren para permitir la marcha de peregrinos hacia la libertad y se cierran sobre el ejército egipcio.
La palabra plaga deriva del griego y del latín y significa golpe, llaga, herida; gran calamidad que aflige a un pueblo, infortunio. El concepto de plaga es totalmente antropogénico y se basa en los propósitos del hombre. En términos ecológicos se refiere a la pérdida del equilibrio entre la relación de abundancia poblacional entre una especie consumidora (herbívoro o depredador) y una especie consumida (planta dañada o presa). El concepto de plaga ha evolucionado con el tiempo desde su significado original que designaba así a cualquier animal que producía daños, típicamente a los cultivos. Actualmente debe situarse al mismo nivel que el concepto de enfermedad. La plaga se produce como una situación en la cual una especie, por ejemplo un insecto, produce daños económicos, normalmente físicos, a intereses de las personas (salud, plantas cultivadas, animales domésticos, materiales o medios naturales); de la misma forma que la enfermedad no es el virus, el parásito o la bacteria, sino la situación en la que un organismo vivo (patógeno) ocasiona alteraciones fisiológicas en otro, normalmente con síntomas visibles o daños económicos. Por eso una especie en su lugar de origen puede no ser plaga, pero al cambiarla de lugar puede sin lugar a duda convertirse en plaga y generar terribles consecuencias. El ser humano en sí mismo, en relación con el medio ambiente puede considerarse una plaga. Las plagas, en el sentido de enfermedades epidémicas que arrasan con poblaciones enteras han sido primordiales en la historia de la humanidad: la peste y el cólera en Europa y en Asia medievales; la viruela, el sarampión y el tifo entre los mexicas; la sífilis en Italia y en Francia de los siglos xv al xviii; en la actualidad, la fiebre del Nilo, la influenza, el ébola y el sida. Es interesante que el efecto devastador de la interacción depredador-presa, patógeno-hospedero o planta-herbívoro pueda tomar el nombre de plaga o, del elegante, control biológico; todo depende de si el objetivo antropocéntrico es que nuestra especie focal de interés permanezca o desaparezca.
En otro pasaje bíblico del libro Eclesiastés (1, 9-10) se escribió: “¿Qué es lo que fue? Lo mismo que será. ¿Qué es lo que ha sido hecho? Lo mismo que se hará; y nada hay nuevo debajo del sol. ¿Hay algo de que se puede decir: he aquí esto es nuevo? Ya fue en los siglos que nos han precedido”. Tal es el caso de las plagas. Las diez plagas de la Nueva España Fray Toribio de Benavente, conocido como Motolinía, trató de explicar el colapso demográfico que siguió al “descubrimiento” de América y a la conquista de los pueblos indígenas (en contraposición con la “historia negra” iniciada por Fray Bartolomé de las Casas) al mencionar que además de las guerras, terribles epidemias y enfermedades introducidas por los europeos (viruela, fiebre tifoidea, disentería, tuberculosis, sarampión, etcétera) o por los esclavos negros importados (malaria y fiebre amarilla), que casi diezmaron las poblaciones americanas, dios envió contra los pueblos nativos diez plagas, al igual que en el Egipto idólatra, como castigo por los graves pecados cometidos: “Hirió Dios y castigó esta tierra, y a los que en ella hallaron, así naturales como extranjeros, con diez plagas trabajosas. La primera fue de viruelas […] la cual enfermedad nunca en esta tierra se había visto, y a esta sazón estaba esta Nueva España en extremo muy llena de gente; y como las viruelas se empezasen a pegar a los indios, fue entre ellos tan grande enfermedad y pestilencia en toda la tierra, que en las más provincias murió más de la mitad de la gente y en otras poco menos […]. Murieron también muchos de hambre, porque como todos enfermaron de golpe, no se podían curar los unos a los otros, ni había quien les diese pan ni otra cosa ninguna […]. La segunda gran plaga fue los muchos que murieron en la conquista desta Nueva España, en especial sobre México […]. La tercera plaga fue una gran hambre […]. La cuarta plaga fue de los calpixques, o estancieros, y negros, que luego que la tierra se repartió, los conquistadores pusieron en sus repartimientos y pueblos a ellos encomendados, criados o sus negros para cobrar los tributos y para entender en sus granjerías […]. En los años primeros eran tan absolutos estos calpixques que en maltratar a los indios y en cargarlos y enviarlos lejos de su tierra y darles otros muchos trabajos, que muchos indios murieron por su causa y a sus manos, que es lo peor”.
Motolinía continúa la enumeración de plagas, otorgando al concepto mayores alcances pues incluyó: el pago de enormes tributos, la explotación del oro, la edificación de la ciudad de México, el esclavismo, la minería en general y “las divisiones y bandos que hubo entre españoles que estaban en México, que fue la que en mayor peligro puso la tierra para se perder”.
Un tesoro verde En México estamos cerca de experimentar algo similar a lo que fue relatado en el Éxodo y las historias antiguas mexicanas. El actor principal de esta problemática es una pequeña mariposa nocturna (una palomilla) que comenzó su recorrido hace 86 años. Este insecto se llama Cactoblastis cactorum (un lepidóptero de la familia Pyralidae) conocida comúnmente como palomilla del nopal. La plaga de la palomilla del nopal es capaz de afectar a todos los nopales con los que interactúa, en todas las localidades que ha colonizado por vía natural o por introducción. ¿En qué afectaría Cactoblastis cactorum a nuestro pequeño y cotidiano mundo? En México, el nopal es una entidad multifacética. En la tradición gastronómica de origen prehispánico podemos encontrar nopales en todos los mercados mexicanos (los tianguis); comprar los nopalitos para cocinarlos como verdura y preparar un sinfín de platillos dulces o salados, como platillo principal o como guarnición, entre otros. Al mismo tiempo, estamos tan acostumbrados a encontrar tunas en la temporada —las verdes y las rojas, a precios de regalo, peladas y frías, listas para comerse— que es imposible imaginar que esto pudiera desaparecer. En los puestos de especialidades de hierbas y condimentos encontramos los xoconostles, ligeramente más caros y selectos, que sirven en platillos espectaculares como moles de olla y golosinas, o la tuna del nopal cardón para preparar dulces extravagantes como el queso de tuna y licores. En la iconografía nacional, el nopal está representado en el lábaro patrio, donde se observa una rama de nopal sobre la que se posa el águila real devorando la serpiente. Este ícono de la patria ha evolucionado de numerosas representaciones de los códices, como el Códice Mendoza o Mendocino y la historia-leyenda sobre la señal que Huitzchilopoztli dio a los mexicas para indicar el lugar en donde había de fundarse la gran Tenochtitlan. Desde el punto de vista antropológico, el uso del nopal se remonta a la historia del hombre en América; se sabe que ha sido usado como alimento humano (e incluso las semillas, que al ser rescatadas de las heces fecales de humanos, se usaban molidas para preparar pinoles), como forraje para animales y en la creación de cercos vivos que hacen la función de reservorios de alimentos seleccionados cuidadosamente. En la parte ecológica está documentado que el nopal alberga especies de aves durante el anidamiento, como la urraca del cactus. Sinnúmero de especies como el venado, la liebre, el conejo, la tortuga del desierto, diversas ardillas y ratones, el coyote, el cuervo rey, los jabalíes, hormigas, el ganado vacuno, caprino, mular y asnar, entre otros, consumen sus frutos, tallos y semillas; gran diversidad de abejas nativas se alimentan de su miel y su polen, y diversas especies de insectos dependen exclusivamente del nopal para su alimentación o abrigo (figura 1). Desde tiempos prehispánicos, el nopal también ha tenido usos medicinales. Según el Códice Florentino, elaborado por fray Bernardino de Sahagún, se descortezaban y molían las hojas del árbol de las tunas para dárselas a beber en agua a las mujeres que tenían problemas durante el parto “si la criatura venía ladeada o mal acomodada”. |
||
A pesar de los diversos usos y el arraigo del nopal en nuestra cultura, es paradójico que no tengamos un inventario real de sus variedades y, para sorpresa de muchos, el nopal no es una entidad “única” como puede pensarse. En realidad se trata de una entidad compuesta por un complejo de especies silvestres, cultivadas y fomentadas, las cuales, en un recuento rápido, se acercan a la cifra de 360. La revisión más reciente sugiere que hay cerca de 200 especies en América, 83 especies silvestres en México, considerado el centro de origen y diversidad del nopal, unas 11 especies cultivadas y cerca de 150 variedades no descritas de nopales usados y presentes en las huertas familiares y que no tienen claramente un ancestro silvestre. Esto constituye un conjunto de 250 entidades de nopal distintas, que son únicas de México. Este conjunto de entidades pertenece a la familia de las cactáceas dado su carácter suculento y la presencia de areolas. Los nopales reciben el nombre científico de Opuntia. El nombre, de acuerdo con los taxónomos, data de hace 438 años cuando se describió la primera especie, la cual recibió el nombre de Opuntia plinii, aparentemente en honor del nombre del pueblo griego Opunte (en Lócride, Grecia), donde Plinio, describió una planta del viejo mundo la cual se parecía mucho a los nopales actuales.
Ahora bien, hablemos de su valor desde el punto de vista económico. ¿Cuánto nopal hay en México y qué ingresos genera? Aunque es una pregunta muy difícil de contestar, una estimación gruesa, proporcionada por la voz popular, sugiere que existen tres millones de hectáreas de nopaleras silvestres, en un territorio de dos millones de kilómetros cuadrados (lo que representa 1.5% de nuestro territorio nacional). Sin embargo, los datos de herbario sobre ejemplares y localidades donde encontramos especies de nopal son en su mayoría antiguos (datan del siglo pasado), hay pocas colectas (unas cinco mil) y muchas son de la misma especie. No es difícil imaginar que en 200 años el territorio prístino en cualquier tipo de vegetación, incluyendo las nopaleras, se ha reducido considerablemente, si atendemos a la demanda de recursos y el crecimiento poblacional en núcleos urbanos y rurales. Aunado a lo anterior, la dificultad de desmontar el desierto y la presión por abrir terrenos a la agricultura extensiva que sigue en aumento, seguramente inciden en la disminución de las áreas nopaleras.
Historia de un recurso La importante actividad alrededor del recurso nopalero fue advertida por algunos inversionistas y comerciantes, así lo confirma el uso de la grana cochinilla como pigmento natural. En el año 1530 la grana fue incorporada al sistema de tributos reales, y para 1550 el consumo en Europa ya se había generalizado. El carmín de la cochinilla se utilizaba para teñir los trajes de los nobles, los eclesiásticos y también las chaquetas del ejército británico, lo que dio pie a un verdadero auge de la industria de la grana. Por la cantidad de cochinilla con que la intendencia de Oaxaca surtía a Europa se pagaban 4 000 zurrones, o 32 000 arrobas que, contando la arroba a 75 pesos, valían 2 400 000 pesos, de acuerdo con estimaciones de Carlos Martínez Shaw. Esto permitía vislumbrar la alta producción y la baja inversión que representaba el cultivo de este insecto. La grana cochinilla, Coccus cacti (Dactylopius coccus, hemíptero de la familia Dactylopiidae) es un insecto parásito del nopal. Del cuerpo desecado de la cochinilla hembra se obtiene el ácido cármico, colorante rojo. Hacia 1870 el cultivo de la grana perduró en Oaxaca y posteriormente en Ocotlán, donde sobrevivió hasta 1910. La decadencia de la grana impactó negativamente a los pueblos oaxaqueños, que basaban su economía en la cochinilla y debieron replegarse a una economía de subsistencia y autoconsumo, perdiendo su potencial comercial. A pesar de esta decadencia sobrevivieron algunas industrias textiles caseras que abastecían la demanda interna. Piña Luján asevera que en 1932 se exportó por última vez la cochinilla. La grana cochinilla era llamada nocheztli por los mexicas, así nos lo hizo saber fray Bernardino de Sahagún, el primer estudioso que sistematizó las cosas de la Nueva España: “Al color con que se tiñe con la grana que llaman Nocheztli, quiere decir sangre de tunas, porque en cierto género de tunas se crían unos gusanos que llaman cochinillas apegados a las hojas, y aquellos gusanos tienen una sangre muy colorada; ésta es la grana fina. Esta grana es conocida en esta tierra y fuera de ella, y hay grandes tratos de ella; llega hasta la China y hasta Turquía, casi por todo el mundo es apreciada y tenida en mucho. A la grana que ya está purificada y hecha en panecitos, llaman grana recia o fina; véndenla en los tianguez hecha en panes para que la compren los pintores y tintoreros. Hay otra manera de grana baja, o mezclada, que llaman tlapanechtli, que quiere decir grana cenicienta, y es porque la mezclan con greda o con harina; también hay una grana falsa que también se cría en las hojas de la tuna o ixquimiliuhqui, que daña a las cochinillas de la buena grana y seca las hojas de las tunas donde se pone; también ésta la cogen para envolverla en la buena grana, para venderla, lo cual es grande engaño”.
La fuerza cultural de la grana resurgió con el movimiento muralista después de la Revolución iniciada en 1910, con Diego Rivera a la cabeza, quien recupera formas antiguas de utilización de los tintes naturales. Sus murales se conservan en perfecto estado porque utilizaba como aglutinante la baba del nopal, igual que los zoques en Chiapas, para recubrir los muros. El Coccus cacti fue muy utilizado por los pintores, así lo demuestra el hecho de que la prestigiada compañía inglesa Winsor & Newton, en su catálogo de pigmentos Composition et permanence des couleurs pour artistes, incluye en su lista de pigmentos y su composición el “carmin fin” es decir la grana cochinilla. Plaga en tierra ajena El hecho histórico-biológico que más nos interesa en este breve relato de la importancia de la grana cochinilla, es que dos variedades de nopal, en este caso Opuntia dillenii (Opuntia stricta var. dillenii ) en 1839 y Opuntia inermis en 1860, fueron llevadas de México a Australia con el fin “humanista” de producir pigmento carmín suficiente, ya que en el mercado de México los enemigos naturales de la grana cochinilla y del nopal hacían poco redituable la producción a bajo costo, ya que se tenía que incurrir en otros insumos. Pero la cochinilla ya había adquirido carta de nacionalización en otros países que se convertirían en importantes productores de este tinte. Por ejemplo, Bouvier informa que en el año de 1913 se introdujo este cultivo en Sudáfrica. En Australia sucedió algo imprevisto, la densidad de nopal no dejaba espacio para nada. Ecofisiólogos han estimado que la expansión del nopal en los terrenos australianos podía haber alcanzado una tasa de colonización de dos hectáreas por hora. ¿A qué se debe? Bueno pues en su hábitat de origen las especies están inmersas en una red de enlaces, en la que se reproducen y son comidas y sujetas a muchas presiones ambientales, en donde vale el dicho ecologista popular “tienen enemigos naturales”, que para las plantas son los herbívoros. En un lugar nuevo, en donde nunca ha estado, la introducción de una especie que logra establecerse enfrenta un ambiente libre de enemigos naturales, en donde la especie tiene la capacidad predicha por el modelo más antiguo de la ecología de poblaciones para crecer sin límite. Antes de que los australianos dieran a conocer al mundo el problema de la invasión incontrolable de nopal, como se mencionó, ya otros “humanistas” decididos habían introducido nopal en Sudáfrica. En la década de los treintas, transcurrido un lapso razonable, ocurrió la misma tragedia que en Australia. ¿Cuáles son los atributos ecológicos que tiene el nopal para poder establecerse con esa capacidad? ¿Nos encontramos acaso frente a un tipo de demonio de Darwin? Son especies con longevidad infinita, reproducción sexual con sistemas de producción de semillas tan comúnmente autógamas como xenógamas, que además las producen en cantidades infinitas y de gran longevidad, con o sin un polinizador, con la capacidad de producir también progenie por vía clonal o vegetativa —cada penca (tallo) que cae al suelo genera una nueva planta—, de tal forma que cada planta puede llegar a ser inmortal. Entonces, la conquista de grandes territorios se debe a que, ciertamente, es el demonio de Darwin. Hay numerosos relatos en los que la gente cuenta que se fue a la segunda Guerra Mundial porque ya no podía ni entrar a su casa, ni mover su coche pues eran “devorados” por el nopal. Seguramente se hubiera cubierto la superficie completa de las regiones en las que el nopal fue introducido de no ser por el resultado de una investigación que dio con un enemigo natural del nopal: el control biológico. La búsqueda del enemigo natural en los países de origen de esta cactácea arrojó a dos candidatos estelares: la cochinilla y la palomilla del nopal. Los candidatos fueron llevados a Australia, pero el control más exitoso era el que se localizó en 1925 (aunque ya se conocía al insecto desde 1885) en la provincia argentina de Tucumán: la palomilla del nopal Cactoblastis cactorum. Esta mariposita tiene una serie de atributos muy interesantes. La puesta de las hembras tiene la forma de un bastón que mimetiza perfectamente a una espina. A diferencia de muchos lepidópteros —que cuando ponen sus huevos en pencas o flores y nacen las larvas se reparten, viven solitarias y se alimentan del nopal— las larvas de Cactoblastis cactorum marchan juntas y consumen de una a cinco pencas por familia al día, hasta completar su talla y pupa (capullo) el cual cae al suelo. Hubo una introducción de aproximadamente 3 000 huevecillos de C. cactorum en Australia y, a partir de esta humilde contribución, la “plaga de nopal” fue controlada en 12 años. Las larvas de C. cactorum son hermosas y muy llamativas, de color miel al nacer, se tornan salmón y finalmente se vuelven rojas con bandas negras punteadas y quizá deban su color al hecho de que rara vez se les encuentra fuera de la penca del nopal. Al momento de nacer perforan la penca y entran para consumir el tejido parenquimatoso de la planta, dejando únicamente la cutícula, y no vuelven a salir hasta que pupan para luego caer al suelo. Hasta ahora, el mejor enemigo natural conocido de la palomilla del nopal son los monos africanos (especialmente los babuinos) que aprendieron a abrir las pencas de nopal para alimentarse de las larvas y que, cabe mencionar, reducen el éxito que ejerce el control biológico C. cactorum sobre el nopal invasor. Dado el logro rotundo del control del nopal en los sitios en los que era una maleza nociva (Australia y Sudáfrica), algunos de los “humanistas” vieron en la palomilla una oportunidad para deshacerse de grandes extensiones de nopal silvestre en áreas del Caribe en las que resultaba muy conveniente urbanizar para construir centros turísticos de primera línea. Así, C. cactorum fue tomado de los laboratorios naturales sudafricanos e introducido al Caribe vía aérea. Abramos un paréntesis, los cactos existen al menos desde hace 11 mil años, la ausencia de un registro fósil nos impide datar la fecha exacta de su nacimiento, pero se supone que los desiertos ya tenían su flora desde entonces. En todo este tiempo geológico transcurrido, C. cactorum no se movió de su refugio en el pequeño valle de la provincia de Tucumán, surcado por la barrera de los Andes, en donde la teoría darwiniana permite imaginar que tal obstáculo geográfico limitó la distribución de la palomilla del nopal, por lo menos en igual número de milenios. Pero la palomilla del nopal ha cambiado su biología tremendamente desde que abandonó Argentina, gracias al poder que guardan los genes. Del pequeñísimo número de individuos tomados de su población de origen (iniciamos con 3 000 huevecillos en 1925, con 86 generaciones por año) ahora tenemos lo que suponemos ha evolucionado conformando todas las poblaciones existentes. Las palomillas fueron moviéndose en el Caribe sin que nadie lo percibiera formalmente. En octubre de 1989 C. cactorum se registró en Big Pine Key, Florida, donde consumió todos los individuos de las pocas especies de nopal (no registradas por los estadounidenses) que existían en el área. Como desafortunadamente C. cactorum no consume cítricos, siguió inadvertido en la Florida y no hubo esfuerzos para erradicar a la palomilla del nopal. En 1999, H. Zimmermann, encargado del programa de control biológico de Sudáfrica, investigador del Plant Protection Research Institute, South África, advirtió, durante el congreso del nopal celebrado en Chapingo, que C. cactorum podría llegar a México de no tomarse medidas tendientes a controlar la plaga en el Caribe. La alerta internacional de H. Zimmermann continuó presionando para que México atendiera el problema que se avecinaba. En 2002, la Comisión Nacional para el Conocimiento y Uso de la Biodiversidad (Conabio) desarrolló un modelo bioclimático para predecir posibles focos rojos en donde podía esperarse la llegada de C. cactorum; dicho modelo, que fue propuesto por Soberón y colaboradores en 2001, proyecta dos zonas de riesgo primordiales: la frontera estadounidense y la península de Yucatán. La undécima plaga en México ¿Dónde esta ahora Cactoblastis cactorum? El 10 de agosto de 2006 la palomilla del nopal fue detectada en Isla Mujeres, Quintana Roo, a sólo nueve kilómetros de México continental ¿Estamos a nueve kilómetros de perder al nopal? ¿Qué consecuencia tendría la entrada de C. cactorum a México? Pues en el panorama más simple y devastador, porque no tenemos babuinos que consuman las larvas, en las áreas de amplia distribución y concentración de nopales tendríamos en México algo similar al antes y el después del control de la palomilla en Australia. En las proyecciones demográficas que hemos elaborado, observamos que en 10 años no tendríamos nopaleras mexicanas, con la consecuente pérdida de cien millones de dólares anuales de productos y subproductos, cientos de familias sin ingreso, mercados sin nopalitos ni xoconostles. Nos quedaría la bandera de México como un códice poscolonial, testimonio de que hubo nopal, un símbolo cívico e histórico, que fue un recurso biológico y un acervo de la biodiversidad. Quedará tan sólo el recuerdo de esta planta, alguna vez parte central de nuestro paisaje. Hoy día, no tenemos a Moisés para que interceda y se detenga la plaga; al parecer, la undécima plaga está por llegar a devastar el nopal de México. |
||
María C. Mandujano, Habacuc Flores Moreno
y Gisela Aguilar Morales. Instituto de Ecología, Universidad Nacional Autónoma de México. Mario Mandujano y Jordan Golubov. División de Ciencias Biológicas y de la Salud, Universidad Autónoma Metropolitana Xochimilco. Mayra Pérez Sandi. ARIDAMERICA, A. C. |
||
Referencias bibliográficas
Benavente, fray Toribio de (Motolinía). 1994. “Las diez plagas de las Indias”, en E. de la Torre-Villar (editor). Lecturas históricas mexicanas, unam, México, pp. 287-296.
Canedo, Lino G. 1973. “The Toribio Motolinia and his historical writings”, The Ameritas, vol. 29, núm. 3 (enero), pp. 277-307.
Flores-Moreno, H., J. Golubov y M. C. Mandujano. 2006. “Cactoblastis cactorum, de héroe a villano”, Boletín de la Sociedad Latinoamericana y del Caribe de Cactáceas y otras Suculentas, vol. 3, núm. 3, septiembre-diciembre.
, M. C. Mandujano, y J. Golubov. 2006. “Cactoblastis cactorum en México”, Cactáceas y Suculentas Mexicanas, vol. 51, núm. 4, pp. 122-127.
Golubov, J., M. C. Mandujano y J. Soberón. 2001. “La posible invasión de Cactoblastis cactorum Berg en México”, Cactáceas y Suculentas Mexicanas, vol. 46, núm. 4, pp. 90-92.
Mandujano, M. C., C. Montaña y L. E. Eguiarte. 1996. “Reproductive Ecology and inbreeding depression in Opuntia rastrera (Cactaceae) in the Chihuahuan Desert: Why are sexually derived recruitments so rare?”, American Journal of Botany, núm. 83, pp. 63-70.
, C. Montaña, M. Franco, J. Golubov y A. Flores-Martínez. 2001. “Integration of demographic annual variability in a clonal desert cactus”, Ecology, núm. 82, pp. 344-359.
, J. Golubov y L. Huenneke. 2007. “Effect of reproductive modes and environmental heterogeneity in the population dynamics of a geographically widespread clonal desert cactus”, Population Ecology, núm. 49, pp. 141-153.
McNeill, William H. 1988. Plagues and Peoples, Anchor Books, Nueva York.
Quintana-Ascencio, P. 1985. Dispersión de las semillas de nopal (Opuntia spp.) por animales silvestres y domésticos en El Gran Tunal, San Luis Potosí, B.Sc. Tesis, unam, México.
Reyes-Agüero, Juan Antonio. 2005. “Variación morfológica de Opuntia (Cactaceae) y su relación con la domesticación en la Altiplanicie Meridional de México”, Tutor principal: Juan Rogelio Aguirre Rivera. Posgrado en ciencias biológicas, unam.
Soberón, J., J. Sarukhán y J. Golubov. 2001. “The importance of Opuntia in Mexico and routes of invasion and impact of Cactoblastis cactorum (Lepidoptera: Pyralidae)”. Florida Entomologist, vol. 84, núm. 4, pp. 486-492.
_______________________________________________________________
|
||
María C. Mandujano, investigadora del Instituto de Ecología, unam, especialista en la demografía de cactáceas. Mario Mandujano, médico miembro de la Academia Mexicana de Medicina, investigador de la uam Xochimilco, actualmente investiga la unión entre la discapacidad y la antropología. Mayra Pérez Sandi es antropóloga, especialista en el tema de la grana cochinilla. Gisela Aguilar y Habacuc Flores Moreno, biólogos egresados de la Facultad de Ciencias de la unam, estudian los factores biológicos que determinan la rareza en cactáceas y el efecto demográfico de Cactoblastis sobre los nopales. Jordan Golubov, investigador en la uam Xochimilco, estudia la ecología de especies invasoras y amenazadas usando modelos bioclimáticos y ecología de poblaciones.
Mandujano, María C. y et.al. (2007). Las diez plagas de Egipto y la undécima en México: la plaga del nopal. Ciencias 88, octubre-diciembre, 50-58. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
Innovación tecnológica y tradiciones experimentales: una perspectiva cognitiva |
En este trabajo se analiza el papel que desempeña o puede desempeñar la innovación tecnológica en el afianzamiento de las tradiciones experimentales, así como mostrar la relevancia de determinados modelos cognitivos para las tradiciones experimentales, recurriendo a la filosofía y a las tradiciones experimentales desde la mirada de las ciencias cognitivas.
|
|
Anna Estany Profitós
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
La relación entre ciencia y tecnología subyace al análisis de la innovación tecnológica en la ciencia y las tradiciones experimentales. Por un lado, tenemos lo que denomino “innovación tecnológica en la ciencia”, en el sentido en que la tecnología —un producto en la investigación básica en las ciencias puras—, revierte en el desarrollo de las ciencias. No es una idea nueva pero es cierto que en las últimas décadas cuando se ha reflexionado sobre la tecnología se piensa, mayormente, en su repercusión sobre la sociedad.
Por otro lado, está el enfoque de las tradiciones experimentales que desde hace unas décadas ocupa una parte importante de los trabajos en filosofía de la ciencia. A pesar de las diferencias entre la concepción heredada y la visión kuhniana de la ciencia, en el fondo, ambas concepciones consideran que la experimentación está en función de la teoría, ya sea inspirada por ella o al servicio de la misma, pero en cualquier caso sin vida propia. En ninguno de estos temas se ha introducido una mirada desde las ciencias cognitivas, ni la filosofía de la tecnología ni las tradiciones experimentales han recurrido a las ciencias cognitivas para afianzar sus tesis.
Si bien es cierto que se han producido estudios de cognición y tecnología o relativos a los procesos cognitivos en el laboratorio, realizados respectivamente por Norman y Hutchins, en general, los factores cognitivos han estado ausentes de los debates que suscitan el papel de la tecnología y el de la experimentación en la filosofía de la ciencia. El tema de la innovación tecnológica en la ciencia surge del estudio de la relación entre la ciencia y la tecnología. Esta relación podemos verla en dos sentidos. Uno de ellos considera la ciencia como la base para la producción de la tecnología que transforma el mundo; construye puentes, edificios, pantanos; elabora alimentos; cultiva campos, y un largo etcétera que constituye toda la labor ingenieril y ha dado lugar a la industria en la época moderna. Ésta es la relación más habitualmente estudiada y es en la que se han centrado los estudios sobre ciencia, tecnología y sociedad y, en general, la filosofía de la tecnología. En el otro sentido, esta tecnología producida por la ciencia revierte sobre ella misma. La historia de la ciencia nos muestra que los instrumentos han sido clave en muchos de los descubrimientos pero en la actualidad, al menos en determinados campos de la investigación, las tecnologías son absolutamente imprescindibles. Esta interconexión de ciencia y tecnología ha llevado a filósofos e historiadores a hablar de big science y de tecnociencia. No puede decirse que sean términos equivalentes pero el origen está en una concepción de la ciencia dependiente de tecnologías potentes y muy ligadas al poder político y económico. Esto último es una consecuencia de la necesidad de financiación, pública o privada, que tales tecnologías requieren, tanto para su adquisición como para su funcionamiento.
El sentido que hemos tomado de la relación entre ciencia y tecnología discurre en el plano estrictamente internalista, es decir, el del papel que la tecnología puede jugar en la evolución de una disciplina científica. Esta perspectiva internalista no es óbice para que en el análisis global tengamos en cuenta el contexto en el que discurre la actividad científica y los factores sociales, culturales y cognitivos que intervienen en dicha actividad. Damos por sentado estas influencias pero, para la cuestión de la innovación tecnológica de la ciencia, nos interesan sólo en cuanto puedan intervenir en las cuestiones cognoscitivas, en sentido epistémico. Las tradiciones experimentales Desde la filosofía de la ciencia ha surgido una línea de investigación centrada en la actividad experimental. A partir de un punto de vista más general, podemos decir que el interés de la filosofía de la ciencia por las tradiciones experimentales desde un comienzo centró el análisis filosófico en el conjunto de la práctica científica, en lugar de enfocarlo sólo en el resultado de esta práctica, es decir, en las teorías científicas. Esto implica tomar en cuenta otros factores que intervienen en el quehacer científico, como la infraestructura material, los instrumentos, la interacción humana, las relaciones con las administraciones, etcétera. Aunque no son totalmente independientes, estos factores inciden de forma distinta, y en mayor o menor grado, en la dinámica interna de la ciencia.
Podríamos decir que las tradiciones experimentales constituyen la parte de la filosofía de las prácticas científicas que están especialmente ligadas a las cuestiones epistemológicas o cognoscitivas de la ciencia y se presentan como una alternativa a las tradiciones teóricas, entendidas como la tendencia en filosofía de la ciencia a privilegiar los aspectos teóricos del conocimiento sobre cualquier otro rasgo. Considerada la cuestión desde este punto de vista, la miseria del teoreticismo estriba en reducir la riqueza y la complejidad del proceder científico a un asunto de mera elaboración conceptual, como lo plantean J. Ferreirós y J. Ordóñez en su ensayo Hacia una filosofía de la experimentación. En cambio, desde las tradiciones experimentales, la ciencia moderna se ve como un híbrido de filosofía (lógica, teorización, argumentación) y experimento (técnica, manipulación, observación), es decir, una “filosofía técnica”. La filosofía de la experimentación analiza los aspectos técnicos, experimentales y —en las versiones más recientes y sofisticadas— tecnológicos de la actividad científica. Quisiera señalar que la teoría no desaparece de las tradiciones experimentales, simplemente se le asigna otro papel. Dentro de esta filosofía de la ciencia que sitúa el experimento y la técnica en el centro de su análisis, podemos incluir la filosofía mecanística de la ciencia que propone la explicación científica por medio de mecanismos. Puede verse como una muestra de este cambio de énfasis entre teoría y experimentación, aunque hay que señalar que este enfoque no acostumbra ser un referente en el marco de las tradiciones experimentales.
W. Bechtel, junto a A. Abrahansen, es uno de estos filósofos que podemos incluir en la filosofía mecanicista de la ciencia. Considera que los fenómenos pueden ser explicados especificando los mecanismos que subyacen a dichos fenómenos y descomponiendo el fenómeno en términos de las operaciones que tienen lugar en las distintas partes de dicho mecanismo. Peter Machamer, Lindley Darden y Carl F. Craver son otros filósofos que abogan por una filosofía mecanicista de la ciencia, recurriendo a los mecanismos para explicar cómo surge un fenómeno o cómo funcionan determinados procesos. Los mecanismos están formados de entidades con sus propiedades y de actividades que son las causantes del cambio. El descubrimiento de diferentes tipos de mecanismos con sus tipos de entidades y diferentes actividades es una parte importante del desarrollo científico. Las ciencias contemporáneas como la neurobiología y la biología molecular forman parte de esta tradición y recurren a las entidades y actividades disponibles por medio de algunos de sus descubrimientos. La presentación de distintas líneas de investigación que se dan en la filosofía de la ciencia centrada en las tradiciones experimentales, muestra que no constituye un campo unificado, ni en los temas ni en las consecuencias para cuestiones de filosofía de la ciencia. Podríamos decir que les unifica una crítica al giro lingüístico y el interés por la práctica científica en su conjunto y no sólo por la representación teórica del conocimiento. Por tanto, las tradiciones experimentales buscan ser una alternativa al teoreticismo, que tiene como resultado la construcción de una filosofía experimental —así la denominan Ferreirós y Ordóñez— cuyo centro de gravedad es el experimento y la tecnología requerida para ello. Ya desde esta primera aproximación podemos sacar algunas conclusiones respecto de los objetivos e hipótesis de partida planteados al principio. Por un lado, la insistencia en la experimentación y en la técnica (un híbrido de filosofía y técnica) reportan un papel central para la innovación tecnológica de la ciencia. Por otro, nos llevan a dar una “mirada” cognitiva a este nuevo cambio de rumbo que suponen las tradiciones experimentales frente a las tradiciones teóricas. Así, de cara al cuestionamiento del modelo teórico nos podemos preguntar si en la evolución del campo cognitivo se ha dado algo parecido. Por ejemplo, si nuestra cognición es sólo deductiva y cartesiana o hay otras formas de razonamiento. O si podemos establecer un paralelismo entre las tradiciones teóricas y las tradiciones experimentales y el saber “qué” y el saber “cómo”. También podemos interrogarnos acerca de las semejanzas entre el híbrido constituido por la filosofía técnica y los elementos que entran en juego en un acto cognitivo en el que confluyen representaciones mentales y elementos materiales para asirlas.
El experimento como centro de la investigación científica Hacking ha sido un referente en la filosofía de la ciencia como el defensor de un enfoque experimentalista frente a uno teorético. Como cuestión de principio no cabe duda que Hacking quiere poner la experimentación, como mínimo, en el mismo nivel que la teoría, es decir, el experimento no está simplemente al servicio de la teoría sino que tiene vida propia. Señala que hay casos en que, sin que pueda decirse que no tenían idea de la teoría, fueron los experimentos los que estimularon la teoría correcta aunque los que lo hicieron no creían en ella sino que los interpretaban con una teoría descartada. Un ejemplo podría ser el de Priestley en la química. Sin embargo, Hacking dice que no en todos los periodos del desarrollo de una disciplina tiene la misma importancia el experimento o la teoría, como muestra el caso de Davy y Liebig. Apenas había teoría química cuando Davy realizó su investigación, en cambio en la época de Liebig (50 años después) sólo una mente llena de modelos teóricos podía empezar a resolver los misterios de la química orgánica. Hacking se refiere también a “encuentros felices” en que teoría y experimento han ido al unísono. Todo ello me lleva a pensar que no parece que quiera abandonar las teorías como representación del mundo sino abandonar el esquema jerárquico en el que el experimento está al servicio de la teoría. Respecto de la innovación tecnológica en la ciencia, hay algunos comentarios de Hacking que, sin llamarlo de esta forma, podemos considerar como referencias a ésta. Hacking señala que para la construcción de un microscopio se necesitan conocimientos de física (óptica) que no tienen que ver con la ciencia para la que van a utilizarse, por ejemplo, “la física no es importante desde el punto de vista del sentido que el biólogo le da a la realidad microscópica”. Esto significa que cuando decimos que la ciencia comporta tecnología que luego revierte sobre la propia ciencia a través de la investigación básica, no necesariamente implica que la tecnología desarrollada por una disciplina vaya a revertir en ella misma. En este caso tendríamos que los conocimientos de física hacen posible el microscopio y éste es un instrumento básico en la investigación biológica, no física.
Iglesias aborda la cuestión del lenguaje, señalando que el lenguaje del trabajo en el laboratorio es distinto al de una teoría de alto nivel; en el laboratorio se moldean objetos y recursos que no pueden expresarse en el papel. Además en toda práctica científica hay elementos que apelan a la innovación, el ingenio y a un tipo de saber práctico que no puede ser descrito fácilmente en una publicación. Esto supone no insistir tanto en la unidad de la narración y, en cambio, pensar en términos de red, es decir, de espacios topográficos y no sólo en términos lineales. El tratamiento que tanto Hacking como Iglesias dan a los aparatos o instrumentos encaja perfectamente con la idea de la innovación tecnológica en la ciencia. La idea de que dar importancia a los aparatos no significa hacer filosofía de la tecnología, que refiere Iglesias, es precisamente lo que he propuesto en párrafos anteriores, a saber: que la innovación tecnológica en la ciencia es el retorno de la tecnología sobre la propia ciencia, en cambio la filosofía de la tecnología es la reflexión de lo que la tecnología supone para la sociedad (al menos es así tal como se ha entendido tradicionalmente), a través de la aplicación del conocimiento científico, pero también una reflexión sobre la autonomía de la tecnología. Los aparatos nos alejan de la visión de la ciencia que Dewey denominó “teoría del conocimiento del espectador”, nos ayudan a comprender la relación entre teoría y experimento, y nos llevan a reflexionar sobre quién los construye.
Muchas de las ideas de Iglesias encajan con el modelo de la intervención de Hacking y de la filosofía de la experimentación de Ferreirós y Ordóñez. Así, sostiene que los aparatos son la condición de la posibilidad del descubrimiento científico y, en consecuencia, de decirnos cómo es el mundo. Por lo tanto, la relación entre la teoría y la práctica experimental es diversa, existen diversos tipos de interacción de la teoría y la experimentación e incluso dentro de la historia de una misma disciplina encontramos diversas modalidades de interacción. Estos comentarios de Iglesias son distintos de otros que parece que ponen la experimentación como algo independiente de la teoría; aquí lo que se dice es que hay distintas formas de interacción que, por tanto, están en el mismo nivel (en esto se diferenciaría del teoreticismo) pero que la teoría forma parte del proceso investigador y, por tanto, de la filosofía de la ciencia.
Iglesias también insiste en que el trabajo experimental no sólo prepara el experimento, diseña y construye aparatos, sino que manipula entidades y crea fenómenos. Volvemos a la idea de que son los aparatos los que dan existencia a los fenómenos científicos y luego los estabilizan. Para que existan los “efectos” (efecto Hall, efecto Zeeman, efecto Compton, etcétera) éstos tienen que ser producidos: los fenómenos de la ciencia no están a la vista, debe trabajarse mucho para que advengan a la existencia.
Desde la mirada cognitiva sólo señalaré que la importancia de esta interacción con los artefactos en la investigación científica se verá reflejada en el modelo de la cognición socialmente distribuida que abordaré más adelante. Hacia una historia y una epistemología de la experimentación Lo que en algunos autores forma parte de una aportación al debate sobre las tradiciones experimentales, en Rheinberger constituye un proyecto global que abarca todo el marco teórico de la historia y la filosofía de la ciencia. La relevancia del modelo de Rheinberger es que, por un lado, tiene repercusiones importantes para la ontología de la ciencia y, por otro, aborda la historia, proporcionando un modelo historiográfico. Para Rheinberger la investigación es el procedimiento básico de la ciencia moderna y empieza siempre por elegir un sistema experimental, no una teoría. Ahora bien, la elección de un sistema comporta ya un proceso, por tanto, no es algo que se nos dé desde el principio de la investigación. A este enfoque lo denomina “pragmatogonic”, en el sentido de que está basado en la práctica. Rheinberger considera los sistemas experimentales como sistemas de manipulación destinados a dar respuesta a cuestiones que hasta el momento no se habían podido resolver, al mismo tiempo que materializan las cuestiones y los conceptos que quieren expresar. En los sistemas experimentales distingue dos elementos fundamentales: los objetos de investigación que denomina cosas epistémicas (entidades o procesos materiales); como ejemplos señala las estructuras físicas, las reacciones químicas y las funciones biológicas. Se presentan con una irreducible vaguedad, ya que las cosas epistémicas expresan lo que aún no es conocido. Y los objetos técnicos, a través de los cuales los objetos de investigación devienen atrincherados y articulados en un campo de prácticas epistémicas y culturas materiales, incluyendo instrumentos, herramientas de inscripción, organismos modelo, además de los teoremas y conceptos ligados a dichos objetos.
Respecto de la relación entre ambos elementos podemos decir que las condiciones técnicas determinan el reino de las posibles representaciones de las cosas epistémicas, marcando el repertorio técnico del programa experimental. La diferencia entre las condiciones experimentales y las cosas epistémicas es más funcional que estructural, sin embargo, a pesar de que estos dos tipos de entidades están interrelacionadas y en continua combinación y transformación, merece la pena mantener la distinción porque nos ayuda a valorar el juego de la innovación, a comprender la ocurrencia de acontecimientos impredecibles y con ello, la esencia de la investigación. A pesar de su oposición a una visión representativa del conocimiento, Rheinberger no puede obviar el problema de cómo expresar el conocimiento, aunque sea el producido por la experimentación y no por la teoría. Valga mencionar que para Rheinberger una forma de darle materialidad es convertir un experimento en grafemas: “los grafemas son, en primer lugar, articulaciones materiales de unidades significativas”. Esto sería considerar el lenguaje como un anclaje material, que lo es de acuerdo con Hutchins, Fauconnier y Turner, pero un anclaje muy débil.
Rheinberger se propone no sólo una filosofía sino también una historia de las cosas epistémicas, por tanto, es lógico que se plantee la dinámica de las cosas epistémicas. Para ello introduce diversas categorías con el fin de abordar los diferentes movimientos que se dan en los sistemas experimentales. Así creo que se debe tomar la idea de las conjunciones, híbridos y bifurcaciones de los sistemas experimentales, los cuales describen tipos de cambios y de lazos que dan lugar a la dinámica de los sistemas experimentales posibles en su orientación, fusión y proliferación. Todo ello forma una red que puede verse como un conjunto de sistemas experimentales, una red de materiales y de prácticas que evolucionan por medio de impulsos (conjunciones), fusiones (híbridos) y divergencias (bifurcaciones). El conjunto de redes forman una cultura experimental, que es lo que Hacking llama “estilos de laboratorio”, los cuales no coinciden con las disciplinas. Desde el punto de vista cognitivo, Rheinberger en ningún momento hace referencia al tema, sin embargo, podemos decir que el hecho de que la ontología de la práctica científica (las cosas epistémicas) deba su existencia a las posibilidades materiales y técnicas nos remite a los modelos cognitivos que dan una importancia capital al anclaje material del conocimiento mencionado por Hutchins. Por lo que respecta a la innovación tecnológica de la ciencia, es evidente su relevancia para el modelo historiográfico y filosófico de Rheinberger, ya que son los objetos técnicos los que articulan los objetos epistémicos. El papel de la teoría en una filosofía de la experimentación Una vez dicho que el experimento no puede ser subsidiario de la teoría, que los sistemas experimentales tienen vida propia, que son las condiciones técnicas y tecnológicas las que dotan de existencia y realidad a los objetos epistémicos, la cuestión es qué papel van a jugar las teorías tal como las entendemos tradicionalmente. Yendo más allá, ¿qué papel le asignamos al proceso general de conceptualización? y, situándonos en los sistemas experimentales, ¿cómo expresamos el conocimiento que obtenemos a partir de la experimentación? Tradicionalmente se atribuye al experimento la función de confirmar o refutar hipótesis. Desde las tradiciones experimentales ¿nunca tiene esta función?, ¿algunas veces?, ¿cómo se contrastan las hipótesis? A la hora de hacer un balance de las contribuciones al surgimiento de las tradiciones experimentales, hay autores (entre ellos Mercedes Iglesias) que, a pesar de criticar las principales tesis de los constructivistas sociales, les atribuyen el papel de que “han allanado el camino para una filosofía de la práctica científica”. Creo lo contrario, el constructivismo social, cuyas doctrinas estaban basadas en el relativismo, ha retardado el que la filosofía de la ciencia abordara las cuestiones prácticas. Es una pena que las cuestiones pragmáticas de la ciencia hayan estado tanto tiempo lideradas por corrientes irracionalistas.
Ferreirós y Ordóñez abordan el papel de los marcos teóricos y la relación entre teoría y experimento. El comentario parece apuntar a una interacción de ambas y no a una autonomía de la experimentación. Más bien parece que la apuesta por una filosofía de la experimentación responde a poner de relieve el lugar subsidiario al que se había relegado el experimento y no a sustituir la teoría por el experimento. La distinción que hacen entre “experimentación exploratoria” y “experimentación guiada” puede interpretarse en este sentido. Respecto de la innovación tecnológica en la ciencia, diría que hay una buena parte de las aportaciones de las tradiciones experimentales que pueden considerarse precisamente innovaciones tecnológicas en la ciencia. Por ejemplo, las reflexiones de Ferreirós y Ordóñez referidos a los instrumentos van en esta línea, muy en especial la idea de “fenomenotecnia”, en el sentido de que los fenómenos existen gracias a la técnica. Para determinar el lugar que las teorías pueden ocupar en una filosofía de la experimentación, habría que replantear las formas de representar el conocimiento. Las críticas al teoreticismo por parte de las tradiciones experimentales están centradas en una concepción de teoría muy ligada a la lógica matemática, al giro lingüístico y, en general, a la concepción sintáctica de las teorías, representada por el empirismo lógico. En cuanto al concepto de verdad y referencia, también la crítica va dirigida a la verdad de las teorías, entendidas como un conjunto de proposiciones, y a los términos teóricos del concepto de referencia de Frege. Creo que las tradiciones experimentales tienen que mirar otras concepciones que han surgido fuera de la concepción heredada que, aunque siguen poniendo la experimentación al servicio de la teoría, aportan una visión mucho menos esquemática. Respecto de estas cuestiones que Iglesias plantea quisiera hacer algunas consideraciones. Vemos que el interés se centra en lo que sucede en el laboratorio pero no hay que olvidar que cuando un científico entra en un laboratorio tiene ya muchos modelos en la cabeza que no necesariamente determinan (carga teórica de la observación) pero sí forman parte de los principios que nos permiten comprender nuestras acciones. La consecuencia es que para un filósofo de la experimentación es fundamental ir a los laboratorios y ver lo que efectivamente sucede en ellos, sólo así podremos captar qué es un experimento hoy en día. Podríamos decir, pues, que lo único no adecuado es el enfoque del giro lingüístico que toma el lenguaje en forma de proposiciones como única forma de representar el conocimiento. La mirada cognitiva Las cuestiones aquí analizadas sobre la innovación tecnológica y las tradiciones experimentales permiten distintas “miradas cognitivas”. Me refiero a que desde modelos diversos de las ciencias cognitivas podríamos analizar diferentes aspectos de la tecnología y de la experimentación. Por ejemplo, podríamos analizar si los diseñadores de instrumental y tecnología tienen en cuenta a los usuarios-científicos, como expongo en “Cognitive aproach on the relation science-technology”. También podríamos pensar en propuestas desde las ciencias cognitivas que pueden incidir en cómo representar el conocimiento (diagramas, esquemas, etcétera) que no sea el lenguaje proposicional, una forma más de representación, importante pero no la única. No voy aquí a desarrollar ni siquiera a enumerar todos los posibles abordajes cognitivos de la práctica científica. Me voy a centrar en el modelo de la cognición socialmente distribuida y cómo ésta puede clarificar las cuestiones que hemos planteado sobre las relaciones entre las tradiciones experimentales y la innovación tecnológica de la ciencia y algunas consecuencias para la filosofía de la ciencia. Hemos visto que el enfoque que en la filosofía de la ciencia ha venido desarrollándose en las últimas décadas acerca de las tradiciones experimentales cuestiona la unidad de la investigación científica, pasando de la teoría al experimento. Mi análisis de este enfoque ha seguido la línea de que, efectivamente, la historia y la filosofía de la ciencia de buena parte del siglo xx han estado centradas en las teorías científicas (modelos, leyes, explicaciones), considerándolas como la unidad de la investigación. Todo lo que le acompañaba desde un punto de vista internalista (experimentos, instrumentos) y, desde un punto de vista externalista (financiación, publicación, instituciones, etcétera) era puramente instrumental de cara a conseguir un modelo teórico que explicara determinados fenómenos. De hecho, en buena medida, toda la filosofia de la ciencia de la segunda mitad del siglo xx, sobre todo a partir de los años sesentas, tiene como objetivo ampliar el marco de estas unidades teóricas. No voy ahora a detallar la historia de esta ampliación, pero desde el llamado enfoque historicista hasta el cognitivo, pasando por el sociologista, son intentos de salirse de los límites de las teorías científicas. Ya entrados en el siglo xxi se tiene la suficiente perspectiva para hacer un balance y pensar en las unidades de la investigación científica en su conjunto, de aquí la denominación de “práctica científica” que se ha adoptado para referirse a la actividad de los científicos, y que pretende englobar no sólo el producto sino también el proceso.
Este cambio de unidad es lo que hace relevante la cognición socialmente distribuida, como argumentaré a continuacion, no sin antes exponer, brevemente, las principales tesis de Hutchins sobre la unidad de cognición. La aportación de la cognición socialmente distribuida… El enfoque de la cognición socialmente distribuida de E. Hutchins, ampliamente desarrollada en su obra seminal Cognition in the Wild, es un intento de poner la cognición en el mundo social y cultural. Lo que quiere demostrar es que la cognición humana no es solamente que esté influenciada por la cultura y la sociedad sino que es un proceso cultural y social. Para ello quiere sacar las unidades cognitivas de análisis fuera de la piel de la persona individual y tratar el grupo como un sistema computacional y cognitivo. Desde el punto de vista metodológico se enmarca en la etnometodología, en el sentido de que considera que la investigación tiene que llevarse a cabo “en su medio natural” (in the wild ), pero el punto de vista cognitivo implica tener en cuenta no sólo la conducta observada sino los procesos cognitivos que intervienen en dicha conducta. Para ello Hutchins cuenta con los modelos neurobiológicos y computacionales que se han desarrollado en el campo interdisciplinario de las ciencias cognitivas. La idea central de Hutchins es que la unidad cognitiva no es el sujeto aislado sino el sujeto en interacción con otros agentes y con los artefactos tecnológicos que intervienen en un proceso cognitivo. Y esto es importante porque las propiedades cognitivas de los individuos interaccionando entre ellos y con artefactos tecnológicos son distintas a las de los individuos en solitario. Hutchins ha aplicado su modelo a una cabina de avión y a una sala de máquinas de un barco, pero este modelo puede aplicarse también a un laboratorio de investigación y, del mismo modo que Hutchins señala que la seguridad en un vuelo depende no sólo del piloto sino de la interacción con el copiloto, con los controladores y con el panel en el que se encuentran todos los indicadores de temperatura, combustible, coordenadas, etcétera, también el resultado de un experimento está en función de la interacción de los miembros del equipo investigador y de éstos con la tecnología disponible. A su vez, no cabe duda de que la intervención en una actividad de varios individuos (posiblemente con capacidades cognitivas distintas) puede (aunque no necesariamente) evitar errores en el sistema, dado que la interacción puede compensar fallos individuales. Este punto también podemos aplicarlo a la práctica científica en cuanto a la posibilidad de la intervención de factores extraepistémicos, ya que, si bien es cierto que puede haber intereses personales y sociales en juego, éstos pueden (aunque no necesariamente) neutralizar los sesgos individuales por la confluencia de la variación del grupo. …y las tradiciones experimentales Concretamente para el tema aquí tratado, lo más relevante es el cambio de unidad de cognición que, para Hutchins, no es el cerebro individual sino la interacción del sujeto con los artefactos y con otros sujetos. No creo que la idea de Hutchins sea que no existen procesos cognitivos individuales y ni siquiera que éstos no puedan ser estudiados aisladamente. En algún momento dice que esto es lo que ha estudiado la ciencia cognitiva en sus primeras etapas y que aquí está, pero lo que él plantea con la cognición socialmente distribuida es que el resultado de un proceso cognitivo no depende sólo de lo que ocurra en la mente individual, sino de cómo se desarrolle la interacción con otros sujetos y con los artefactos que se requieren para llevar a cabo una acción. Ya aquí podemos establecer un cierto paralelismo con la filosofía de la ciencia. En las últimas décadas se ha pasado de considerar el producto de la investigación científica —las teorías— como el objeto de análisis de la filosofía de la ciencia, a tomar como objeto la práctica científica. El sentido que subyace a este cambio, por lo que respecta al objeto de la filosofía de la ciencia, es que se ha ampliado el objeto de estudio, que las teorías son un elemento indiscutiblemente muy importante, pero que en la formulación de una teoría intervienen muchos más factores que habían sido obviados por la mayoría de los enfoques de la primera mitad del siglo xx. Aquí, como en la unidad de la cognición, el que surja una teoría no depende sólo del científico que la formula (que también) pero, dadas las circunstancias en las que discurre la investigación científica en la actualidad y, sobre todo, la investigación en campos de punta, se necesita tecnología, laboratorios, expertos en varias actividades, financiación, por tanto, un científico solo es difícil que pueda hacer algún descubrimiento importante. Necesitará de la participación de otros sujetos y de tecnología para llevar a cabo su objetivo. De todo ello podemos sacar algunas conclusiones. En primer lugar, podemos apreciar un cierto paralelismo entre el cambio de ontología (unidades de análisis) en la ciencia cognitiva y en la filosofía de la ciencia. Sin embargo, el simple paralelismo podría carecer de relevancia en sí mismo. Seguramente podríamos encontrar otros campos en los que también se ha dado un cambio de ontología y no por ello son significativos o tienen relación alguna con lo ocurrido en la filosofía de la ciencia. Por ejemplo, en la física, de una ontología de átomos se ha pasado a una de partículas elementales, o en biología, en lugar de una ontología de células hay una de genes, y en la teoría de la evolución se discute si las unidades son los genes o las poblaciones. Desde la epistemología evolucionaria se ha intentado un paralelismo entre la evolución biológica y cultural pero el objetivo, fundamentalmente, era tomar la evolución biológica como modelo analógico para explicar la evolución cultural, aunque no todos los autores forzaron en el mismo grado la metáfora biológica para abordar el desarrollo de la ciencia (por ejemplo, Toulmin tiene una postura menos fuerte que Hull respecto de esta semejanza analógica). En el caso de las ciencias cognitivas hay unos elementos que las hacen distintas de las implicaciones que puedan tener otras ciencias empíricas. Las ciencias cognitivas estudian (entre otras cuestiones) cómo nosotros adquirimos conocimiento, lo almacenamos, lo recuperamos y lo utilizamos en un entorno natural y social. La ciencia tiene como principal objetivo conocer y explicar el mundo y esto revierte en proporcionar a los humanos herramientas para la supervivencia. El conocimiento que las ciencias cognitivas nos proporcionan tiene una relación mucho más estrecha que cualquier otra ciencia empírica. Por tanto, el paralelismo va más allá de una simple analogía. Si la ciencia tiene como objetivo conocer y las ciencias cognitivas nos dicen cómo adquirimos el conocimiento, no cabe duda de que todo lo relacionado con los modelos cognitivos debe cuestionar la forma en que la filosofía de la ciencia ha analizado y proporcionado modelos de ciencia. Mi idea es que el modelo de la cognición socialmente distribuida de Hutchins proporciona fundamentación empírica a las tradiciones experimentales pero no en su versión fuerte sino en su versión débil. Entiendo por versión fuerte de las tradiciones experimentales la idea de que si durante siglos la teoría ha sido lo único sobre lo que los historiadores han basado sus estudios y análisis filosóficos, ahora hay que sustituirlos por la experimentación y la teoría es algo subsidiario. Posiblemente, en estos términos tan radicales no ha sido planteado pero sí algunas afirmaciones parecen apuntar en esta dirección. Por versión débil entiendo la idea de que el papel del experimento es tan importante como la teoría y que el predominio de uno u otro depende de circunstancias tanto internas (nivel de desarrollo de la disciplina, teorías predominantes en el momento, capacidad tecnológica) como externas (valores culturales, necesidades sociales, guerras). La idea de que la unidad de cognición sea la interacción de individuos y de éstos con los artefactos, significa ver la adquisición de conocimiento como un fenómeno en el que convergen la actividad cognitiva de uno o varios agentes y su relación con artefactos materiales. De la misma forma la investigación científica se ve como una práctica en la que convergen la actividad cognitiva de uno o varios individuos, la tecnología que utilizan y la interacción con instituciones. ¿Qué lugar ocupan los modelos culturales? La cognición socialmente distribuida está muy relacionada con lo que se ha denominado “cognición situada” de Salomon y los modelos culturales de D’Andrade. El mismo Hutchins (no olvidemos su formación como antropólogo) tomó los modelos culturales como un elemento muy importante en los procesos cognitivos de los agentes. Ahora bien, los elementos culturales y sociales le interesan por su función en la cognición. El papel del contexto no le interesa en sí mismo (no tiene por qué ya que ésta es la función del sociólogo cognitivo) sino de su intervención (positiva o negativa) en los procesos cognitivos. Esto tiene también una contrapartida en la unidad de análisis de las prácticas científicas. Aunque en las tradiciones experimentales se alude a los factores contextuales implicados en la investigación (hay ciertos autores que hacen mayor mención que otros), en realidad se trata de ver hasta qué punto esto afecta el resultado cognoscitivo. Los modelos culturales en la práctica científica serían la “cultura profesional”, en el sentido de la formación y socialización necesarias para la investigación en cualquier campo científico. |
||
Anna Estany
Universitat Autònoma de Barcelona. |
||
Referencias bibliográficas
Bechtel, W. y A. Abrahamsen. 2005. “Mechanistic explanation and the nature-nurture controversy”, Bulletin d’Histoire et d’Epistémologie des Sciences de la Vie. Casacuberta, D. y A. Estany. 2003. Eureka. El trasfondo de un descubrimiento de genética molecular, Tusquets, Barcelona. D’Andrade, R. 1989. “Culturally Based Reasoning”, en A. Gellatly, D. Rogers y J. A. Sloboda (eds.). Cognition and Social Worlds, Oxford University Press, Oxford. Echeverría, J. 2003. La revolución tecnocientífica, fce , México. Estany, A. 2001. “The Theory-Laden Thesis of Observation in the Light of Cognitive Psychology”, Philosophy of Science, núm. 68, pp. 203-217. 2001. “Ventajas epistémicas de la cognición socialmente distribuida”, Contrastes, núm. 6, pp. 351-375. 2001. La fascinación por el saber, Crítica, Barcelona. 2006. “Cognitive approach on the relation science-technology”, en W. J. González (ed.). Contemporary perspectives in philosophy and methodology of science, Netbiblo, A Coruña. Ferreirós, J. y J. Ordóñez. 2002. “Presentación: Hacia una filosofía de la experimentación”, Theoria, vol. 17, núm. 2, pp. 209-219. 2002. “Hacia una filosofía de la experimentación”, Crítica. Revista Iberoamericana de Filosofía, vol. 34, núm. 102, pp. 47-86. Hacking, I. 1996. Representar e intervenir, Paidós/unam, México. Hull, D. 1988. Science as a process. An evolutionary account of the social and conceptual development of science, University of Chicago Press, Chicago. Hutchins, E. 1995. Cognition in the Wild, The mit Press, Cambridge, Mass. 2005. “Material anchors for conceptual blends”, Journal of Pragmatics, 37. Iglesias, M. 2004. “El giro hacia la práctica en filosofía de la ciencia: una nueva perspectiva de la actividad experimental”, Revista de Ciencias Humanas y Sociales, núm. 20, p. 44. Lozares, C. 2001. “La actividad situada y/o el conocimiento socialmente distribuido”, Universidad Autónoma de Barcelona, Barcelona (“Papers”). Machamer, P., L. Darder y C. Carver. 2000. “Thinking about mechanisms”, Philosophy of Science, núm. 67, pp. 1-25. Norman, D. A. y S. W. Draper (eds.). 1986. User centered system design. New perspectives on human-computer interaction, Elbaum, Hillsdale, nj. Rheinberger, Hans-Jörg. 1997. Toward a History of Epistemic Things. Synthesizing Proteins in the Test Tube, Stanford University Press, Stanford, Ca. Salomon, G. 1993. “No distribution without individuals’ cognition: A dynamic interactional view”, en G. Salomon (ed.). Distributed cognitions, Cambridge University Press, Nueva York. _______________________________________________________________
|
||
Anna Estany Profitós es profesora de Filosofía de la Ciencia en el Departamento de Filosofía de la Universidad Autónoma de Barcelona y miembro fundador del Centro de Estudios de Historia de la Ciencia de la uab. Integrante de la Sociedad Española de Lógica, Filosofía y Metodología de la Ciencia, ha publicado diversos libros y numerosos artículos sobre filosofía de la ciencia.
como citar este artículo → Estany Profitós, Anna. (2007). Innovación tecnológica y tradiciones experimentales: una perspectiva cognitiva. Ciencias 88, octubre-diciembre, 34-45. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
Entre encuestas, números grandes
y tamaños de muestra
|
Los números grandes, son objetos matemáticos que están vinculados con el cálculo de los tamaños de muestra, en las encuestas de opinión pública.
|
|
Conrado Ruiz Martínez
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
¿Se ha preguntado por qué los tamaños de muestra empleados en las encuestas electorales o de opinión respecto de algún asunto en especial se parecen mucho en todo el mundo, y poseen referentes de seguridad estadística semejantes, a pesar de que el número de electores es diferente en cada país? La respuesta es que bajo determinada condición de cálculo (Z0.9772 = 2 y varianza = 0.25; esto es cuando se considera que la probabilidad de ocurrencia es igual a la probabilidad de no ocurrencia, es decir 0.5 × 0.5) la población toda —independientemente de su tamaño y de los objetos de que se trate— se considera igual a la unidad, esto es, 1. Tal situación ocurre cuando, al graficar estos datos, el área de la curva normal que se alcanza —una campana— abarca 97.72% del total, y la significación o desconfianza que se tiene en este caso, un ensayo de dos colas, es de 4.56% (figura 1). En este tipo de ensayos el área que se toma como referente es la confianza estadística, en este caso, 95.44%, más la mitad de la significación o desconfianza estadística que el observador estime. Si consideramos como porcentajes los resultados obtenidos del cálculo del área bajo la curva tenemos entonces que 95.44 + (4.56/2) = 97.72%; y que el área completa equivale a 100 por ciento. | ||
De aquí que, en muestreo aleatorio, no sólo simple sino también simplificado, los tamaños de muestra para encuestas públicas convencionales se calculan dividiendo la unidad —propiamente una población virtual validada por la probabilidad— entre un error estimado en proporción al cuadrado. Por ejemplo, si el error estimado es de 0.05, tenemos: 1/0.052 = 400 personas; si es de 0.025, entonces 1/0.0252 = 1600 personas; si de 0.02, entonces 1/0.022 = 2 500 personas; y si de 0.01, entonces 1/0.012 = 10 000 personas; y así sucesivamente. Es decir, los errores estimados —respecto de una confianza estadística determinada— o “exactitudes” —que se elevan al cuadrado— son los divisores, por lo que la seguridad estadística de todos estos cálculos, para los tamaños de muestra aquí señalados, es de 95.44%, algo que muy rara vez se hace saber al público. Pero, ¿cómo se relaciona esto con el hecho de que las encuestas comerciales normalmente se realizan con muestras de entre mil a dos mil quinientas personas?, ¿por qué motivo ocurre esto así?
El trasfondo de los números grandes En las postrimerías de la Edad Media, los matemáticos dedicados al estudio de las fracciones y de secuencias numéricas del tipo:
1 1 1 1
∑— = — + — + — + … = ∞ n 1 2 3 lo que se conoce como serie armónica, y cuya suma diverge hacia el infinito, encontraron que algunas de éstas convergían hacia un valor numérico finito o límite, lo cual constituyó verdaderamente un hecho sorprendente. El primer descubrimiento importante al respecto lo realizó Nicole Oresme a mediados del siglo xiv, quien encontró que la suma de la serie:
n 1 2 3 4
∑— = — + — + — + — + … = 2 2n 2 22 23 24
A estos números, o mejor dicho a los conjuntos compuestos por una serie interminable de términos —como se denominan las partes, separadas por un signo de adición o sustracción, y que indican los cómputos independientes en una operación seriada o polinomio—, en donde la suma de las fracciones debe converger en un valor numérico finito, es a lo que se conoce como “números grandes”. En este campo de las series infinitas, a finales del siglo xvii y comienzos del xviii, el matemático suizo Jakob Bernoulli realizó indagaciones relevantes, y él mismo descubrió el límite de algunas de ellas; pero también hizo aportes en la determinación del límite de números grandes organizados en una distribución de tipo binomial:
X
∑— n en donde X es siempre menor o igual a n. De hecho, la probabilidad clásica corresponde a este mismo tipo de distribución.
El estudio de estos objetos matemáticos tuvo repercusiones importantes en la comprensión de los números irracionales (en particular para el conocimiento de los guarismos e y p) y en el establecimiento del límite en distribuciones de datos como lo es la curva normal, la coloquialmente llamada campana de Gauss. En este último caso el límite de la serie implicada, esto es, una distribución de datos de tamaño finito o infinito, converge en la unidad (con valor = 1), en donde pueden tenerse interpretaciones que dependen del método empleado para el cálculo del área bajo la curva normal o integral de la misma; así es como se fundamentan las pruebas estadísticas de Z, t, Ji 2, F y otras más. Esto último tiene vinculación con la ley de los números grandes (basada en la cualidad de estos objetos matemáticos, ya mencionados), que planteó Jakob Bernoulli, la cual estipula que la frecuencia relativa de un suceso, cuando el número de observaciones se hace grande, con tendencia hacia el infinito, se estabiliza o converge en un valor finito, lo cual constituye la probabilidad del suceso. Así: X por 1 = X y X por 0 = 0. Este principio matemático se aplica en cierto modo en el cálculo de los tamaños de muestra.
Conectividad de las series infinitas
Todas las series infinitas, en las que se tenga comprobado que convergen en un límite finito, se relacionan entre sí, lo cual se puede apreciar si se examina un par de ellas. La primera fue obtenida en 1671 por el monje escocés James Gregory, quien encontró el límite de la siguiente serie infinita: 1 1 1 1 p
— – — + — – — + … = — 1 3 5 7 4 Este hallazgo, que revolucionó la concepción del número p, ya que al haber un algoritmo no geométrico que lo generara, se abría la posibilidad de aproximar su cálculo por medio de las series infinitas con cuyos límites está relacionado. La comprobación del vínculo de éstas con el número p por medio de desarrollos matemáticos exhaustivos fue llevado a cabo por Leonhard Euler, partiendo del denominado “problema de Basilea”, planteado en 1689 por el mismo Jakob Bernoulli, el cual buscaba el límite de la serie infinita compuesta por la suma de los recíprocos del conjunto de los números naturales elevados al cuadrado, esto es:
1 1 1 1
(— – — + — – — + …) 12 22 32 42 un hallazgo espectacular logrado por Euler en 1735, y que es equivalente a
p2
— 6 En realidad, Euler desarrolló dos soluciones al problema de Basilea, la segunda de ellas publicada en 1748. Una que agrupaba a los recíprocos de todos los naturales elevados al cuadrado (p2/6= 1/12+1/22+1/32+1/42+…), y otra que incluía sólo los recíprocos de impares de los naturales elevados al cuadrado (p 2/8 = 1/12+1/32+1/52+1/72+…). Entre ambos límites se guardan las relaciones siguientes:
3 p2 p2
— ⋅ — = — 4 6 8 y consecuentemente:
4 p2 p2
— ⋅ — = — 3 8 6 ¿Con cuál de ambos límites habrá mayor relación estructural respecto de la serie infinita cuyo límite es p/4? Si hacemos el análisis de:
p 1 1 1 1
— = — – — + — – — … 4 1 3 5 7 Al elevar ambos miembros de la ecuación al cuadrado y factorizar término a término, se tiene entonces:
p 1 1 1 1 p2 1 1 1
[—=(—)(–—)(+—)(–—)+…]2=—=E(1+—+—+—+…)
4 1 3 5 7 16 9 25 49
Este polinomio corresponde exactamente a la serie infinita cuyo límite es:
p2
—
8
El factor E es necesario para asegurar la igualdad buscada y éste se calcula de la siguiente manera:
p2
— 16 1 E=—=— p2 2 — 8 Por lo que:
1 1 1 1 1 1 1 1 1
(— – — + — – — + …)2 = — (— + — + — + — + …)
1 3 5 7 2 12 32 52 72
serie de James Gregory serie de Leonhard Euler
cuyo límite es: p/4 cuyo límite es: p 2/8 Con lo que se demuestra la identidad entre ambas (Quot erat demostrandum):
p2 1 p2
(—) = — (—) 4 2 8 ¿Y las encuestas?
Después de todo el periplo que hicimos sobre los números grandes, queda en el aire la duda de si la población —para los efectos del cálculo de un tamaño de muestra— puede ser considerada como un número grande. En realidad no, lo que sí constituye un número grande es la distribución binomial en su representación como curva normal. El convencionalismo estadístico que se aplica —que no es un principio matemático en un sentido estricto—, es el de reducir la población a un valor relativo —representado en valores de Z— del área que alcance la confianza en la curva normal y de su multiplicación por la variancia estimada (probabilidad de ocurrencia × probabilidad de no ocurrencia, es decir, pq); en donde, adicionalmente, participa también el error estimado. Por lo que el tamaño de una muestra es igual al valor de Z al cuadrado —para el área bajo la curva estimada o confianza— multiplicado por pq/el error estimado —en proporción— al cuadrado. Se trata de la ecuación más común para estimar el tamaño de las muestras en un muestreo aleatorio simple, algo que emplean las empresas que se dedican a efectuar encuestas para realizar sus cálculos. Es importante señalar que, dado el hecho de que el tamaño real de una población completa puede ser inasible, este convencionalismo permite realizar cálculos estandarizados con apego al pragmatismo y no a un teorema matemático, y que, en realidad, este mismo convencionalismo se adopta incluso en los campos científicos.
Por lo tanto, hay que tener cuidado al leer encuestas o escuchar sus resultados. No hay que olvidar que son indicadores, señalan hacia algo, se acercan, pero no son datos definitivos o que sea seguro que ocurran. Cuando en una de esas encuestas típicas difundidas en los medios impresos o electrónicos se diga al lector que los datos tienen una confiabilidad de 95% y una exactitud (medida para el margen de error estimado) de 2%, más vale interpretarlo de la manera siguiente. Si hay un margen de 2% de error estimado, se reconoce teóricamente un intervalo de confianza para dichos resultados entre 93% y 97%, con 5% de probabilidad de que los entrevistados estén fuera del intervalo de confianza establecido. Dicho de otra manera, en una encuesta la “exactitud” —una forma elegante de referirnos al error estimado— es sólo respecto de la confiabilidad estadística; que como ya lo sabemos siempre será cercana a 95%, con la excepción de aquellas estimaciones —con una mayor orientación científica— que sí buscan la “certidumbre moral” (99.9% o más). Este último concepto lo estableció Jakob Bernoulli en 1713 y, bajo este criterio, una muestra que considere una exactitud de 1% —dudo que este personaje aceptara un margen de error mayor—, sería del orden de 23 870 personas. Es por ello que el tamaño de las muestras es pequeño y el error un poco mayor, lo cual, ciertamente, es más práctico, pero no confiable en 100 por ciento.
Para efectos prácticos, si se considera el error estimado de 2% y una confianza estadística de 95%, para el caso de preferencias electorales de 40% para un candidato y de 42% para otro, si la diferencia se encuentra al filo del margen de error no es posible considerar que uno de ellos tiene garantizado el triunfo. Gran parte de la parafernalia dizque estadística que padecimos en las pasadas elecciones presidenciales no fue más que mera especulación, pues careció de fundamento científico. Aquí debería preguntarse uno si lo que se piensa de un candidato, en el fuero interno de cada quien, es un dato o razonamiento duro o no lo es.
Por supuesto, nuestro tema está muy alejado de la fisicoquímica o de la astronomía —disciplina en la que, por primera vez, a principios del siglo xix, astrónomos como Legendre y Gauss aplicaron con éxito procedimientos estadísticos, el método de los mínimos cuadrados, para calcular la trayectoria de cometas.
|
||
Conrado Ruiz Hernández
Facultad de Estudios Superiores Iztacala, Universidad Nacional Autónoma de México. |
||
Referencias bibliográficas
Clawson, C. (ed.). 1999. Misterios matemáticos. Magia y belleza de los números, Diana, México. Devlin, K. 1998. The Language of Mathematics. Making the Invisible Visible, W. H. Freeman, Nueva York. Dunham, W. 1999. Euler. The Master of Us All, Mathematical Association of America, Washington, D. C. Mankiewics, R. 2000. The Story of Mathematics, Cassell, Londres. Méndez, I., D. Namihira, L. Moreno y C. Sosa. 2001. El protocolo de investigación: lineamientos para su elaboración y análisis, Trillas, México. Naiman, A., R. Rosenfeld y G. Zirkel. 1996. Understanding statistics, McGraw-Hill, Nueva York. Ruiz, H. C. 2005. “¿Y dónde queda la población en un muestreo estadístico?”, en Ciencia y Desarrollo, vol. 30, núm. 184, pp. 6-13. _______________________________________________________________
|
||
Conrado Ruiz es Biólogo, y Maestro en Ciencias por la Facultad de Ciencias de la Universidad Nacional Autónoma de México (unam). Es candidato a Doctor en Educación en la Universidad Pedagógica Nacional (upn) Unidad Ajusco. Sus intereses son la educación ambiental y la alfabetización matemática. Es profesor de carrera en la Facultad de Estudios Superiores (fes) Iztacala de la unam.
como citar este artículo → Ruiz Hernández, Conrado. (2007). Entre encuestas, números grandes y tamaños de muestra. Ciencias 88, octubre-diciembre, 64-69. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |