revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
 de textos
        menu2
índice 134
anterior
PDF
 
                 
Ser un escéptico de los datos
134B07 
 
 
 
Cathy O’Neil  
                     
Un escéptico es alguien que mantiene
una actitud constantemente inquisitiva hacia hechos, opiniones y (especialmente) creencias asumidas como hechos.
Un escéptico formula preguntas cuando se confronta con una afirmación que ha sido aceptada como cierta. Esto no significa que un escéptico intimide a alguien por sus creencias; más bien establece experimentos razonables para ponerlas a prueba. Un escéptico realmente bueno coloca la “ciencia” dentro del término “ciencia de los datos”.

     
     

     
Cathy O'Neil
O'Neil Risk Consulting & Algorithmic Auditing

Nota
Texto tomado de On Being a Data Skeptic, O'Reilly Media Bejing, Cambridge, 2013.

Traducción
César Carrillo Trueba
     

     
  cómo citar este artículo


     
imago
        menu2
índice 134
siguiente
anterior
PDF
                 
Guerrilla antialgorítmica.
Arte contra el reconocimiento facial

134B06 
 
 
 
César Carrillo Trueba
 
                     
Los sistemas de reconocimiento de rostros se han
vuelto muy populares, desde el Facebook hasta las cámaras digitales que se usan hoy día, pasando por el visado basado en ellos que ya no obliga a responder a un cuestionario de un agente de migración sino por una máquina y prometen ser el medio para retirar dinero de un cajero automático, activar el celular y otras tantas cosas más.
 
Su precisión es sorprendente; son programas de almacenamiento y análisis de datos capaces de reconocer la cara de millones de personas, sistemas de inteligencia artificial en donde un algoritmo diseñado exprofeso aprende a reconocerlos con base en dicho universo. A partir de una fotografía de un grupo, por ejemplo, el programa comienza detectando los rostros, los estandariza, es decir, modifica su ángulo, balancea la intensidad de la luz, recupera la información cuando la resolución es baja, hasta quedar en un formato que permita su comparación y sobresalgan sus rasgos más característicos. A partir de ellos, el algoritmo trabajará, comparando con los datos almacenados y, si la persona figura en ellos, aunque sea una imagen de algunos años atrás, establecerá su identidad; de no figurar en su base de datos, le será imposible.
 
Esto último es lo que ha empujado a las compañías y servicios policíacos a una acumulación de datos de personas sin precedente, suscitando muchos debates debido a la inmensa cantidad de información sobre los ciudadanos, concentrada en algunas instancias, cuyo destino y uso son desconocidos —hay venta de éstos incluso. Un ejemplo puede ilustrar esto, digamos, una joven responde a una convocatoria para emplearse en una compañía y pasa el primer filtro; en el segundo, la compañía busca saber más de ella y recurre desde su Facebook hasta una empresa dedicada a investigar acerca de personas, la cual presenta evidencias de que la chica mantiene una posición activa en pro de los derechos de la mujer y ha participado en reuniones y manifestaciones públicas. Dada la mala prensa que asocia este tipo de expresiones con actitudes violentas, conflictivas, a pesar de los méritos y capacidad laboral, el directorderecursoshumanosdelaempresa decide no emplearla y da el puesto a un chico con un perfil más convencional. Cuando uno se entera de que el gobierno de Estados Unidos cuenta con una base de retratos e información de casi 10% de la población mundial, y conociendo sus políticas de seguridad, el asunto escala a proporciones alarmantes.
 
Ante esta situación, hay quienes prefieren no hacer tan patentes sus convicciones o recurren a formas tradicionales de ocultar el rostro, como el uso de paliacates o pañuelos que cubren la mitad del rostro, pero los sistemas de reconocimiento funcionan con pixeles y son capaces de identificar un rostro con tan solo el área de los ojos. Por ello, algunos artistas tuvieron la idea de recurrir a otros medios, analizando el funcionamiento de los algoritmos que operan en estos sistemas.
 
Así, Adam Harvey creó una apariencia de inspiración cubista, pintando partes del rostro y diseñando peculiares peinados, que por su configuración asimétrica logra bloquear el reconocimiento pues los algoritmos operan con base en relaciones de simetría en el rostro; lo denominó dazzle en alusión a un camuflaje empleado en barcos durante la primera guerra mundial para confundir al enemigo con diseños geométricos que no le permitieran saber la dirección en que se movía el buque.
 
Seis puntos conforman su propuesta: 1) evita maquillaje que resalte tus rasgos pues amplifican tus características y eres más fácil de detectar; mejor aplica maquillaje de tonos inusitados que contrasten con tu tono de piel (colores claros para piel oscura y viceversa) y con figuras orientadas distintamente a tu rostro; 2) oscurece parcialmente el área de unión de los ojos y el tabique de la nariz con la frente pues se trata de un área clave para el reconocimiento, principalmente mediante el algoritmo de detección OpenCV; 3) oscurece parcialmente una de las zonas oculares, ya que la posición y oscuridad de los ojos es un rasgo clave también; 4) evita usar máscaras o cubrir el rostro, en lugar de esto, modifica el rostro con maquillaje, su contraste, el gradiente de sus tonos, la relación entre áreas oscuras y claras, o bien empleando accesorios de moda; 5) oscurece la forma elíptica de la cabeza pues ayuda a bloquear la detección; y 6) crea siempre una apariencia asimétrica modificando tu cabello y empleando maquillaje y accesorios, esto es esencial por la simetría que rige el funcionamiento de los algoritmos.
 
La intención de estos grupos de artistas y activistas es la defensa de la privacidad, de la libertad, de los derechos ciudadanos. Su éxito ha sido notable sobre todo entre personas involucradas en movimientos sociales alternativos, afines a tales objetivos. Existen incluso grupos como Dazzle Club, cuyo propósito específico es la denuncia de la vigilancia policíaca y el uso que se da a la información colectada por ésta mediante los innumerables dispositivos en todo rincón de Londres (hay casi medio millón de cámaras de video).
 
El argumento de las empresas y los servicios de seguridad es que esto impide eventos como los ataques terroristas, lo cual es muy cuestionado —hay análisis con datos fidedignos. Así, han tomado como un reto crear algoritmos más potentes, capaces de operar a pesar de este tipo de alteraciones faciales. Los artistas y activistas, artivistas, no se rinden tampoco y ya preparan nuevos looks, a manera de una guerra de guerrillas si se compara el arsenal de unos y otros, la magnitud de empresas como Facebook y la dimensión de estos colectivos.

Como en una novela distópica de Philip K. Dick, de George Orwell o de Ray Bradbury: incluso ante el poder tecnológico más enorme, autoritario y aplastante, siempre habrá quien defienda la libertad.
 
     
Referencias bibliográficas

Acquisti, Alessandro, Ralph Gross y Fred Stutzman. 2014. “Face Recognition and Privacy in the Age of Augmented Reality”, en Journal of Privacy and Confidentiality, vol. 6, núm. 2, pp. 1–20.
     Harvey, Adam. 2010. cvdazzle, un sitio con abundante información (https://cvdazzle.com/).
     O’Neil, Cathy. 2016. Weapons of Math Destruction. Broadway Books, Nueva York.

César Carrillo Trueba
Facultad de Ciencias,
Universidad Nacional Autónoma de México.

     

     
 
cómo citar este artículo


     
 de la memoria II
        menu2
índice 134
siguiente
anterior
PDF
                 
En memoria
de los académicos agraviados durante
la dictadura franquista
134B05 
 
 
 
Carmen Calvo Poyato
 
                     
No oculto ni quiero ni debo ocultar la emoción,
el sentimiento que tengo, que adivino es compartido por todos los que estamos aquí presentes.
 
Querido colega del gobierno, Ministro; Presidente de la Real Academia de Ciencias; académicos, académicas, familiares, señoras y señores:
 
Hombres y mujeres que tuvieron que buscar su vida fuera de nuestro país por una situación no solamente trágica, sino injusta y sangrienta, de la que aún no nos hemos recuperado. Todavía en cualquier lugar del mundo, cuando te presentas como tal, en los ámbitos científicos nos siguen recordando a los hombres y a las mujeres de este país que hay una parte de la ciencia, en el ámbito correspondiente, que sigue viviendo del gran Santiago Ramón y Cajal.
 
Todavía tenemos que recuperarnos de todos los años en los que se nos han escapado talentos, investigación, aplicación científica y por tanto futuro y obligación de futuro en una competividad cada día más dificultosa en el plano internacional.
 
La política para servir a tu país, siendo compleja, es siempre gratificante, pero tiene momentos, si acaso, en los que la persona que en ese momento los encarna, mi modesta persona en este momento, lo hace de una manera completamente compacta: coincide lo que sientes, lo que piensas, lo que haces, lo que dices y lo que quieres representar.
 
Una España que no puede volver —porque no tiene punto de retorno— a una situación donde la España a la que pertenecemos no nos albergue absolutamente a todos en nuestras libertades, en nuestra pluralidad, en el valor superior de nuestro modelo constitucional, que es el pluralismo político, y donde no ocurra ni una sola vez más la tragedia que supone desprendernos de los mejores.
 
Éste es un acto de justicia que llega tarde, muy tarde, pero que para el gobierno no tiene duda ninguna. Para este gobierno, que representa el conjunto de los intereses de este país, no habrá forma de hacernos cambiar de rumbo en lo que representa el recuerdo y la memoria. No hay paz sin justicia. Nadie nos puede obligar a no recordar para no restituir, para no saber lo que ocurrió. Nadie nos podrá obligar a esta renuncia y no lo haremos. Por eso el 21 de diciembre, el Ministro de Ciencia —al que le agradecí y ahora le agradezco públicamente en este acto civil pero solemne, en este ritual de justicia de restitución—, propuso al conjunto del Consejo de Ministros restituir el nombre, el honor, el prestigio y el servicio inmenso que le hicieron a su país los siete científicos represaliados y destituidos de los honores que les correspondían a título de sus méritos personales.
 
No hay una situación más irracional, más insoportable que ésta, donde la sinrazón compite justo en el lugar donde la ciencia busca la razón.
 
Decía antes que en la cultura y en la ciencia los seres humanos nos adentramos en la averiguación de lo desconocido, de los misterios que la vida entraña. Si la ciencia lo hace desde el lado racional y objetivable, en la cultura se hace desde el lado libérrimo y subjetivo de la búsqueda, pero al final búsqueda.
 
Los hombres y mujeres que se dedican a la ciencia en sus vidas como seres particulares gozan de los mismos defectos o virtudes que los demás, pero al confiar en sí mismos, en su propio instinto y en la creatividad que les mueve tanto en el nivel científico como en el cultural, devienen diferentes de los demás. Son más valientes: arrostran las dificultades de comprobar y de ser sometidos a juicio, arrostran las dudas de caminar por lugares desconocidos. Y por eso no solamente hemos de rendir justicia a ellos siete, sino eterno agradecimiento a todos los demás en aquel momento de nuestro país.
 
El agradecimiento enorme que para algunos países, como México, significó justo lo contrario que para España. Los miles de hombres y mujeres, en el ámbito de la ciencia y de la cultura, particularmente queridos y elegidos por el presidente Lázaro Cárdenas, supusieron un punto de arranque de la modernidad de México, de la luminosidad también de sus instituciones científicas, empezando por la unam.
 
Somos conscientes los españoles de esto. Rendimos en su momento homenaje de gratitud al presidente Cárdenas porque salvó una parte importante, siendo todas las vidas humanas iguales, de lo mejor que habían producido la ciencia y la cultura españolas. Muchos pensamos, a título cívico, que no nos hemos recuperado todavía de aquella descapitalización, de aquella situación en la que nos tuvimos que desprender de ese capital importante.
 
Con este acto reconocemos y restituimos también el honor y la memoria de quienes en aquel momento los acompañaron, de tantos otros que sin su grado de excelencia —profesores ayudantes, becarios con niveles diferentes del rigor del reconocimiento que la Academia les otorgó a ellos— en sus rangos de catedráticos y de doctorado en otras universidades fuera de las nuestras, también arrostraron esta injusticia.
 
Se afirma poder cerrar, como reza el preámbulo de la Ley de Memoria Histórica, poder cerrar las heridas con la verdad. Sólo así quedarán cerradas, sólo así en un año en el que celebramos ya el 41 aniversario de nuestra Constitución, seremos entre todos capaces de trazar un futuro donde estas negruras no vuelvan.
 
Estamos en un momento complejo en el plano nacional, internacional y europeo, donde aparecen nubarrones sostenidos sobre la irracionalidad de las posiciones. Nunca dejaremos de sostener los profundos valores humanos que encierran los valores democráticos. Defendámoslos en todas las posiciones posibles. Pero una de ellas, importante para el gobierno, tiene que ver con la memoria histórica. Porque es la memoria desde la que recibimos lecciones importantes, porque es una suerte de brújula para saber también los rumbos del presente y del futuro. En ello no pararemos y por eso, querido Ministro, no solamente te he agradecido en su momento la iniciativa, sino que ahora, a título estrictamente cívico, te agradezco mucho que me hayas permitido vivir este momento.
 
Gracias.
 

     
Nota
Discurso pronunciado durante el Acto en memoria de los académicos agraviados durante la dictadura, Madrid, 30 de enero de 2019.
     

     
Carmen Calvo Poyato
Vicepresidenta del Gobierno de España.

     

     
 
cómo citar este artículo


     
 de la memoria I
        menu2
índice 134
siguiente
anterior
PDF
                 
España que perdimos, no nos pierdas, …que un día volveremos
134B04   
 
 
 
Antonio Bolívar
 
                     
Señora Vicepresidenta del Gobierno de España,
doña Carmen Calvo;
Señor Ministro de Ciencia, Innovación y Universidades, don Pedro Duque;
Señor Presidente de la Real Academia de Ciencias Exactas, Físicas y Naturales, don Jesús María Sanz-Serna;
Señoras y señores Académicos;
Amigos todos:
 
Asistimos a un insólito acto de justicia. También, de amistad y de solidaridad. Solidaridad con los miembros de esta Academia que fueron despojados de manera injusta e ilegítima de su condición de académicos, tan preciada para ellos, por una Orden Ministerial de 10 de mayo de 1941, dos años después de terminada la Guerra Civil.
 
Agradezco emocionado la invitación de la Academia de Ciencias para decir aquí unas palabras, a nombre de los descendientes de esos científicos españoles que hace 78 años fueron agraviados por la dictadura.
 
Para comprender el significado del hecho histórico sin precedentes que hoy nos convoca es imprescindible remitirnos a sus orígenes.
 
Durante el gobierno del presidente Rodríguez Zapatero se promovió la “Ley de la Memoria Histórica”, que fue aprobada por las Cortes Generales y publicada en el Boletín Oficial del Estado el 26 de diciembre de 2007. De la exposición de motivos destaco algunos párrafos. Cito:
 
“El espíritu de reconciliación y concordia, y de respeto al pluralismo y a la defensa pacífica de todas las ideas, que guió la Transición, nos permitió dotarnos de una Constitución, la de 1978, que tradujo jurídicamente esa voluntad de reencuentro de los españoles, articulando un Estado social y democrático de derecho con clara vocación integradora […].
 
“La presente Ley asume […] la condena del franquismo contenida en el Informe de la Asamblea Parlamentaria del Consejo de Europa firmado en París en marzo de 2006, en la que se denunciaron las graves violaciones de Derechos Humanos cometidas en España entre los años 1939 y 1975.
 
“Es la hora, así, de que la democracia española y las generaciones vivas que hoy disfrutan de ella honren y recuperen para siempre a todos los que directamente padecieron las injusticias y agravios producidos en aquellos dolorosos periodos de nuestra historia. Desde luego, a quienes perdieron la vida […]. También […] a quienes perdieron la patria al ser empujados a un largo, desgarrador y, en tantos casos, irreversible exilio […].
 
“[En esta Ley] se hace una proclamación general del carácter injusto de todas las condenas, sanciones y expresiones de violencia personal […] por motivos inequívocamente políticos o ideológicos, durante la Guerra Civil, así como las que, por las mismas razones, tuvieron lugar en la dictadura posterior […]. [y se declara] la ilegitimidad de las sanciones impuestas […]. Se subraya, así, de forma inequívoca, la carencia actual de vigencia jurídica de aquellas disposiciones y resoluciones contrarias a los derechos humanos y se contribuye a la rehabilitación moral de quienes sufrieron tan injustas sanciones y condenas […].
 
“En definitiva, la presente Ley quiere contribuir a cerrar heridas todavía abiertas en los españoles y dar satisfacción a los ciudadanos que sufrieron, directamente o en la persona de sus familiares, las consecuencias de la tragedia de la Guerra Civil o de la represión de la dictadura […] desde el pleno convencimiento de que […] no son sólo esos ciudadanos los que resultan reconocidos y honrados, sino también la Democracia española en su conjunto”. Termina la cita.
 
Recientemente, el 21 de diciembre de 2018, el Consejo de Ministros acordó el “Reconocimiento del carácter injusto y declaración de la ilegitimidad de las sanciones a académicos de la Real Academia de Ciencias Exactas, Físicas y Naturales durante la dictadura”.
 
Ese Acuerdo y la presencia en este acto de la Vicepresidenta del Gobierno y otras autoridades, son muestra fehaciente del interés del actual gobierno español en llevar hasta sus últimas consecuencias los preceptos de la “Ley de la Memoria Histórica”. Enhorabuena, con nuestro profundo agradecimiento. Hay muchas injusticias por reparar, pero, sin duda, el primer paso es reconocerlas.
 
Los siete científicos expulsados fueron las siguientes personas: Enrique Moles Ormella (Barcelona, 1883-Madrid, 1953); químico, farmacéutico, ingresó a la Academia en 1933. Ignacio Bolívar y Urrutia (Madrid, 1850-Ciudad de México, 1944); naturalista, entomólogo, ingresó en 1898. Honorato de Castro y Bonet (Borja [Zaragoza], 1885-Ciudad de México, 1962); físico, geógrafo, ingresó en 1934. Enrique Hauser y Neuburger (Gibraltar, 1866-París, 1943); químico, ingeniero de minas, ingresó en 1910. Emilio Herrera y Linares (Granada, 1879-Ginebra, 1967); ingeniero militar y aeronáutico, ingresó en 1932. Pedro Carrasco Garrorena (Badajoz, 1883-Ciudad de México, 1966); físico, astrónomo, ingresó en 1929. Blas Cabrera y Felipe (Lanzarote, 1878-Ciudad de México, 1945); físico, ingresó en 1909.
 
Es imposible describir en pocas líneas la excepcional trayectoria profesional de estos españoles, que puede consultarse en innumerables libros y artículos biográficos que se han escrito en torno a ellos. Sólo diré, porque es ilustrativo de lo que les esperaba si volvían a su país durante la dictadura, que Enrique Moles, el único que regresó, en 1941, tenía cuatro doctorados de varias universidades europeas (Leipzig, Ginebra, Barcelona y Madrid). Moles fue detenido y juzgado, y el fiscal pidió la pena de muerte. Condenado a prisión perpetua, durante casi dos años estuvo preso y, al cumplir 60 años de edad, fue liberado. Al salir de la cárcel, obviamente inhabilitado para ejercer su profesión, sólo pudo conseguir un empleo como asesor técnico de unos laboratorios farmacéuticos. Nunca actuó en el plano de la política. El “delito” cometido —denominador común de todos— fue estar al lado de la República.
 
Cuatro de los siete se exiliaron en México —como muchos miles de compatriotas de todas las profesiones y oficios, y sus familias—, gracias a la generosa invitación del gobierno del presidente Lázaro Cárdenas, que nunca dejaremos de reconocer, valorar y agradecer. Allí pudieron continuar sus actividades, hasta el fin de sus días, y allí fueron sepultados. Su quehacer profesional, unido al de otros españoles, fue de importancia trascendental para el país adoptivo.
 
La labor científica de conjunto más importante de los exiliados en México fue la creación y el sostenimiento durante 36 años de Ciencia. Revista Hispano-Americana de Ciencias Puras y Aplicadas. Fundada y dirigida por científicos españoles, entre ellos Ignacio Bolívar y Blas Cabrera, y con el apoyo de colegas mexicanos, Ciencia fue un medio para dar a conocer sus trabajos y los de muchos otros investigadores de diversos países de Hispanoamérica, y sirvió como enlace permanente entre esa comunidad. Algo realmente increíble, considerando entre otras cosas que no existían los medios de hoy, es que el primer número de Ciencia apareció el 1 de marzo de 1940, !apenas siete meses después de la llegada a México de sus fundadores!
 
Muchos de quienes me escuchan saben lo que significó el exilio. No obstante, quiero recordarles unos versos del poema Entre España y México que escribió Pedro Garfias en julio de 1939 a bordo del Sinaia, poco antes de desembarcar en Veracruz, porque reflejan una idea que estaba presente en el pensamiento y en el corazón de los exiliados en aquellos momentos:
 
Muchos de quienes me escuchan saben lo que significó el exilio. No obstante, quiero recordarles unos versos del poema Entre España y México que escribió Pedro Garfias en julio de 1939 a bordo del Sinaia, poco antes de desembarcar en Veracruz, porque reflejan una idea que estaba presente en el pensamiento y en el corazón de los exiliados en aquellos momentos:
 
    “España que perdimos, no nos pierdas,
    guárdanos en tu frente derrumbada,
    conserva a tu costado el hueco vivo
    de nuestra ausencia amarga,
    que un día volveremos, más veloces,
    sobre la densa y poderosa espalda
    de este mar, con los brazos ondeantes
    y el latido del mar en la garganta”.

Termino. A nombre de mi familia, representada aquí por tres generaciones distintas, devuelvo —como era obligado hacerlo— la venera número 2 de la Academia que le fue asignada hace más de cien años a Ignacio Bolívar. Pensamos que, con este hecho simbólico, los siete científicos agraviados vuelven hoy a esta casa de pie, con la frente en alto y la mirada serena. España los honra de nuevo.

     
Nota
Palabras pronunciadas en la Real Academia de Ciencias Exactas Físicas y Naturales durante el Acto en memoria de los académicos agraviados durante la dictadura, Madrid, 30 de enero de 2019.
     

     
Antonio Bolívar
Editor mexicano

     

     
 
cómo citar este artículo


     
 de la sociedad
        menu2
índice 134
siguiente
anterior
PDF
                 
Sociología relacional y desigualdad social, algunas reflexiones para su discusión
134B03 
 
 
 
Diosey Ramón Lugo Morin
 
                     
La desigualdad social es un fenómeno que ha sido
analizado en toda su extensión; algunos estudios lo abordan desde el binomio igualdad-desigualdad, otros desde inclusión-exclusión, como señala Herzog. Por otra parte, reflexiones recientes ven apropiado dejarle de llamar desigualdad y denominarlo vulnerabilidad social o frontera, como sugiere Luhmann. Esta dinámica, que emerge alrededor del fenómeno, es parte del debate actual que se ha profundizado con la crisis sistémica del modelo capitalista iniciada en septiembre de 2008. El presente análisis está orientado a abordar el tema desde una perspectiva no convencional con la idea de entender su lógica en la sociedad contemporánea y proporcionar los elementos que permitan el diseño de buenas políticas públicas.
 
Un contexto relacional
 
El debate sobre los orígenes, desarrollo y naturaleza del fenómeno que denominamos desigualdad social tiene una larga tradición en el pensamiento social, y se puede visualizar con claridad en la obra de dos clásicos, Hobbes y Rousseau, autores que han constituido una fuente de inspiración para las tradiciones liberales y socialistas o radicales respectivamente, de cuyas posiciones se derivan las respuestas que se ensayan. Dicho debate ha girado en torno a tres grandes núcleos temáticos: el primero se encuentra relacionado con la génesis misma de las desigualdades sociales; el segundo está vinculado a la relación entre individuo y sociedad; y el tercero se halla incrustado en sus elementos prospectivos. Tales vertientes analíticas abren un mundo de posibilidades para este fenómeno, en el cual el análisis sociológico relacional se perfila como idóneo. 
 
De acuerdo con Donati, la articulación del capitalismo con las fuerzas locales, sus relaciones y contradicciones, es lo que crea su especificidad y la necesidad de un análisis de las estructuras particulares, de un enfoque que trascienda lo que se considera análisis estructural. En esta misma lógica, Dahrendorf debate sobre la estructura social y el individuo, sosteniendo que la estructura social no aplasta al individuo, aunque éste tampoco está totalmente libre de constricciones y condicionamientos sociales a la hora de efectuar sus elecciones. Se trata de un actor social que está imbricado en un entramado social, y es precisamente tal imbricación lo que define las oportunidades que éste tiene para el logro de niveles de desarrollo personal y cuyo principal atributo son las “ligaduras sociales”, a saber las redes sociales que establece el actor social con su entorno.
 
En esta lógica, es válido considerar que la desigualdad social es parte de una dinámica constante de cambios sociales, como lo muestra la de los territorios y sus actores. Estos cambios detonan el accionar individual y colectivo de los actores sociales animando procesos multirrelacionales (negociación, cooperación, subordinación y conflicto). Lo anterior nos ubica en un sistema social altamente recursivo, en el cual los colectivos y los individuos son multirrelacionales y la dinámica reticular es la base interactiva con sus pares. 
 
Para abordar esta realidad es necesario el uso de nuevas herramientas analíticas que permitan actuar y pensar en términos relacionales, y entre ellas se destaca la sociología relacional.
 
De acuerdo con Donati, el que un individuo viva bien o no va a depender de sus bienes relacionales. Desde el punto de vista de la teoría relacional de la sociedad, como lo explica este autor, vemos sujetos que enfrentan la necesidad de conferir una normatividad a las relaciones sociales que sea adecuada para lograr con éxito la promesa de una buena vida. Las interacciones de los agentes sociales pueden producir una cohesión social que respete los derechos de las personas, algo necesario entre los individuos relacionales. Las personas crean cohesión social en la medida que actúan como individuos que reflexionan sobre las relaciones sociales y, sin necesariamente compartir los mismos gustos y opiniones, no obstante pueden construir una “relación de nosotros”. 
 
Esto implica entender el significado y las implicaciones prácticas de cómo se constituye un individuo relacional, si es una sola persona o un conjunto de personas que actúan como una entidad colectiva o como una red social.
 
El paradigma relacional argumenta que existe una salida, pero es necesario escapar de las paradojas de la modernidad mediante un proceso de avance cultural. Para resolver el mensaje paradójico de la modernidad se debe mirar el enigma de la relación social y su posible gestión, el cual sostiene, como parte de las estructuras sociales y culturales, la norma de que los individuos deben realizarse a sí mismos haciéndose independientes de todo vínculo social. De este mandato sistémico deriva un claro engaño que consiste en atribuir a los individuos solitarios responsabilidades de todo lo que les sucede en la vida, y de esto deriva el sentido represivo de lo humano y lo social en la sociedad actual.
 
Conclusión
 
En teoría atribuimos la desigualdad social al modo de producción capitalista pero la perspectiva relacional argumenta que existen otros elementos a considerar en el análisis de la pobreza y sus causas, uno de los cuales, un elementos clave, es el vínculo social. Un individuo con una mínima reserva relacional puede crear espacios de posibilidades orientadas a detonar su entorno económico y social.
 
Esta manera de ver la desigualdad social, la cual es poco convencional, no pretende ser la base teórica prospectiva para mitigar este flagelo de la sociedad contemporánea; por el contrario, persigue identificar los elementos esenciales que permitan, a quienes elaboran las políticas públicas, diseñar e instrumentar políticas efectivas en el ámbito de la modernidad actual.  

     
Referencias bibliográficas

Dahrendorf, R. 1983. Oportunidades vitales: notas para una teoría social y política. Espasa-Calpe, Madrid.
     Donati, P. 1993. “Pensamiento sociológico y cambio social: hacia una teoría relacional”, en Revista Española de Investigaciones Sociológicas, núm. 63, pp. 29-51.
     _______. 2017. “The good life as a sharing of relational good”, en Relational Social Work, vol.1, núm. 2, pp. 5-25.
     Herzog, B. 2011. “Exclusión discursiva: hacia un nuevo concepto de la exclusión social”, en Revista Internacional de Sociologia, vol. 69, núm. 3, pp. 607-626.
     Mora Salas, Minor. 2007. “Desigualdad social: ¿nuevos enfoques, viejos dilemas?”, en Desigualdad social en América Latina: viejos problemas, nuevos debates, Mora Salas, Minor, Juan Pablo Pérez y Fernando Cortez (coords.), Costa Rica. Pp. 9-44.

     

     
Diosey Ramón Lugo Morin
Universidad Intercultural del Estado de Puebla.
     

     
 
cómo citar este artículo


     
 de la equidad
        menu2
índice 134
siguiente
anterior
PDF
                 
Cadena de suministro para
el comercio justo
de productos primarios en México

134B01   
 
 
 
Ignacio Ortuño, Bladimir Méndez, Hiram Ramírez y José de Jesús Contreras  
                     
El Comercio Justo a escala internacional tiene sus inicios
en el año de 1960 y en 1964 aparece oficialmente en el Marco de la Conferencia de las Naciones Unidas sobre Comercio y Desarrollo “Comercio, no Ayuda”.
 
El impulso para su consumo vino principalmente de las organizaciones civiles de Europa. La premisa del movimiento fue que, además de brindarles ayuda financiera, los países del Tercer Mundo necesitan generar los recursos para que ellos mismos se desarrollen.
 
En los ochentas empezó la venta de una amplia variedad de productos bajo esta etiqueta y una mejora en la calidad de los mismos, provocando un incremento en la demanda en el mercado internacional de nuevas mezclas de café, tipos de té, miel, azúcar, cacao, nueces y otros productos.
 
La economía solidaria
 
El comercio justo se define como una asociación comercial que favorece al desarrollo sostenible de los productos excluidos o desfavorecidos garantizando mejores condiciones comerciales; propicia la participación plena y consciente de los productores de bienes y servicios y de quienes los consumen, buscando como orientación y dirección la reproducción de la vida; rechaza toda forma de explotación de las necesidades y el trabajo ajenos y toda discriminación; elimina la razón de lucro como único y principal sentido de la actividad económica; afirma la fuerza de la cooperación como instrumento; y sirve en lugar de utilizar las necesidades económicas, sociales y culturales de las personas y de las comunidades.
 
En su funcionamiento, el comercio justo tiene como objetivo el eliminar intermediarios innecesarios, logrando que los productores y sus familias, generalmente en el sur, reciban una remuneración suficiente por sus productos de parte de sus contrapartes en el norte con el fin de lograr un adecuado nivel de vida. Esto implica un precio justo, financiamiento y una relación comercial de largo plazo.
 
Diez principios
 
1. Los productores forman parte de cooperativas u organizaciones voluntarias y funcionan democráticamente.
2. Libre iniciativa y trabajo.
3. Rechazo a la explotación infantil.
4. Igualdad entre hombres y mujeres.
5. Se trabaja con dignidad respetando los derechos humanos.
6. El precio que se paga a los productores permite condiciones de vida dignas.
7. Los compradores generalmente pagan por adelantado para evitar que los productores busquen otras formas de financiarse.
8. Se valora la calidad y la producción ecológica.
9. Respeto al medio ambiente.
10. Evitar intermediarios entre productores y consumidores.

Objetivos del comercio justo
 
• Garantizar un salario justo a los trabajadores.
• Mejorar las condiciones de seguridad e higiene en el lugar de trabajo.
• Igualdad de oportunidades para las mujeres.
• Salvaguardar las minorías étnicas.
• Una mejora en las condiciones de vida gracias a las primas destinadas a realizar inversiones comunitarias (educación, sanidad, vivienda, etcétera).
• Productos de calidad.
 
Redes y actores
 
El comercio justo se compone de una red de diversos actores que cumplen diferentes funciones con el fin de acortar la distancia entre productor y consumidor. Todo esto con el fin de evitar la larga cadena de intermediarios que normalmente existe en el comercio tradicional, la cual obstaculiza la obtención de información respecto de la procedencia y las condiciones de elaboración de los productos y absorbe gran parte de las ganancias de la comercialización de éstos, encareciendo, por lo tanto, el producto que se ofrece al consumidor final. Básicamente son:
 
• Productores.
• Organizaciones nacionales e internacionales.
• Tiendas de comercio justo.
 
Implicaciones
 
El comercio justo toca un tema fundamental hoy día, que es el de la igualdad laboral, tanto en la producción como en la comercialización de productos, evita la explotación de la mano de obra infantil y promueve la dignidad de los salarios de los trabajadores.
 
Una de sus implicaciones es el disminuir o eliminar los intermediarios para que se pueda pagar un mejor precio directamente al productor.
 
Una parte fundamental del comercio justo es que busca mejorar las condiciones económicas y sociales de los pequeños productores mediante valores como la solidaridad, la justicia social, la preservación del patrimonio y el respeto hacia la naturaleza. El comercio justo ayudo a los productores marginados a salir y poder incursionar en el mercado internacional.
 
Para América Latina esto es esencial ya que, históricamente, la agricultura ha sido una fuente fundamental de subsistencia, por lo tanto, no sólo es un medio potencial clave para las estrategias de reducción de la pobreza y el desarrollo, sino un sector de suma importancia respecto de la seguridad alimentaria y la sustentabilidad ambiental de los países.
 
Una metodología
 
La aquí propuesta metodología tiene como finalidad implementar una buena cadena de suministro para eliminar los intermediarios y que exista un trato directo entre productor y consumidor final (el modelo general se presenta en el diagrama de la figura 1).
 
El agente puede ser desde una tienda minorista (siempre y cuando no influya de manera directa en la decisión del precio final) hasta una plataforma digital de distribución de productos de una manera justa, ampliándose la cadena de suministro como se muestra en la figura 2.
 
Conclusiones
 
Si bien tradicionalmente, hasta hace no mucho, el consumidor compraba solamente lo que se produce en un país, no lo hacía de una manera justa, ya que las tiendas de detalle influyen en el precio final del producto, lo cual se traduce en precios altos para los consumidores finales y compra a precios bajos para el productor.
 
     
Referencias bibliográficas

Andrade Egas, Fabián. 2008. Comercio Justo o Economía Solidaria, en Revista afese, vol. 49, núm. 49, pp. 103-118.
     Caballero, Hilda. 2015. La economía solidaria en México, en Revista Problemas del desarrollo, vol. 46, núm. 181, pp. 205-207.
     Ceccon Rocha, Brisa. 2008. El Comercio Justo en América Latina: Perspectivas y Desafios, Ciudad de México, Universidad Nacional Autónoma de México.
     Ceccon Rocha, Brisa y Eliane Ceccon. 2010. La red del Comercio Justo y sus principales actores, en Boletín del Instituto de Geografía, UNAM, núm. 71, pp. 88-101.
     Lara Pineda, O. 2000. El Comercio Justo en Europa. Evolución, funcionamiento, estructura institucional y tendencias, en CIAT, 8 de marzo.
     Martínez Martínez, M., A. Montes del Castillo y M. Carrillo Escobar. 2008. Comercio Justo y Consumo Responsable en la Universidad de Murcia. Nuevas propuestas, en Anales de IV Congreso Universidad y Cooperación al Desarrollo, Barcelona.
    Socías Salvá, Antonio y Natividad Doblas. 2005. El comercio justo: implicaciones económicas y solidarias, en Revista de economía pública, social y cooperativa, CIRIEC-España, núm. 51, pp. 7-24.
     

     
Ignacio Rubén Ortuño Albarrán,
Bladimir Méndez Villaseñor,
Hiram Felipe Ramírez Acosta
y José de Jesús Contreras Navarrete
Instituto Tecnológico de Morelia.
     

     
 
cómo citar este artículo


     
 de la tecnología
        menu2
índice 134
siguiente
anterior
PDF
                 
Logística  humanitaria
134B01   
 
 
 
Andrea Buenrostro y
Verónica Bibriesca Sánchez

 
                     
Cada año, alrededor del mundo ocurren catástrofes  
y desastres naturales o provocados por el hombre que afectan a millones de personas. En 2017, por ejemplo, aumentó la cantidad promedio de huracanes y México fue sacudido por un terremoto de 7.1 de magnitud que causó la muerte de cientos de personas. Es importante diferenciar catástrofe y desastre pues según el Dr. Holguín-Veras: “la diferencia fundamental entre catástrofe y desastre es la capacidad local de respuesta. En el evento catastrófico la capacidad local de responder desaparece completamente y toda la carga proviene del exte-catastrófico el problema mayor es la distribución de la carga”.
 
Cualquiera que sea el caso, la magnitud de personas afectadas requiere una atención continua derivada de donadores, medios de comunicación, organizaciones humanitarias y gubernamentales, por lo que es importante diseñar estrategias que aseguren la efectividad en las operaciones de asistencia. La logística es la columna principal para éstas, ya que van desde la distribución, la localización óptima de los centros de distribución, la planeación de las donación por mencionar algunas, y en este último rubro hay un grave problema que se viene estudiando desde 1957.
 
De acuerdo con las estadísticas, los materiales donados que son de alta prioridad representan entre 5% y 10%, los productos de media prioridad entre 30% y 35%, mientras que los artículos sin prioridad representan 60% del total de las aportaciones, lo cual significa una falta de materiales de alta prioridad y el congestionamiento del flujo de transporte de la región afectada, como señala Salazar.
 
La logística se define como la parte del proceso de la cadena de suministros que planea, lleva a cabo y controla el flujo y almacenamiento eficientes y efectivos de bienes y servicios, así como de la información relacionada, desde el punto de origen hasta el punto de consumo, con el fin de satisfacer los requerimientos de los clientes. En un enfoque humanitario, los bienes y servicio son las donaciones y los clientes los damnificados. Asimismo, el objetivo principal de la logística se define como el de ofrecer el mayor nivel de servicio, posible con la mayor rentabilidad posible; esto se traduce en la logística humanitaria como la reducción de los costos sociales (sufrimiento humano debido a la falta de bienes y servicios, más los costos que implica toda la operación a causa de tales eventos.
 
Desafortunadamente, las operaciones en este proceso son invariablemente complejas, ya que la capacidad de respuesta debe ser inmediata en situaciones no previstas en términos de demanda: ¿qué cantidad?, ¿cuándo?, ¿dónde? y ¿cómo? son algunas de las cuestiones que se presentan en la distribución de ayuda, lo que implica una alta flexibilidad en la cadena de suministro.
 
En conclusión, la planeación en la logística humanitaria es compleja, pues ocurre en medio de una incertidumbre total, ya que no se puede predecir cuándo ni dónde se presentará un desastre. Implementar estrategias y planes de acción eficientes resultaría de gran ayuda, pero en países como México, que se caracteriza por una cultura reactiva, es decir, que actuamos cuando el evento ya sucedió y no antes, resulta más compleja la asignación de recurso y planeación. La cadena de suministro humanitaria no termina en el corto plazo, aun cuando el desastre esté controlado, se requiere aún más recursos para las personas damnificadas al largo plazo.
 
Cuando el terremoto de México, en 1985, en un principio todos apoyaron, pero al paso del tiempo la ayuda dejó de llegar, quedando muchos ciudadanos sin hogar, sin refugio, carentes de productos de primera necesidad. Ya decía Napoleón Bonaparte: “aquel que no conoce su historia está condenado a repetirla”; en ese sentido, debemos generar conciencia en la sociedad, ya que el sustento principal en la cadena humanitaria proviene de las donaciones, por lo que es necesario que se difunda que la fase de recuperación siempre es la de mayor duración, que requiere mayores recursos, cuando suele presentarse la necesidad de reconstruir viviendas, escuelas y hospitales, además de mantener los centros de acopio con suficiente stock de apoyo (comida, agua, ropa, medicina).
 
En términos generales, la logística puede verse como la base para el funcionamiento eficiente en una sociedad; en este caso particular, en una sociedad dañada por un desastre, resulta fundamental. Se podría decir que la logística no sólo es la base de cualquier empresa, sino la base de toda una sociedad.
     
Referencias bibliográficas

Ballou, R. H. 2004. Logística. Admiministración de la cadena de suministro. Pearson Educación, México.
     Hernández, L. A. 2015. Instituto mexicano del transporte, en: www.imt.mx/archivos/Publicaciones/Publicacion-Tecnica/pt433.pdf
     Passarinho, N. 2017. ¿Está habiendo en 2017 más desastres naturales que en otros años?, en BBC Brasil (www.bbc.com/mundo/noticias-41361061).
     Salazar, E. J. 2014. Logística Humanitaria, en: www.iingen.unam.mx/es-mx/BancoDeInformacion/MemoriasdeEventos/LogisticaHumanitaria03062014/Logistica_humanitaria.pdf

     

     
Andrea Buenrostro y Verónica Bibriesca Sánchez
Departamento de Ingeniería Industrial,
Instituto Tecnológico de Morelia.
     

     
 
cómo citar este artículo


     
Entrada134A06   menu2
número 134
siguiente
anterior
PDF
 
     
José Alberto Vázquez Arellano y Mónica Vázquez Arellano
     
               
               
Cualquier persona interesada en la ciencia, en especial
quien esté inmerso en esta actividad, podría preguntarse acerca de los supuestos que se dan por hecho al desarrollarla, venirle a la mente preguntas como las siguientes: ¿cómo tiene que proceder la ciencia?, ¿qué métodos de investigación se deben emplear?, ¿cuánta confianza debemos depositar en tales métodos?, ¿cuál es el estatus de las teorías científicas?, ¿hay un límite para el conocimiento científico? Este tipo de preguntas ayudan a conformar un punto de vista crítico sobre la actividad científica y, al tratar de darles respuesta, a formarse un punto de vista razonado sobre esta actividad. 
 
Estas interrogantes, y otras más, paradigmáticas en la filosofía de la ciencia, son abordadas en el libro de Samir Okasha Philosophy of Science. A very short introduction. Su lectura nos empujó a elaborar una síntesis de su contenido a manera de reflexiones sobre la ciencia. Es un libro que tiene por los menos dos virtudes que lo hacen muy útil para estudiantes de ciencias, ingenieros, estudiantes de filosofía y cualquier persona interesada en conocer acerca de los problemas de la filosofía de la ciencia: la primera es que, en breves capítulos, Okasha presenta de manera clara y sencilla algunos de los principales problema conceptuales que se estudian en esta disciplina y que permiten responder a varias de las preguntas anteriores, lo cual hace que su lectura sea amena y atrape rápidamente la atención del lector. La brevedad de la presentación no va en detrimento del contenido, por el contrario, el autor ha hecho importantes contribuciones en el área de filosofía de la ciencia —con respecto del problema de la inducción, por ejemplo— además de tener varios libros especializado en filosofía de la ciencia. 
 
Su segunda virtud es que lleva al lector a abordar los problemas mediante la exposición, en líneas generales, de los argumentos centrales de cada debate, lo cual le permite razonar por sí mismo tanto acerca de los problemas conceptuales como de sus respectivas respuestas. Así, en capítulos como el 1, 2 y 3 se concluye que no hay una respuesta definitiva al problema planteado, sino que es una cuestión abierta, lo cual invita al lector a que reflexione por sí mismo y lo motiva a profundizar en el tema. En otros, como el 4 y 7, el autor presenta en líneas muy generales su postura sobre los argumentos centrales.
 
¿Qué es la ciencia?
 
En parte, la respuesta que se dé a esta pregunta requiere explicar cuáles son las características que distinguen a la ciencia de otra actividad. Tradicionalmente se considera que su método de investigación y la construcción de teorías. El autor ilustra este punto con una descripción histórica del desarrollo de la ciencia moderna desde la revolución científica que le dió origen hasta la aparición de la ciencia cognitiva. El filósofo Karl Popper sostenía que las ciencias tienen una característica común que permite definirlas, esto quiere decir que aquello que conforme tales características proporcionará la condición necesaria y suficiente que determinará qué cuenta como ciencia y qué no. Para Popper esto consiste en el hacer hipótesis o predicciones que se pueden refutar por medio de la experiencia, es decir, que una predicción o hipótesis científica debe ser capaz de estar en conflicto con alguna observación posible o concebible; en cambio una pseudociencia es una teoría que no es refutable, y ningún tipo de experiencia podrá demostrar que es falsa. 
 
Se ha cuestionado que la refutabilidad sea la característica definitoria de la ciencia, que ésta sea una condición necesaria; sucede, por ejemplo, que hay teorías que pueden ajustarse a cualquier dato empírico, es decir, que no serían refutables. Por ello, argumenta Okasha, la refutabilidad no es una condición suficiente —presenta varios ejemplos que apoyan este punto— y concluye que la cuestión de cuál es la característica común de las ciencias sigue siendo un tema abierto, en debate todavía; es más, el supuesto mismo de que hay una definición de la ciencia también se puede cuestionar racionalmente, por ejemplo, se podría argumentar que la ciencia es una actividad sui generis
 
La inferencia científica
 
¿Cuál es la naturaleza del razonamiento científico?, es decir ¿qué tipo de relación hay entre una teoría y la evidencia que se presenta a su favor?, ¿es una relación deductiva o de otro tipo? Estas preguntas ayudan al lector a formarse una idea sobre cuán confiables son las inferencias científicas y, en general, el conocimiento científico. Los patrones de razonamiento se suelen distinguir en deductivos e inductivos. Un argumento deductivo es aquel en el que es necesario que, si las premisas son verdaderas, entonces la conclusión también será verdadera. Okasha presenta varios argumentos para mostrar que la relación entre la evidencia y una teoría no es siempre de este tipo; está entonces la inducción: un razonamiento inductivo es aquél en el cual las premisas del argumento no implican deductivamente su conclusión, como por ejemplo: “si todas las instancias de pan observadas han sido nutritivas, por lo tanto la próxima instancia de pan será nutritiva”. Aunque este razonamiento parece plausible, es posible que resulte que las premisas sean verdaderas y no obstante la conclusión sea falsa. 
 
La idea que surge naturalmente es considerar la inducción como la base del razonamiento científico. Hume detectó, sin embargo, un problema en este tipo de razonamiento, a saber que nuestra confianza en la inducción para generar conocimiento no puede justificarse racionalmente; argumenta que un razonamiento inductivo, como el anterior, siempre presupone la idea de la uniformidad de la naturaleza: “los objetos que no hemos examinado serán similares, en los aspectos relevantes, a los objetos de la misma clase que sí hemos examinado”. Hume presentó varios argumentos que demuestran que dicho precepto no puede justificarse, por lo que la cuestión de cuán confiable es el razonamiento científico consiste en responder al reto del escepticismo, es decir mostrar que se puede dar una justificación de la inducción y, en particular, de la unidad de la naturaleza. 
 
Okasha presenta varias propuestas que retoman esta empresa; por ejemplo, una respuesta al escepticismo consiste en aceptar su conclusión, afirmando, como lo hace Strawson, que la inducción es tan indispensable para la forma como pensamos y razonamos que no tiene sentido intentar justificarla. Otra respuesta consiste en analizar la inducción en términos de una noción menos problemática, a saber la probabilidad, lo cual analiza el autor en términos de una concepción bayesiana, es decir, cómo modelar el incremento en el grado de confianza que se tiene en una teoría dada cierta evidencia. Okasha sostiene que esta teoría sólo ofrece un modelo de cómo ocurre el cambio racional de creencias, pero no dice nada acerca de cómo se genera nuestra confianza en nuevas creencias. Éste es un punto importante porque el razonamiento científico involucra inventar teorías o hipótesis que nunca antes han sido pensadas (Newton, Darwin), un aspecto que el modelo bayesiano deja sin explicación. Al parecer, se concluye, hasta el momento no se dispone de una adecuada respuesta al escepticismo. 
 
La explicación en la ciencia
 
Por otro lado, es claro que una buena explicación de un fenómeno sólo debe contener información relevante para su ocurrencia, lamentablemente el modelo de cobertura no puede satisfacer dicha condición pues, como éste argumenta, predice que la explicación es aquella en la cual el fenómeno en cuestión se puede deducir a partir de leyes generales, incluso aunque la información contenida en las premisas de la deducción no sea relevante para explicar la ocurrencia de tal fenómeno, lo que demuestra que el modelo no constituye un adecuada elucidación de lo qué es una explicación científica. 
 
Esto ha motivado la búsqueda de modelos alternativos. Una de las propuestas que han surgido se basa en la noción de causalidad, es decir, la explicación de un fenómeno a partir de aquello que lo causó. No obstante, si bien ésta tiene la virtud de que permite evitar los problemas anteriores, como lo argumenta Okasha, el problema más serio que encara es que parece que algunas explicaciones científicas no son causales; por ejemplo, se considera que las identificaciones teóricas, como “el agua es H20”, proporcionan un tipo de explicación, pero ésta no se puede analizar en términos causales, por lo que el modelo causal es incompleto. 
 
Las teorías anteriores han hecho importantes contribuciones para ofrecer una elucidación de lo qué es una explicación científica y en este sentido nuestro conocimiento ha avanzado, sin embargo, las propuestas no están exentas de problemas conceptuales como acabamos de ver; sigue siendo una cuestión abierta. 
 
Realismo y antirrealismo 
 
¿Cómo se debe interpretar los términos teóricos de una teoría científica? La postura realista sostiene que las teorías proporcionan una descripción del mundo que es verdadera y si tal descripción involucra entidades no observables, como los electrones, afirma que fueron descubiertas y no inventadas. Argumentan que la mejor explicación del éxito empírico de las teorías que postulan entidades inobservables consiste en afirmar que éstas existen. 
 
Por el contrario, un antirrealista sostiene que tal argumento es incorrecto; aun cuando una teoría posea un éxito explicativo y predictivo, si postula entidades no observables sólo se puede verificar la utilidad de éstas, pero en ningún caso es posible afirmar que existan. Un antirrealista puede adoptar dos posturas con respecto del estatus de las entidades no observables: ser agnóstico y sostener que la cuestión de si existen o no las entidades inobservables postuladas es algo que nunca sabremos; o ser instrumentalista y afirmar que la función de la entidades no observables es meramente instrumental, es decir, son ficciones convenientes que ayudan a predecir fenómenos observables. 
 
Esta perspectiva apoya su postura en un argumento basado en la tesis de Quine sobre la subdeterminación de las teorías, la cual dice que las teoría científicas que postulan entidades no observables son subdeterminadas por los datos observacionales, esto quiere decir que siempre habrá un sin número de teorías incompatibles debido a las entidades inobservables que postulan, pero que pueden ajustarse a la totalidad de la evidencia disponible, por lo cual los datos observacionales no pueden, en principio, utilizarse como razones concluyentes que justifican adoptar una teoría en vez de otra. La respuesta del realista a este argumento ha consistido en señalar una deficiencia, a saber que de la tesis de la subdeterminación sólo se desprende que la inferencia de los datos a la teorías no es deductiva, pero no hay diferencia alguna si la teoría se refiere a entidades observables o no observables. Osaka concluye entonces afirmando que el problema surgido por el argumento de la subdeterminación es simplemente una versión sofisticada del problema de la inducción, un tema general que atañe a cualquier teoría científica y que, por lo mismo, carece de fuerza para motivar el antirrealismo. 
 
Cambio científico y revoluciones científicas
 
A partir de su influyente libro, La estructura de las revoluciones científicas, una reacción a la concepción positivista de la ciencia y a su explicación del progreso del conocimiento científico, Kuhn ofrece una descripción del desarrollo de éste en donde lo caracteriza por tener periodos de crecimiento estable y periodos revolucionarios en los cuales surge un cambio de paradigma científico. Sin embargo, asociadas con su descripción histórica se encuentran tesis filosóficas controversiales, por ejemplo, la inconmensurabilidad, según la cual dos paradigmas pueden ser tan diferentes que es imposible su comparación; y la tesis sobre la inclinación de los datos hacia la teoría, la idea de que no hay datos o evidencia que sea independiente de cualquier teoría. Junto con su propuesta sobre los cambios de paradigma, éstos parecen incompatibles con una concepción de la ciencia como una empresa racional, objetiva y acumulativa. Para Okasha, la postura de Kuhn es un antirrealismo radical, pues se ha argumentado que en su libro Kuhn presenta un modelo irracional del desarrollo de la ciencia, en el sentido de que éste se caracteriza por la adhesión dogmática a un paradigma en periodos de normalidad y por súbitas “experiencias de conversión” en periodos revolucionarios. 
 
Sin embargo, Kuhn ha afirmado posteriormente que su objetivo en tal libro no era sembrar dudas sobre la racionalidad de la ciencia, sino ofrecer una imagen fiel y apegada de su desarrollo histórico, en particular le interesaba insistir en la idea de que no hay un algoritmo para la elección de una teoría científica. En este sentido, la contribución de Kuhn no es que los cambios de paradigma sean irracionales, sino que la racionalidad que subyace a éstos no es algorítmica.
 
La ciencia y sus críticos
 
La ciencia siempre ha tenido acérrimos críticos pero sólo algunas críticas tienen relevancia filosófica. Una de ellas, por ejemplo, aborda el conflicto entre la ciencia y la religión (como los casos de Galileo y Darwin); entre las críticas más recientes a la teoría de este último está la doctrina del diseño inteligente, la cual se caracteriza por sostener que el relato bíblico de la creación es literalmente verdadero y que proporciona una mejor explicación del origen y evolución de la vida en la Tierra que las teorías científicas, y que ha tratado de cimentar su posición socavando la confianza que se tiene en la teoría de la evolución mediante un problema filosófico previamente discutido. Recordemos que la idea de que la inferencia de los datos a la teoría no es deductiva, por lo cual la doctrina del diseño inteligente sostiene que no se puede demostrar que la teoría de la evolución sea un hecho, en el sentido de que la evidencia empírica no puede demostrar que la teoría de la evolución es correcta. 
 
Al respecto, Okasha afirma que dicho problema es general, es decir, afecta a cualquier teoría, y que no se puede utilizar de manera ad hoc para sostener la postura del diseño inteligente, y muestra cómo se puede hacer un uso inadecuado de los resultados o discusiones que se ha obtenido en el estudio filosófico de la ciencia. 
 
En su interesante libro, Okasha dedica un capítulo a analizar tres casos, lo cual le permite poner en acción los puntos discutidos en el resto de manera muy pedagógica: la cuestión en física de si el espacio es absoluto, el problema de las especies en biología, y un problema central en la ciencias cognitivas, la modularidad de la mente. Esta es quizá una de las razones más importantes para que todo lector interesado lea esta breve introducción a la filosofía de la ciencia.
     
Referencias Bibliográficas

Samir Okasha. 2016.  Philosophy of Science. A very short introduction. Segunda ed. Oxford.
     

     
José Alberto Vázquez Arellano
Universidad Michoacana de San Nicolás de Hidalgo.

Mónica Vázquez Arellano
Unión de Científicos Comprometidos con la Sociedad.
     

     
 
cómo citar este artículo


     

 

 

Entrada134A05   menu2
número 134
siguiente
anterior
PDF
 
     
Faustino Sánchez Garduño y José Luis Gutiérrez Sánchez
     
               
               
Escribir una semblanza de una persona con intereses tan
amplios y con resultados tan significativos en todos los campos a los que dedicó su capacidad creadora, su emotividad y su inteligencia, como lo fue Germinal Cocho, es un empeño que no puede agotarse en el espacio de un artículo como éste. Con ánimo de síntesis, sería posible decir que la suya fue una obra, a la par, científica y humanista y que, por su notable compromiso, originalidad y visión del mundo, transitó de la imaginación heterodoxa a los más trascendentes temas de la ciencia de nuestros días como la física de partículas, el origen de la vida y los sistemas complejos y sus consecuencias sociales, culturales y políticas en el sentido más amplio. Sus aportaciones, avanzadas y profundas, y su asombrosa cultura concitaban siempre a comprender el mundo sin fragmentaciones artificiales, a devolver y poner al servicio de la gente el bien social que es el conocimiento y a hacer de la ciencia un instrumento de liberación y no de control y sometimiento.
 
La ciencia para o contra el pueblo
 
Entender la producción del conocimiento y el desarrollo de la ciencia como el resultado de un esfuerzo social que de ningún modo es ajeno a los intereses de quienes lo financian, es uno de los grandes aprendizajes al que tuvimos acceso quienes iniciamos nuestra formación en la unam a principios de los setentas. Sin duda, dos de los acontecimientos que más influyeron en la generación de un ambiente de atención a tales temas fueron los movimientos estudiantiles de fines de los sesentas —el mayo francés y el verano mexicano de 1968, entre otros— y la guerra imperialista que el ejército de los Estados Unidos libró con todas sus fuerzas convencionales contra el pueblo de Vietnam entre 1965 y 1975. 
 

La ciencia es un producto de la humanidad que busca una explicación de los fenómenos naturales y —a diferencia de otro tipo de explicación como las religiosas o las místicas en donde las verdades se establecen de una vez y para siempre– está sujeta al escrutinio, revisión y corrección constantes por parte de la comunidad que la produce. El neodarwinismo no ha podido dar respuesta a múltiples problemas y por lo tanto hay lugar para nuevas propuestas que intenten abonar lo ya construido en la evolución biológica.

Germinal Cocho Gil

La primera vez que vimos y escuchamos a Germinal Cocho fue entre 1974 y 1975 en la emblemática fuente de Prometeo cuando, desde el primer piso de lo que hoy es la Torre de Humanidades II de la Ciudad Universitaria y que entonces albergaba los institutos de investigación científica, se dirigía a nosotros, un centenar de estudiantes de la Facultad de Ciencias, y refería, pausado y firme, por qué los científicos debían rehusarse a colaborar con el genocidio y el ecocidio que el gobierno de los Estados Unidos llevaba a cabo en el sudeste asiático. Haciendo eco de las manifestaciones de repudio a la colaboración de grupos de científicos de élite en el esfuerzo genocida del Pentágono que se habían generado en todo el mundo, junto con Christian Lemaitre, Profesor del Departamento de Matemáticas de la Facultad de Ciencias, Germinal Cocho nos invitaban a sumarnos al rechazo de la visita al Instituto de Física, en donde él era investigador, de Murray Gell-Mann, Premio Nobel de Física 1969. 
 
El repudio se daba a pesar del brillante perfil académico del visitante, reconocido mundialmente por sus investigaciones en partículas elementales y haber formulado la hipótesis de que son los quarks los constituyentes últimos de la materia: se le rechazaba como criminal de guerra. El ejército de los Estados Unidos había intervenido en Vietnam y cometido múltiples atrocidades contra la población civil, como la masacre de My Lai, una aldea de campesinos reducida a escombros en 1968, en la que los soldados estadounidenses habían asesinado a todos los habitantes (entre 350 y 500, aproximadamente) luego de violar a todas las mujeres y las niñas.
 
El saber convencional en Occidente ha sido construido sobre la idea de que, para conocer algo, es preciso separarlo en sus componentes elementales, romperlo en sus partes, y estudiar la conducta de éstas porque, entonces, será posible entender el comportamiento del objeto de estudio primario como el resultado de la acción mecánica, acumulada y lineal de ellas. De este modo, se trata de “reducir” el problema inicial, que puede ser muy complicado, a problemas más simples. Éste es el método reduccionista de la ciencia. Los avances en el conocimiento y la tecnología debidos a él son innegables y numerosos; su hegemonía se debe, sin duda, a ellos. Sus logros más altos se han dado, a nuestro modo de ver, en la mecánica cuántica y en la biología molecular. No obstante, las limitaciones del reduccionismo son enormes porque —como ya lo advertía Aristóteles en el siglo iv antes de nuestra era— en general, no es cierto que el todo sea igual a la suma de las partes.

Germinal Cocho Gil

Entre 1961 y 1970, Gell-Mann se había integrado a la División Jason, un grupo de renombrados científicos, en el que figuraban otros premios Nobel, patrocinado por el Institute for Defense Analysis del Departamento de Defensa de los Estados Unidos y cuyo propósito era el de “fortalecer la aplicación del método científico a la solución de amplios problemas de estrategia y política militar”, para lo cual se buscaba generar un mecanismo que permitiera “acceder a la reserva de talento tecnológico en la comunidad científica de la nación”. Así, quienes formaban parte de Jason estaban perfectamente informados de cuál era su misión y totalmente dispuestos a colaborar en el esfuerzo genocida y el ecocidio de los bosques tropicales de Indochina (en el número de enero-marzo de 1983, Ciencias publicó un magnífico ensayo de Octavio Miramontes y Raquel Gutiérrez cuya lectura se recomienda ampliamente, "El proyecto Jason").
 
Gell-Mann había sido rechazado en junio de 1972 en el Collège de France, en París, por las mismas razones que nos planteaba Germinal en el improvisado mitin de la fuente de Prometeo; allí fue cuestionado por sus contribuciones bélicas en Vietnam, a lo que lacónicamente respondió: “no estoy autorizado para responder esas preguntas”. Actos de repudio semejantes tuvieron lugar ese año en diferentes encuentros científicos en Ginebra, Roma y Córcega; en septiembre, en Trieste, en un simposio internacional de físicos al que se habían presentado los profesores Wigner, Wheeler, Townes, Weinberg y Montroll —los cinco, miembros de Jason— trescientos participantes los acusaron de ser criminales de guerra y el único comentario que mereció la condena unánime fue el de Wigner quien dijo: “me siento halagado por sus acusaciones; para mí, son elogios”.
 
En 1966, el Secretario de Defensa de los Estados Unidos Robert MacNamara acude a Jason para que “estudie las posibilidades técnicas en relación con nuestras actividades militares en Vietnam”. Jason vuelca su actividad hacia el estudio de problemas bélicos que “no son enteramente del dominio de las ciencias físicas”, como la contrainsurgencia, la insurrección y la infiltración presentes en el escenario de guerra en Indochina. Ocho semanas después de iniciar sus trabajos, en el reporte presentado a MacNamara, Jason recomienda: “detener los bombardeos sobre Vietnam del Norte y reemplazarlos por una barrera electrónica antipersonal: bombas de fragmentación, detectores sísmicos y acústicos, ‘aspiradoras de hombres’ y reforzar la barrera mediante diversos perfeccionamientos tecnológicos como bombas guiadas por rayos láser, bombardeos teleguiados por computadoras, etcétera. Se recomienda también el uso de técnicas de defoliación y de sistemas de visión nocturna”. 
 
Según Jason, era necesario pasar de la guerra convencional, notablemente inadecuada ante un enemigo de campesinos guerrilleros que se movían sigilosamente y se mimetizaban en las aldeas, a una guerra automatizada para la que se necesitaba una inversión de ochocientos millones de dólares anuales, “de los cuales la mayor parte sería gastada en gravel, una mina antipersonal. [Así], en los modelos recientes empleados en Vietnam, la granalla debe reemplazarse por fragmentos de plástico transparentes a los rayos X y, por lo tanto, más difíciles de detectar [y de extraer cuando un ser humano es herido por ellos]; mensualmente se requieren veinte millones de minas gravel y diez mil bombas blu26 b antipersonales que contienen entre setenta y trescientas municiones de acero proyectadas, cuando explota, con una velocidad de mil metros por segundo”. 

La selección natural, en su más profunda intimidad (si se nos permite la expresión), puede verse como una propuesta para extraer orden a partir del desorden. En un mar de desorden mutacional aleatorio, la selección natural, hipotéticamente, acepta aquellas mutaciones benéficas para las especies y las fija en el linaje de cada organismo. Existe la creencia, producto de la confusión entre el proceso evolutivo y el mecanismo de la selección natural, de que debido a la producción de orden desde el desorden, hay algo en la evolución que va en contra de la segunda ley de la termodinámica. Quienes piensan así han clamado que, por lo tanto, la biología tiene leyes propias, distintas de las de la física. Afortunadamente, esta postura va disminuyendo y términos otrora muy socorridos, como “negantropía”, están cayendo en desuso. Las leyes de la termodinámica, como las de la física entera no hacen distinción entre materia viva o inerte.

Germinal Cocho Gil

En 1975, a pesar de Tlatelolco, del halconazo del 10 de junio del 71 y de la política represiva del estado mexicano instrumentalizada por la rectoría de Guillermo Soberón, los universitarios aún tenían autoridad y capacidad de movilización. Gracias al improvisado mitin en el que Cocho y Lemaitre denunciaban su presencia, Gell-Mann tuvo que salir de la UNAM.
 
Desde entonces, nunca dejó de sorprendernos el temple y la coherencia política e ideológica de Germinal: educado y discreto, seguramente consciente del respeto que propios y extraños le tenían por sus logros académicos, nunca optó por avenirse al sistema ni renunció a manifestarse por los débiles y los oprimidos ni a servir, de todos los modos posibles, a sus causas. Era preciso, decía entonces, “sentirse vietnamita” para actuar. Poco después, en ese mismo año de 1975, los Estados Unidos se retiraron de Vietnam con una vergonzosa derrota a cuestas. 
 
Adelantado y visionario
 
Del 23 al 25 de abril de 1975, en el Auditorio de la Facultad de Ciencias de la UNAM se llevó a cabo el Simposio El Origen de la Vida, para conmemorar el quincuagésimo aniversario de la publicación del libro homónimo del académico soviético Alexander Ivanóvich Oparin. En él participaron, además del propio Oparin, entre otros, Antonio Lazcano, Alfredo Barrera, Juan Luis Cifuentes y Germinal Cocho.
 
En su ponencia “Algunos aspectos de la termodinámica de la vida”, Germinal empezó por preguntarse, ante un auditorio heterogéneo de físicos, matemáticos y sobre todo biólogos, cuáles podrían ser las facetas del problema del origen de la vida que pudiera tratar un físico. Después de rechazar la idea de que los seres vivos contradicen las leyes de la termodinámica, agregó: “la materia viva muestra y mantiene un orden espacial y funcional en tanto existe como tal. Si nos observamos, podremos ver que tenemos la cabeza en un sitio, los pies en otro y las manos en otro más, es decir, percibimos en nosotros mismos una estructura espacial; si examinamos el interior de la célula, vemos no sólo que dentro de ella hay un orden espacial (núcleo, mitocondrias, ribosomas, etcétera) sino también un orden funcional; nos encontramos, en tal caso, ante un conjunto de reacciones químicas que no se llevan a cabo simultáneamente y de un modo desordenado, sino secuencialmente, siguiendo un orden funcional, un orden temporal”.

Un análisis del primer nivel de atención médica del sistema de salud y el diseño de proyectos experimentales dentro de él serían algunos de los puntos de partida. Parte de la problemática de este nivel de atención es la carga de trabajo de los médicos y las enfermeras, los largos tiempos de espera y el trato despótico que, a veces, reciben los pacientes y sus acompañantes. En ocasiones también acontecen relaciones conflictivas dentro del personal médico y el equipo de salud; surgen entonces algunas preguntas y propuestas: ¿podría disminuirse la carga de trabajo de los médicos y las enfermeras, al utilizarse los tiempos de espera para incrementar el conocimiento médico que poseen los pacientes y sus acompañantes?
Tal vez los tiempos de espera podrían ser empleados para la educación médica de los pacientes y sus acompañantes mediante exposiciones y videos relacionados con medidas preventivas y aspectos de automedicación. Una meta sería que estas actividades sirvieran de catalizador para que, en el ámbito local, en los barrios y en las colonias, se realizasen actividades similares. Esto podría constituir lo que denominaríamos nivel cero.

Germinal Cocho Gil
 
Y enseguida estableció un puente conceptual: “la evolución de la materia de su fase prebiótica a biótica y la de la materia viva a lo largo de sus fases bióticas, muestran una gran similitud en algunos de sus aspectos con lo que en física se denomina cambios de fase por amplificación de fluctuaciones. La comprensión de estos fenómenos puede ayudar a la de la problemática del origen y evolución de la materia viva y, de hecho, existen algunas teorías a lo largo de esta línea de pensamiento”.
 
Después, con la visión de largo alcance que siempre lo caracterizó, dijo “la matemática no lineal es de importancia fundamental para comprender este tipo de fenómenos y [éste es] un campo difícil en que está casi todo por hacer”. Con ello, Germinal nos ponía en la ruta de las investigaciones mundiales de vanguardia a las que él mismo ya había accedido por el camino de la biología teórica: la de las estructuras disipativas de Ilya Prigogine, premio Nobel 1977, y la de los sistemas complejos del embriólogo británico Conrad Hal Waddington que, andando el tiempo, crecería con robustez en varios centros de investigación (en orden cronológico de fundación): el Departamento de Sistemas Complejos del IFUNAM, el Instituto Santa Fe de Sistemas Complejos en Nuevo México y el Centro de Ciencias de la Complejidad de nuestra universidad.
 
Médico, físico, maestro y humanista
 
Como ha escrito Ruy Pérez Tamayo, Germinal Cocho es médico cirujano por casualidad y por su mala letra; en sus tiempos los médicos se recibían defendiendo una tesis; la suya la elaboró en investigación biomédica bajo la dirección del propio Ruy y antes de terminarla se inscribió e hizo la licenciatura en física en la Facultad de Ciencias de la UNAM, para luego, en sólo tres años, doctorarse en la Universidad de Princeton. Regresó a México en 1962 y, desde entonces, fue investigador del Instituto de Física de la unam, donde fue nombrado Investigador Emérito en 2011, justo cuando cumplió cincuenta y siete años de fecunda labor académica en la misma. 
 
La asociación de los científicos con la guerra no es nueva; ya el notable Arquímedes de Siracusa en el siglo III a. C. inventaba máquinas de combate durante la guerra de su ciudad natal contra los romanos. A partir de entonces, se vuelve muy difícil encontrar algún instrumento de muerte que no dependa de un desarrollo tecnológico basado en trabajos científicos. De hecho, si aceptamos que la tecnología es ciencia aplicada, entonces quizá se pueda afirmar que todos los instrumentos de exterminio modernos son “hijos” de la ciencia.
Como lo menciona González Casanova, la ciencia forma parte de un complejo empresarial-financiero-tecnocientífico-político y militar. Este hecho restringe severamente la capacidad científica de decidir las líneas de investigación, pues el financiamiento proveniente de este complejo no se ocupa de la ciencia como deleite intelectual ni como medio para atender los problemas de las mayorías, sino que forma parte del aparato de dominación. En el mundo globalizado y dominado por el neoliberalismo, los estados han ido dejando, paulatinamente, de ser la fuente principal de financiamiento de la actividad científica. Las pautas de investigación biotecnológica, biomédica, de la ciencia de materiales, informática y de muchas otras áreas obedecen a los intereses de grandes compañías que, a su vez, cumplen el interés de la ganancia inmediata.

Germinal Cocho Gil


Además de sus logros de investigación en física de partículas, teoría de campo, origen de la vida, dinámica no lineal y sistemas complejos —manifiestos también en las diecisiete tesis de doctorado que dirigió en física, matemáticas y biología y en otros campos o como asesor, fue un gran impulsor de proyectos académicos de largo aliento: participó en el Programa de Ciencia y Sociedad (1973-1983) de la Facultad de Ciencias; propuso e impulsó la creación de la Revista Ciencias, esta misma que tiene el lector ante sus ojos; orientó (2002-2003) al grupo interinstitucional que elaboró el Programa de la Maestría en Dinámica no Lineal y Sistemas Complejos (hoy Maestría en Ciencias de la Complejidad) de la Universidad Autónoma de la Ciudad de México y, sobre la base de sus iniciativas de mucho tiempo, se creó el Centro de Ciencias de la Complejidad (C3) de la UNAM.
 
El Programa de Ciencia y Sociedad y sus vástagos
 
Desde siempre, Germinal insistió en la necesidad de la identificación y el uso de vínculos intelectuales entre los distintos campos de conocimiento; más que de crear puentes entre ellos, de identificarlos como una sola cosa, separados solamente por su enorme crecimiento pero comprensibles como integrados por principios dinámicos generales, y durante décadas se esforzó por desarrollar —como querría el sociólogo portugués Boaventura de Sousa Santos— una “hermenéutica diatópica” para comprender los procesos de la naturaleza, independientemente del nivel de organización de la materia en que se presenten.
 
Como se ha sugerido, la Facultad de Ciencias de la UNAM en los setentas era un espacio propicio para la construcción de dicha hermenéutica. Germinal desarrolló, en 1976, junto con un grupo de jóvenes ayudantes igualmente comprometidos, un curso de Física Moderna II en el que se discutían rigurosamente los conceptos de autoorganización hacia la zona crítica y estructuras disipativas; se estudiaba la reacción de Belousov-Zhabotinski o los movimientos convectivos que dan lugar a las celdas de Rayleigh-Bénard, a la par que se abordaban otros grandes temas. Aprovechando la flexibilidad del temario, se debatían aspectos de método científico desde la perspectiva del materialismo dialéctico, las revoluciones científicas (en el sentido de Thomas Kuhn), la relatividad general, el origen de la vida y la evolución biológica y problemas como la crisis energética de finales de los setentas. La creación del Colegio de Ciencias y Humanidades de la unam y la existencia de una Facultad de Ciencias crítica, capaz de organizar sus actividades académicas de manera que, en sus aulas y laboratorios, hubiera lugar para discutir el papel social de los científicos y temas como los crímenes de guerra de los físicos de élite integrantes de la División Jason del Pentágono, dieron lugar a que se constituyera el Programa de Ciencia y Sociedad que, durante diez años, sostuvieron Germinal y Flavio Cocho, Manuel Pérez Rocha, Rosalío Wences, Amparo Martínez, Marco Martínez Negrete y Francisco Cepeda Flores. 
 
Tanto en aquellas clases de Física moderna como en las múltiples ocasiones en que nos fue dado asistir a sus cátedras, asesorías y conferencias, confirmamos algo que es un lugar común entre quienes lo conocieron y trabajaron con él: “a Germi no se le entiende a la primera”; a lo que agregamos nosotros: tal vez tampoco a la segunda. La originalidad de sus ideas, y el hecho patente de que pensaba más rápidamente de lo que escribía en el pizarrón o hablaba con sus interlocutores, dificultaban nuestra comprensión. Desordenado sin merma de su brillantez, metido a hacer cuentas era frecuente que se equivocara pero, invariablemente, su intuición física lo rescataba. Ni las dificultades para entenderle ni su mala letra ni su inveterada costumbre de escribir por los rincones sin borrar el pizarrón evitaron que cayéramos en la cuenca de atracción germiniana: su portentosa cultura científica y humanista permitía que cada uno saliera de sus exposiciones en estado de trance hasta que, a veces, se hacía la luz y entendíamos. 
 
Otra muestra de la transversalidad de la formación a la que se podía acceder con Germinal, de verdadera inter y transdisciplina, es la experiencia de haber cursado con él en 1985 un seminario de análisis matemático (en el Posgrado en Matemáticas, todavía dependiente de la Facultad de Ciencias) cuyo contenido era, asómbrense, morfogénesis y evolución. De los cinco estudiantes que lo tomaron, tres acabaron doctorándose con Germi: Humberto Arce, en Física, Luis Medrano, en Biología, y Pedro Miramontes, en Matemáticas. Posiblemente en nuestros días la aprobación de que se abriera una asignatura de posgrado con las características de este seminario afrontaría distintas dificultades; quizá la primera sería “eso no son matemáticas”.
 
El Proyecto Manhattan de construcción norteamericana de la bomba atómica, a fines de la segunda guerra mundial, inaugura la forma o modo contemporáneo de producir ciencia que conocemos: actividad científica superespecializada y desconocedora de cualquier otra fuera de su dominio de acción, conexión secuencial de diferentes actividades cuyo objetivo social se desconoce, carrera contra el tiempo ligada a una producción de resultados científicos acelerada (que el argot popular llama hoy “publicitis”); esto es, en el sentido ya mencionado, máxima eficiencia productiva. Este modo contemporáneo de producir ciencia va acompañado del fenómeno de la enajenación del científico: confundir el fin social de su actividad con su superespecializada actividad “en sí”, culto a la neutralidad social de la ciencia “en sí”, etcétera. Esto es, transformación del científico en el taylorizado intelectual orgánico del capital, una especie de robot contemporáneo.

Germinal Cocho Gil


La influencia del Programa de Ciencia y Sociedad de la Facultad de Ciencias propició cambios en la forma de concebir la educación científica en instituciones fuera de la unam, como ocurrió en la Unidad de Ciencias Marinas de la Universidad Autónoma de Baja California en Ensenada. Luego de una serie de seminarios y conferencias de algunos miembros del Programa, los estudiantes y los académicos de aquella institución, empeñados en construir un cogobierno, decidieron desarrollar la docencia y la investigación vinculándola directamente con la atención de las necesidades de pescadores y cooperativistas y a los problemas medioambientales de la región. Esto implicaba comprender los problemas en toda su dimensión, superar la separación artificial disciplinaria impuesta desde el temprano siglo XIX por el positivismo europeo y atenderlos integralmente. Significaba, además, desarrollar las actividades académicas tomando como base esos problemas; así, los estudiantes de oceanología que se estaban formando lo harían en la práctica de la investigación.
 
Aquel experimento educativo era claramente antihegemónico y el Estado mexicano impidió que creciera y se consolidara. Un grupo de jóvenes profesores de la Facultad de Ciencias que habíamos participado en él (1978-1981) regresamos en derrota a la Ciudad de México. Eso nos acercó definitivamente a Germinal quien, a lo largo de toda su vida académica, impulsó proyectos con orientación análoga una y otra vez a semejanza, según contaba, del mítico General Castaños, el "General Derrota", a quien no le importaba haber perdido muchas batallas si, al final, acabaría por vencer al ejército de Napoleón en Bailén.
 
Por intermediación de Luis de la Peña, miembro del Consejo Asesor de la naciente Universidad de la Ciudad de México (UCM), antecesora de la hoy Universidad Autónoma de la Ciudad de México (UACM), a mediados de 2002 fuimos invitados por el Ingeniero Manuel Pérez Rocha, entonces rector, a formar un grupo de trabajo interinstitucional, con académicos de la UNAM y de la UCM, al que se le encargó la misión de elaborar un proyecto de creación de un área de ciencias para aquella universidad pública, la única que vio la luz en veinticinco años de gobiernos neoliberales. En sus inicios, en ese grupo de trabajo, coordinado por José Luis Gutiérrez, participaron Pedro y Octavio Miramontes, Germinal Cocho, Gustavo Martínez Mekler, Faustino Sánchez Garduño, Luis Medrano, Pablo Padilla y Juan Luis Martínez.
 
Después de varios encuentros y discusiones, se llegó a la conclusión de iniciar el área de ciencias de la ucm con un Programa de Maestría en Dinámica no Lineal y Sistemas Complejos (MDLYSC) que reflejara las ideas que Germinal había sembrado en los integrantes de este grupo desde el principio de los años setenta. Se trataba de ofrecer una formación científica que no repitiera lo que ya había en las grandes instituciones del país. Así, se pensó que: “en una primera etapa, este proyecto pudiera ser formador de cuadros académicos para la propia UCM y quizás para las preparatorias del recientemente creado Instituto de Enseñanza Media Superior del Gobierno del Distrito Federal; y que debería tener tres grandes ejes temáticos: Ciencia y Sociedad, Dinámica no Lineal y Sistemas Complejos. Germinal y José Luis elaboraron los contenidos de dos cursos de Ciencia y Sociedad; los hermanos Miramontes hicieron lo propio con dos de la línea de Sistemas Complejos y Faustino Sánchez se encargó de los contenidos de tres cursos del eje Dinámica no Lineal.
 
En torno de Ciencia y Sociedad se articularía todo el plan de estudios. En su fundamentación se ponen al día los objetivos del Programa de la Facultad de Ciencias: “en nuestros días, las diferencias entre los países ricos y pobres y entre las clases sociales dentro de cada país son cada vez más grandes, los conflictos sociales han sobrepasado los niveles en que se daban durante el S. XX y se manifiestan en el alza de la delincuencia, de la tasa de explotación capitalista y del control transnacional impuesto por la corporación política-tecnológica-financiera-militar que domina el mundo”. Y se agrega: “en esta situación importa discutir el papel de la ciencia y del quehacer de los científicos: quién les paga, a quién sirven, quién se beneficia de sus resultados y cómo y dónde se definen sus prioridades y orientaciones […] Hace falta, entonces, comprender la ciencia de nuestros días como un proceso dialéctico: por un lado, patrocinado por la corporación política-tecnológica-financiera-militar cuyas tendencias prioritarias se definen en los centros metropolitanos del gran capital y, por otro, proveedor de herramientas para pensar y transformar el mundo en un sentido diferente en el que lo importante sea la felicidad de la gente”.
 
Tanto la fundamentación, el diseño, la creación (se puede consultar el Documento Maestro citado en las referencias) y su puesta en marcha, corrió a cargo del grupo fundador. Fue así como surgió el Programa de la Maestría en Dinámica no Lineal y Sistemas Complejos de la Universidad de la Ciudad de México. En 2012, el programa se adecuó para recibir en él a estudiantes de áreas diferentes de la de físico matemáticas y, desde entonces, se llama Maestría en Ciencias de la Complejidad.
 
El escepticismo implica una actitud crítica ante los hechos y fenómenos, ya sean naturales o sociales. En la ciencia, las teorías y explicaciones no se aceptan sin discusión y convencimiento, no se admiten las explicaciones del tipo “porque sí” o “porque dios quiere”. Por ello, un científico debe ser parte de la conciencia de la sociedad (empezando por su gremio), debe tener un compromiso con su gente y luchar por desterrar las supersticiones y la charlatanería. En los medios de comunicación impresos y electrónicos son escasos los espacios dedicados a la ciencia y abundan los que de una manera u otra fomentan prejuicios, estereotipos, pseudociencias y supersticiones. Detrás de todo esto se encuentra una poderosa industria que logra enormes ganancias explotando la credibilidad y buena fe de la gente. La astrología, el pensamiento new age y las religiones modernas representan negocios formidables que quebrarían inmediatamente si la educación fomentara con éxito una actitud de escepticismo entre los ciudadanos.
No podemos engañarnos con la pretensión ingenua de que con la pura voluntad podemos cambiar una estructura con intereses políticos y económicos colosales. Sin embargo, quedarse sin hacer algo es convalidar la situación.
La educación es un campo en donde se forma el espíritu, lo cual repercute en la sociedad, por lo que es un espacio en donde se puede actuar para cambiar el estado de las cosas y que puede llevar a fundar una corriente de opinión y trabajo que sea propositiva y, más aún, cuyas propuestas convenzan a la gente. En nuestro caso especial el énfasis estaría situado en la educación superior.

Germinal Cocho Gil


Atenea o Prometeo
 
En una visita más o menos reciente a la Facultad de Ciencias, Pablo González Casanova llamó la atención de los asistentes sobre el hecho de que nuestra Facultad tiene dos sombras tutelares del panteón griego con características en conflicto: Atenea y Prometeo. La primera, hija predilecta de Zeus, diosa de la sabiduría, la civilización, las habilidades y la ciencia, pero también de la guerra y la estrategia en combate; vanidosa y vengativa —su capacidad bélica era tal que ni siquiera Ares había podido vencerla—, se la representaba portando la victoria, armada con una lanza y protegida por una égida con la cabeza de la gorgona y un yelmo. Prometeo, a su vez, era el titán protector de los seres humanos a quienes había dado el fuego tras robárselo a los dioses exponiéndose a la ira de Zeus; a Prometeo se le representa, siempre, desnudo y con el fuego en la mano como se ve en la escultura que comparte con nuestra serpiente emplumada, el Quetzalcóatl civilizador de Mesoamérica. La observación de González Casanova, desde luego, implicaba la invitación a ser científicos al servicio de la gente; como habría dicho Germinal, a “tratar de que en el mundo del mañana no haya unos que mandan y otros que ejecutan”.
 
Hijo del exilio
 
Es ya un lugar común referirse a la multitud de beneficios que se derivaron para nuestro país cuando a partir de 1937, Lázaro Cárdenas apoyó la iniciativa de Daniel Cossío Villegas y las gestiones de Alfonso Reyes para que decenas de miles de republicanos españoles pudieran transterrarse en México durante e inmediatamente después de la Guerra Civil. En particular, la importancia del trabajo de aquellos intelectuales y artistas que vinieron a fundar la Casa de España o a incorporarse a la docencia en la Universidad Nacional o el Instituto Politécnico, la resumió Antonio Alatorre al referir que “la tarea que hicieron es de un valor absolutamente inapreciable y habría que ver renglón por renglón qué ha sido México antes y después de estos grandes hombres”. Pero, hasta donde sabemos, aún está por escribirse la influencia que han tenido los hijos de las familias de aquel exilio.
 
En las épocas de crisis afloran las mentes lúcidas y valerosas. En la transición del racionalismo al romanticismo, en los albores del siglo XIX, existió un grupo de pensadores que se llamaron a sí mismos los morfólogos racionalistas. Goethe, D’Aubenton, Geoffroy SaintHilaire y Lamarck son algunos de los nombres asociados con esta escuela. A finales del mismo siglo, y en medio de otra época más de transición, aparece la enorme personalidad de D’Arcy Wentworth Thompson.
Todos estos naturalistas, montados a caballo entre el final de una etapa de racionalismo y el comienzo de una de romanticismo, sintetizaron lo mejor de ambos mundos: la pasión por el estudio detallado, minucioso y reductivo, propio de los racionalistas, y el amor de los románticos por los principios generales.
Todos ellos, ahora desdeñados por el establishment científico, fueron seres creativos, a la vez racionales y emotivos, que dentro de las restricciones sociales llegaron a ser artífices de su propia vida y dueños de su destino. Esto en contraste chocante con la situación neoliberal presente, en la que todos los aspectos de la vida humana para ser considerados de valía, tienen que representar ganancia o beneficio capitalista, y en la cual el hombre no es más que el medio que tienen las mercancías para producir más mercancías.

Germinal Cocho Gil


Germinal Cocho nació en Madrid en 1933 el 1 de Mayo, Día Internacional de los Trabajadores, y murió el 9 de mayo de 2019, en el aniversario del Día de la Victoria de 1945, cuando el Ejército Rojo culminó la derrota de los nazis y ocupó Berlín, al final de la Segunda Guerra Mundial. Esto es significativo porque bien podría haber sido suya la convicción, como la expresaba Richard Levins, de sólo saber que andando el tiempo, sería “científico y rojo”. 
 
Hijo de un abogado republicano, en julio del 36 se había quedado en casa de su abuela a pasar las vacaciones cerca de Valladolid, mientras sus padres regresaban a Madrid con Flavio, el hermano menor casi recién nacido. El golpe de estado fallido del General Franco desató la Guerra Civil y, de inicio, partió el territorio del país en dos zonas —la sublevada y la republicana— entre las cuales el tránsito era prácticamente imposible; casi de inmediato, el ejército de los golpistas ocupó Valladolid y, en uno de tantos actos de barbarie vengativa, un piquete falangista detuvo en su casa y fusiló al abuelo de Germinal por el delito de ser padre de un republicano.
 
La Guerra Civil y sus secuelas mantuvieron separada a la familia Cocho Gil durante más de ocho años. Los padres cruzaron los Pirineos en 1939 y, luego de haber permanecido en un campo de concentración en el sur de Francia, llegaron a México en el 40 y fue hasta 1944 —cuando Franco empezó a tratar de congraciarse con los aliados que se alzaban ya como vencedores en la Segunda Guerra Mundial y permitió la salida de los familiares de quienes ya se habían exiliado— que Germinal y su abuela se reencontraron en la Ciudad de México con el resto de la familia.
 
Es un misterio hasta dónde las vicisitudes de la Guerra influyeron en el carácter de Germi. Alguna vez nos confió que, en la educación básica que recibió en la España negra que siguió a la derrota de la República, se le exigía memorizar todo —los nombres de los reyes godos, para empezar— y que, al llegar a México, las estrategias nemotécnicas que había desarrollado allá le permitieron tener notas sobresalientes en todas las asignaturas excepto en Civismo porque, en ésta, entraban en conflicto los valores del liberalismo mexicano expresado en la Constitución de nuestro país con la obediencia y la sumisión que exigían los testaferros de Franco en aquella España de cerrado y sacristía en que había vivido hasta entonces. 
 
Quizá fueron esas experiencias las que estuvieron en el origen de su compromiso, de su inagotable generosidad y de esa conjugación excepcional de razón, emoción y compromiso que lo hacían el más prometeico de nuestros profesores e hicieron de su presencia entre nosotros un motivo mayor de alegría y satisfacción.
     
Referencias Bibliográficas

Miramontes, Octavio y Raquel Gutiérrez. 1983. “El proyecto Jason”, en Ciencias núm. 3, pp. 40-45. https://www.revistacienciasunam.com/es/138-revistas/revista-ciencias-3/1078-el-proyecto-jason.html
   Programa de la Maestría en Dinámica no Lineal y Sistemas Complejos de la Universidad de la Ciudad de México. Documento Maestro (complejidad.uacm.edu.mx/index.php/24-documento-maestro).
     
Nota
Los textos insertos fueron seleccionados por Pedro Miramontes y forman parte del libro Ciencia, humanismo, sociedad escrito por Germinal Cocho, disponible en línea:
http://scifunam.fisica.unam.mx/mir/copit/TS0014ES/TS0014ES.html
     

     
Faustino Sánchez Garduño
Facultad de Ciencias,
Universidad Nacional Autónoma de México.

Estudió las carreras de física y matemáticas en la Facultad de Ciencias de la UNAM, en donde hizo estudios de maestría en matemáticas. Su doctorado (en matemáticas) es de la Universidad de Oxford. Es profesor de tiempo completo en el Departamento de Matemáticas de la Facultad de Ciencias. Participó en la fundación del Grupo de Biología Matemática de esta institución y en el diseño del programa de la Maestría en Dinámica no Lineal y Sistemas Complejos de la Universidad Autónoma de la Ciudad de México. Ha sido profesor visitante de varias universidades e institutos del extranjero (Oxford, Cambridge, Leipzig, Barcelona, ictp en Trieste, La Habana, Overbolfag, Estocolmo, Minesota, Campinas, etc.) y de México. Desde 1994 es miembro del SNI.

José Luis Gutiérrez Sánchez
Grupo de Trabajo en Dinámica no Lineal 
y Sistemas Complejos,
Universidad Autónoma de la Ciudad de México.


Es Matemático por la Facultad de Ciencias de la UNAM y Maestro en Ciencias de la Computación por la Universidad de Cantabria. Desde 1976 ha sido docente en distintas universidades públicas mexicanas. Es profesor-investigador de tiempo completo de la Maestría en Ciencias de la Complejidad de la Universidad Autónoma de la Ciudad de México (UACM) cuyo programa contribuyó a elaborar (2002-2003). A la fecha, también es profesor de asignatura del Departamento de Matemáticas de la Facultad de Ciencias de la UNAM y es miembro del Consejo de Colaboradores de la Revista Ciencias. Ha publicado ensayos de divulgación científica y, en coautoría con Faustino Sánchez Garduño, dos libros: Matemáticas para las ciencias naturales (1998) y Matemática del crecimiento orgánico (2017). Sus líneas de investigación se ubican en los campos de la biología teórica (evolución y desarrollo), la sociocomplejidad (condicionantes sociales de la salud y prevención comunitaria) y la dinámica de las transiciones culturales.
     

     
 
cómo citar este artículo


     

 

 

Entrada134A04   menu2
número 134
siguiente
anterior
PDF
 
     
David Spiegelhalter
     
               
               
El año pasado durante las vacaciones en Portugal, tuvimos
que confiar en la “Señora Google” para que nos diera, en su terrible acento portugués, las indicaciones para manejar. Mientras maniobrábamos por las estrechas calles de la ciudad universitaria en Coimbra, ella nos indicó muy segura de sí misma que diéramos vuelta a la izquierda, así que le obedecimos. Pero nos quedamos algo desconcertados cuando de manera abrupta el camino se transformó en escalones —detuvimos el auto a tiempo, pero después de eso ya no confiamos tanto en sus indicaciones.
 
Pero no se trata sólo de los algoritmos para la navegación con lo que se necesita ser cautos. Se están desarrollando grandes cantidades de algoritmos (utilizo el término “algortimo” en un sentido bastante general para referirme ya sea a la fórmula, al modelo codificado o incluso a la directriz que será utilizada en una situación nueva; no me refiero a la manera en la que este procedimiento fue construido, por medio de aprendizaje de una máquina, de análisis estadístico estándar, de discernimiento, u otros métodos), todos ellos de diversa complejidad dentro de los sistemas de los servicios de salud y de justicia criminal, lo que incluye, por ejemplo, el sistema u.k. hart (Harm Assessment Risk Tool/Herramienta para Determinar el Riesgo de Daño) que, comentan Oswald y colaboradores, se utiliza para evaluar el riesgo de reincidencia, y que está basado en una técnica de aprendizaje de una máquina conocido como un bosque aleatorio. Pero la fiabilidad e imparcialidad de este tipo de algoritmos para mantener el orden son fuertemente cuestionadas: además del debate sobre el reconocimiento de rostros, del que da cuenta Simonite, un informe reciente acerca de a los algoritmos de predicción en el mantenimiento del orden el cual fue realizado por la organización para derechos humanos Liberty, establece que “su empleo pone en riesgo nuestros derechos”, como lo señala Holmes.
 
Es importante no quedarse fascinado por el aura de misterio que rodea a la inteligencia artificial. Los medios de comunicación masiva (y los políticos) se encuentran repletos de historias crédulas sobre el aprendizaje de las máquinas y la inteligencia artificial, pero con frecuencia estas historias están basadas en reivindicaciones comerciales, como explican Brennen y Nielsen. En esencia, estos programas simplemente toman algunos datos y utilizan reglas o fórmulas matemáticas para obtener una respuesta cuya intención es ser usada para mejorar el discernimiento profesional. La idea del uso de algoritmos en el sistema de justicia criminal no es nuevo: pocas veces se reconoce que los sencillos sistemas para determinar la posibilidad de reincidencia, basados en un análisis de regresión estadística, han sido utilizados durante décadas, afirman Copas y Marshall. En efecto, las directrices básicas para sentenciar pueden ser consideradas como algoritmos diseñados para producir coherencia, y proporcionar un punto de partida que pueda ajustarse de acuerdo al criterio del juez en relación a un caso específico, indica el Sentencing Council.
 
Sin embargo, el informe realizado por Liberty es sólo un ejemplo del aumento por la preocupación de las cuestiones éticas, y puede parecer que ahora hay más personas trabajando en la ética de los algoritmos, inteligencia artificial y aprendizaje de máquinas, que en la tecnología misma. Existen varias listas de control e iniciativas, por ejemplo, Algocare para mantener el orden, como explican Oswald y colaboradores, mientras que fatml (Fairness, Accountability and Transparency in Machine Learning/Imparcialidad, Responsabilidad y Transparencia en el Aprendizaje de Máquinas), recomienda una declaración del impacto social para cualquier algoritmo. 
 
Esto está estipulado en un documento elaborado por dicha organización, en donde se detallan los siguientes rubros: 1) responsabilidad, esto es a quién recurrir cuando las cosas salen mal; 2) explicaciones, dirigidas a los inversionistas y en términos que no sean técnicos; 3) exactitud, para identificar las fuentes de error e incertidumbre; 4) auditorías, para permitir que terceras partes revisen y hagan crítica; y 5) imparcialidad, para con los distintos grupos demográficos.
 
Dentro de la justicia criminal, como lo ha señalado la asociación equivant, el sistema compas se utiliza ampliamente en los Estados Unidos para predecir la reincidencia y tomar decisiones informadas para poner en libertad bajo fianza. Toma en consideración 137 aspectos de información, y produce una calificación para el riesgo entre 1 y 10, y que se clasifica como bajo, mediano y alto. Pero el procedimiento está patentado y actúa como una completa caja negra, mientras que se ha acusado al sistema compas de operar con un prejuicio racial, como señala Angwin, a pesar de que este análisis ha sido fuertemente cuestionado —de lo que dan cuenta CorbettDavies y colaboradores. Una solicitud contra su uso fracasó, se explica en la Harvard Law Review, pero el sistema compas presenta un desempeño pobre en la mayoría de los criterios de fatml.
 
De modo que parecería que todo se reduce a una sencilla pregunta —¿podemos confiar en los algoritmos?
 
Confianza y honradez
 
En esta época de desinformación y voces altas que compiten entre ellas, todos necesitamos que confíen en nosotros. Pero como ha dicho la filósofa Onora O’Neill, las organizaciones no deberían intentar inspirar confianza; más bien deberían tener como objetivo demostrar su honradez, lo cual requiere ser honestos, competentes, y confiables. Esta idea simple pero poderosa ha tenido mucha influencia: la revisión del Código del Ejercicio para las estadísticas oficiales en el Reino Unido coloca a la Honradez como su primer “pilar”, como se ve en el reporte de 2018 de la UK Statistics Authority.
 
Parece razonable que, cuando nos enfrentamos con un algoritmo, deberíamos esperar garantías de honradez: 1) tanto acerca del sistema —lo que las personas que desarrollan el algoritmo dicen que puede hacer, y cómo ha sido evaluado; como 2) del sistema mismo —lo que dice sobre un caso específico.
 
Este es un tema complejo, pero la ciencia estadística puede ayudar —ha contribuído a la comunicación y evaluación durante décadas. Consideremos estos dos criterios con más detalle.
 
De afirmaciones acerca del sistema
 
Como lo documenta un informe reciente del Reuters Institute analizado por Brennen y Nielsen, existen muchas afirmaciones exageradas acerca de la inteligencia artificial alentadas por consideraciones comerciales más que científicas. Eric Topol, en su muy respetable reseña sobre la inteligenecia artificial en la medicina, establece sin sutilezas que: “el estado en el que se encuentra la moda de la ia ha excedido por mucho al estado de la ciencia en la ia, en particular cuando se refiere a la validación y prontitud en la implementación del cuidado de los pacientes”.
 
La honradez de las afirmaciones acerca del sistema completo se podrían comunicar proporcionando una declaración del impacto social apegado a los lineamientos sugeridos por la fatml. Pero hay una consideración importante que falta en ese listado. Parece que se da por hecho que los algoritmos serán benéficos una vez implementados y, dado que esto no queda asegurado de ninguna manera, yo recomendaría que se añada lo siguiente: el impacto, esto es, ¿cuáles son los beneficios (y daños) cuando en realidad se utiliza el algoritmo?
 
Los especialistas en estadística han estado familiarizados con la evaluación estructurada durante décadas, desde que los escándalos tales como los defectos de nacimiento causados por la talidomida desencadenaron un régimen de pruebas rígido para las nuevas farmacéuticas. La esctructura de cuatro fases establecida está resumida en la tabla 1, junto con una estructura para los algoritmos basados en propuestas duraderas semejantes dadas por mí en un texto publicado en 1983 y por Stead y colaboradores, en 1994.
 
Casi toda la atención en la literatura publicada sobre algoritmos tanto médicos como para mantener el orden se ha enfocado en la fase 1 —la exactitud que se afirma para los conjuntos de datos digitales. Pero esto es sólo el inicio del proceso de evaluación. Hay una cantidad pequeña pero que va en aumento de evaluaciones de la fase 2, en las cuales el desempeño se compara con el de “expertos” humanos, algunas veces en la forma de una Prueba de Turing, descrita por él en 1950, en la cual la calidad de los juicios realizados tanto por humanos como por algoritmos es establecida por expertos independientes, quienes ignoran si el juicio fue hecho por un humano o un algoritmo. Por ejemplo, señala Copestake, la compañía de inteligencia artificial médica Babylon condujo un estudio para la fase 2, comparando su sistema de diagnóstico con el de médicos, aunque este estudio después fue fuertemente criticado en el Lancet, como lo señalan Fraser y colaboradores. Kleinberg, Lakkaraju, Leskovec, Ludwig y Mullainathan también tratan sobre la analogía entre algoritmos para evaluar la reincidencia y la estructura en cuatro fases para las farmacéuticas, y modelan una comparación para la fase 2 entre decisiones tomadas por humanos y por algoritmos.
 
Topol también reporta que: “ha habido una notable y pequeña validación esperada para las tareas que las máquinas podrían desempeñar para ayudar a los médicos clínicos o para predecir resultados clínicos que serían útiles para los sistemas de salud”. Esto significa que ha habido muy pocas evaluaciones en la fase 3 donde se verifique si el sistema puesto en práctica de hecho hace más bien que daño: incluso los sistemas simples para cuantificar los riesgos han sido rara vez evaluados en pruebas aleatorias, aunque una Cochrane Review de pruebas aleatorias para la cuantificación del riesgo en la prevención primaria de enfermedades cardiovasculares concluyó que “proporcionar una cuantificación del riesgo en enfermedades cardiovasculares podría reducir de manera leve los niveles del factor de riesgo para enfermedades cardiovasculares y puede aumentar que se recete medicina preventiva a personas con alto riesgo sin que exista evidencia de daño causado”, explican Karmali y colaboradores.
 
Los algoritmos pueden tener un impacto a través de un mecanismo inesperado. En los ochentas, yo estuve involucrado en un estudio de “diagnóstico asistido por computadora”, cuando esto significaba contar con una computadora grande y torpe en un rincón de la clínica. En una prueba aleatoria, señalan Wellwood y colaboradores, quedó mostrado que incluso un algoritmo bastante deficiente podía mejorar el desempeño clínico para diagnosticar y tratar el dolor abdominal agudo —no porque los médicos tomaran mucho en cuenta lo que la computadora decía, pero simplemente porque los alentaba a reunir de manera sistemática una buena historia y realizar un diagnóstico inicial.
 
Existen, sin embargo, limitaciones en la analogía para evaluar a las farmacéuticas. Las medicinas que se recetan actúan en los individuos y, con las notables excepciones del abuso de antidepresivos y opioides, rara vez tienen un impacto en la sociedad en general. En contraste, el amplio uso de un algoritmo tiene el potencial para tener un impacto de ese tipo y, por tanto, las pruebas tradicionales controladas aleatoriamente y basadas en individuos podrían necesitar ser complementadas con una evaluación del efecto en las poblaciones. La estructura que tiene, en el Reino Unido, el UK Medical Research Council para evaluar intervenciones médicas complicadas puede ser relevante; la propuesta original (que ha sido citada muchas veces) seguía muy de cerca el modelo farmacéutico implementado y descrito arriba, indican Campbell y colaboradores, pero una versión revisada transitó hacia un modelo más interactivo con una reducción en el énfasis en los métodos experimentales, como lo mencionan Craig y colaboradores, y una actualización más profunda que está en preparación promete aumentar su perspectiva a otras disciplinas y minimizar aún más las pruebas controladas de manera aleatoria, concluyen Skivington y colaboradores.
 
Algo importante que se debe tener en mente es que los algoritmos clínicos están considerados como mecanismos médicos con propósitos de regulación, digamos por la Unión Europea, como indican Fraser y colaboradores, o por la Food and Drug Administration (fda) en los Estados Unidos, como se aprecia en el documento del Center for Devices and Radiological Health, y por tanto no están sujetos a la estructura de cuatro fases para las farmacéuticas que se muestra en la tabla 1. Las pruebas aleatorias del impacto en la fase 3 no se requieren, por tanto, para la aprobación, donde se hace un fuerte énfasis en la confiabilidad de la tecnología o del código mismo. Además, esto presupone que los algoritmos que han mostrado tener una exactitud razonable en el laboratorio tienen que ser de ayuda en la práctica, y una evidencia explícita de esto mejoraría la honradez de las afirmaciones hechas en referencia al sistema.
 
De afirmaciones hechas por el sistema 
 
Cuando se somete a un individuo a lo que afirma un algoritmo, digamos, una evaluación del riesgo de reincidencia o un diagnóstico médico, parece razonable que él o sus representantes pudieran obtener respuestas claras a preguntas tales como las siguientes: 1) ¿este caso se encuentra dentro de las competencias del algoritmo?; 2) ¿cuál fue la secuencia de los razonamientos que llevaron a esta afirmación?; 3) ¿qué hubiera sucedido si los datos que se le proporcionaron al algoritmo hubieran sido distintos (hechos contradictorios)?; 4) ¿hubo algún punto importante en la información que “inclinó la balanza hacia un lado”?; y 5) ¿cuál es el factor de incertidumbre que rodea a esta afirmación?
 
Mientras que un algoritmo de aprendizaje profundo puede ser apropiado para el análisis automático de datos a través de imágenes, cuando hay menos datos para alimentar al algoritmo puede ser posible, en un inicio, construir un modelo más sencillo, más fácil de interpretar. La ciencia estadística se ha enfocado principalmente en modelos de regresión lineal en los cuales, fundamentalmente, se asigna pesos a las características para llevarnos a un sistema de calificación, por ejemplo, el trabajo de Caruana y sus colegas en donde utilizan modelos aditivos generalizados para evaluar el riesgo de contraer neumonía. Con frecuencia se dice que un aumento en la capacidad de interpretar los resultados tiene que ser el precio que se paga en el desempeño, pero esto ha sido cuestionado en el caso de los algoritmos para la reincidencia, como señala Rudin. En efecto, un experimento realizado en línea demostró que el público no conocedor era tan bueno como el sistema compas (65% de exactitud), y que el desempeño del sistema compas se podía equiparar con un simple clasificador basado en una regla, concluyen Angelino y colaboradores, e incluso con un modelo de regresión con sólo dos parámetros para predecir (la edad y el número total de sentencias previas), a decir de Dressel y Farid. Además, las evaluaciones de la incertidumbre son una componente fundamental de la ciencia estadística.
 
Transparencia
 
La honradez requiere transparencia, pero no sólo la transparencia del estilo de una “pecera” en la cual se proporcionan grandes cantidades de información en un formato que no se puede digerir. La transparencia no proporciona necesariamente una mejor explicación —si los sistemas son muy complejos, incluso el proporcionar un código no será iluminador. Afortunadamente, Onora O’Neill ha hecho de nuevo una importante contribución al desarrollar la idea de “transparencia inteligente”, retomada por la Royal Society en 2012, con la cual ella argumenta que la información debe ser: 1) accesible, es decir, las personas interesadas deben poder encontrarla fácilmente; 2) inteligible, que tales personas deben poder entenderla; 3) utilizable, a saber que la información debe referirse a lo que les preocupa; y 4) evaluable, lo cual significa que, si se solicita, la base para cualquier afirmación debe estar disponible.
 
Al autor le parece que el último criterio anterior es esencial: un algoritmo honrado debe tener la capacidad de “mostrar cómo funciona” a las personas que necesitan entender cómo llegó a sus conclusiones. Mientras que la mayoría de los usuarios pueden contentarse con aceptar las afirmaciones obtenidas del algoritmo “porque confían en él”, las partes interesadas deberían poder evaluar la confiabilidad de tales afirmaciones. En un estudio experimental de cúanto añade un algoritmo a la precisión humana, Lai y Tan encontraron que el proporcionar una explicación individualizada añadía tanto como proporcionar una certeza genérica acerca de la calidad del algoritmo.
 
Hemos intentado estar a la altura de estos objetivos en la interfase que hemos construido para el popular programa Predict para mujeres recién diagnosticadas con cáncer de seno, al cual se accede en el portal del National Health Service, y en donde se ingresa los detalles de la enfermedad y posibles tratamientos y se obtiene información predictiva acerca de los beneficios y daños potenciales del tratamiento postoperatorio en la forma de texto, cantidades y gráficas. La explicación se proporciona en múltiples niveles y en múltiples formatos y, de ser solicitados, los detalles completos del algoritmo, incluso el código, están disponibles para el escrutinio. Por supuesto, un problema que conlleva el tener un algoritmo confiable que está empacado de una manera transparente y atractiva es que puede derivar en un “exceso de confianza”, en el cual la información que arroja el algoritmo es tratada como si fuera precisa e incuestionable. Un algoritmo honrado de verdad debería tener la capacidad de comunicar sus propias limitaciones para garantizar, de manera bastante irónica, que no se debe confiar demasiado en él.
 
Conclusiones
 
Las personas que desarrollan los algoritmos necesitan demostrar que la honradez de las afirmaciones hechas tanto acerca del algoritmo como por el algoritmo mismo, lo cual requiere una evaluación en fases de la calidad e impacto basada en principios estadísticos fuertes. En el contexto de los algoritmos clínicos, Topol dice: ”se requiere estudios rigurosos, la publicación de los resultados en revistas con arbitraje, y la validación clínica en el ambiente real, antes de proceder a la implementación”. Lo mismo tiene que aplicarse en el caso del sistema de justicia criminal, donde no existe una fda para otorgar permisos.
 
Finalmente, siempre que el autor escucha afirmaciones acerca de cualquier algoritmo, su lista de las preguntas que le gustaría hacer incluye lo siguiente: 1) ¿funciona bien cuando se le pone a prueba en nuevos lugares en el mundo real? 2) ¿existe algo que podría ser más sencillo, y más transparente y robusto, e igual de bueno? 3) ¿podría yo explicar cómo funciona (en general) a cualquier persona interesada? 4) ¿podría yo explicarle a un individuo cómo llegó el algoritmo a una conclusión en su caso particular? 5) ¿sabe el algoritmo cuándo se encuentra en terreno inestable, y puede reconocer la incertidumbre? 6) ¿la gente lo utiliza de manera apropiada, con el nivel correcto de escepticismo?; y 7) ¿de verdad es de ayuda en la práctica?
 
El autor piensa que la pregunta 5 es de particular importancia. Cuando a uno le dicen con toda confianza que debe bajar unos escalones manejando el auto, reduce la confianza en la Señora Google, pero en otra ocasión, ella simplemente se rindió y dijo: “no puedo ayudarle por el momento”. Ella recuperó pronto la compostura, pero al autor esto le pareció un comportamiento honrado —el algoritmo supo cuando no sabía y así lo dijo. Una humildad así es difícil de encontrar y debe ser valorada.
     
       
Referencias Bibliográficas

Angelino, E., N. Larus-Stone, D. Alabi, M. Seltzer y C. Rudin. 2017. “Learning certifiably optimal rule lists”, en Proceedings of the 23rd acm sigkdd International Conference on Knowledge Discovery and Data Mining, núm. 18, pp.35–44 (bit.ly/2U6LSrT).
     Angwin, J. 2016. “Machine bias. There’s software used across the country to predict future criminals. And it’s biased against blacks”, mayo 23 (www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing).
     Brennen, S. y R. Nielsen. 2018. “An Industry-led debate: How UK media cover artificial intelligence” (bit.ly/2U8LwRR)
     Campbell, M., R. Fitzpatrick, A. Haines, A. Kinmonth, L. Sandercock, P. Spiegelhalter, y P. Tyrer. 2000. “Framework for design and evaluation of complex interventions to improve health” en bmj, vol.321, septiembre 16, pp. 694–696 (bit.ly/2WxeNHe).
     Caruana, R., Yin Lou, J.Gehrke, P. Koch, M. Sturm y N. Elhadad. 2015. “Intelligible models for healthcare: Predicting pneumonia risk and hospital 30-day readmission”, en Proceedings of the 21th acm sigkdd International Conference on Knowledge Discovery and Data Mining, Agosto 15, pp.1721–1730 (cutt.ly/9tnyLbV).
     Center for Devices and Radiological Health. 2019. “Artificial intelligence and machine learning in software as a medical device” (cutt.ly/ytnyNd7).
     Copas, J. y P. Marshall. 1998. “The offender group reconviction scale: A statistical reconviction score for use by probation officers”, en Journal of the Royal Statistical Society. Series C (Applied Statistics), vol.47, núm. 1, pp. 159–171 (bit.ly/2QALnnV).
     Copestake, J. 2018. “Chatbot claims to beat gps at medical exam”, en bbc News (cutt.ly/1tny1ns).
     Corbett-Davies, S. Pierson, E., Feller y S. Goel. 2016. “A computer program used for bail and sentencing decisions was labeled biased against blacks. It’s actually not that clear”, en The Washington Post (wapo.st/2xg1q3C).
     Craig, P., P. Dieppe, S. Macintyre, S. Michie, I. Nazareth y M. Petticrew. 2008. “Developing and evaluating complex interventions: The new Medical Research Council guidance”, en bmj, vol. 337, septiembre 29 (cutt.ly/htny30c).
     De Fauw, J., J. R. Ledsam et.al. 2018. “Clinically applicable deep learning for diagnosis and referral in retinal disease”, en Nature Medicine, vol. 24, núm. 9, pp. 1342–1350 (bit.ly/2U5Ft0j).
     Dressel, J. y H. Farid. 2018. “The accuracy, fairness, and limits of predicting recidivism”, en Science Advances, vol.4, núm. 1, pp. 1-5 (cutt.ly/stny6LE).
    Equivant: The Northpointe Suite. 2019 (www.equivant.com/northpointe-suite/).
    Fairness, Accountability, and Transparency in Machine Learning. 2019. “Principles for accountable algorithms and a social impact statement for algorithms” (cutt.ly/jtnuwfv).
    Fraser, A. G., E. G. Butchart, P. Szymański et.al. 2018. “The need for transparency of clinical evidence for medical devices in Europe”, en The Lancet, vol. 392, núm. 10146, pp. 521–530 (bit.ly/3bfpwdD).
     Fraser, H., E. Coiera y D. Wong. 2018. “Safety of patient-facing digital symptom checkers”, en The Lancet, vol.392, núm. 10161, pp. 2263–2264 (bit.ly/3dhVyHQ).
     Harvard Law Review. 2019. “State v Loomis, en Marv. L. Rev. núm. 1530 (https://bit.ly/2Wy1JS0).
     Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing”, en Harvard Law Review, vol.130, pp. 1530-1537 (cutt.ly/BtnuupG).
     Couchman Hanna. 2019. Report: policing by machine predictive policing and the threat to our rights, en I.Iberty, enero, pp. 86 (cutt.ly/ltnuax0).
     Karmali, K. N., S. D. Persell, P. Perel, D. M. Lloyd&Jones et.al. 2017. “Risk scoring for the primary prevention of cardiovascular disease”, en Cochrane Database of Systematic Reviews, núm.3, pp.133 (cutt.ly/MtnusOH).
     Kleinberg, J., H. Lakkaraju, J. Leskovec, J. Ludwig y S. Mullainathan. 2018. “Human decisions and machine predictions”, en The Quarterly Journal of Economics, vol.133, núm. 1, pp. 237–293.
     Lai, V. y C. Tan. 2019. “On human predictions with explanations and predictions of machine learning models: A case study on deception detection”, en Proceedings of the Conference on Fairness, Accountability, and Transparency, enero, pp. 29–38 (cutt.ly/ntnufVd).
     National Health Service. 2019. “Predict breast (breast.predict.nhs.uk/).
     O’Neill, O. 2013. “What we don’t understand about trust” (cutt.ly/ntnujsx).
     Oswald, M., J. Grace, S. Urwin y G. C. Barnes. 2018. “Algorithmic risk assessment policing models: Lessons from the Durham hart model and ‘Experimental’ proportionality”, en Information & Communications Technology Law, vol. 27, núm. 2, pp. 223–250 (cutt.ly/2tnulyG).
     Royal Society. 2012. “Science as an open enterprise” (cutt.ly/Jtnul3b).
     Rudin, C. 2018. “Please stop explaining black box models for high stakes decisions”, en Nat Mach Intell, mayo, pp. 206-215 (cutt.ly/Stnux4t).
     Sentencing Council. 2019. “Sentencing guidelines for use in Crown Court” (cutt.ly/8tnubGl).
     Simonite, T. 2019. “Facial Recognition is suddenly everywhere: Should you worry?”, en Wired (cutt.ly/btnunNM).
     Skivington, K., L. Matthews, P. Craig, S. Simpson y L. Moore. 2018. “Developing and evaluating complex interventions: Updating Medical Research Council guidance to take account of new methodological and theoretical approaches”, en The Lancet, vol. 392, núm. S2, pp. 1-39 (bit.ly/2WsO92t).
     Spiegelhalter, D. J. 1983. “Evaluation of clinical decision-aids, with an application to a system for dyspepsia”, en Statistics in Medicine, vol. 2, núm. 2, abril-junio, pp. 207–216 (bit.ly/2U8mi6b).
     Stead, W. W., R. B. Haynes, S. Fuller, C. P. Friedman, L. Travis et.al. 1994. “Designing medical informatics research and library resource projects to increase what is learned”, en Journal of the American Medical Informatics Association, vol. 1, núm. 1, enero-febrero, pp. 28–33 (cutt.ly/5tnuRlK).
     Topol, E. J. 2019. “High-performance medicine: the convergence of human and artificial intelligence”, en Nature Medicine, vol. 25, núm. 1, pp. 44–56 (cutt.ly/htnu9E7).
    Turing, A. M. 1950. “Computing Machinery and Intelligence”, Mind New Series, vol. 59, núm. 236, octubre, pp. 433–460 (cutt.ly/vtnu3P8).
    UK Statistics Authority. 2018. Code of Practice for Statistics. Ensuring official statistics serve the public, UK Statics Autority (cutt.ly/mtnu7Ma).
     Wellwood, J., S. Johannessen y D. J. Spiegelhalter. 1992. “How does computer-aided diagnosis improve the management of acute abdominal pain?” en Annals of The Royal College of Surgeons of England, vol.74, núm.1, pp. 40–46 (cutt.ly/Vtnu55X).
     
Nota
Este artículo se publica bajo permiso de Creative Commons Attribution (CC BY 4.0).

Traducción
Elsa Puente Vázquez
     

     
David Spiegelhalter
Winton Centre for Risk and Evidence Communication,
University of Cambridge.


David Spiegelhalter estudió en la Universidad de Oxford (Licenciatura en Artes 1974) y en el University College de Londres. Ganó su Master of Science en 1975 y el título Doctor en Filosofía 1978. Desde 1981 forma parte de la Medical Research Council Biostatistics Unit en Cambridge. Actualmente labora en el Laboratorio Estadístico como Winton Professor of the Public Understanding of Risk. Es Presidente de la Royal Statistical Society desde 2017.
     

     
 
cómo citar este artículo


     

 

 

You are here: Inicio Blog (2) revistas revista ciencias 134