revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
1 2
     
Fenomenología del dolor en Frida Kahlo. Reflexiones desde la salud pública
Se describen particularidades del dolor físico en la pintora mexicana Frida Kahlo, analizadas desde la perspectiva de la salud pública. Se modelan cambios en las condiciones iniciales de su gestación y en sus primeros años de vida, a partir de intervenciones preventivas contra espina bífida y poliomielitis. El modelo predice que si Frida hubiera nacido en 2007 tendría una probabilidad superior a 97% de no padecer espina bífida o de no presentar secuelas de esta enfermedad, y una probabilidad nula de padecer poliomielitis.
José Luis Díaz Ortega
conoce más del autor
 
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
El detalle con el que Frida Kahlo refleja el dolor físico en algunas de sus obras sugiere que era poseedora de una cultura médica importante, que provenía tal vez del propósito juvenil de estudiar medicina, frustrado por el trágico accidente de tránsito ocurrido en 1925. Su vida, a partir de los seis años en que adquirió la poliomielitis, estuvo marcada por la relación estrecha con médicos y servicios de salud, la cual trasciende lo estrictamente médico para apoyarse en la amistad, como queda evidenciado en las cartas de Frida o en las pinturas que obsequia a sus médicos.

La acuciosidad con que Frida recrea la realidad de su experiencia dolorosa, se ha documentado en otro contexto en algunos pintores impresionistas. Por ejemplo, las observaciones realizadas por Van Gogh del movimiento de las olas del mar, la caída de lluvia en colectores naturales de agua y otro tipo de turbulencias en su obra plástica, podrían considerarse verdaderas aproximaciones plásticas a la realidad, como ha sido demostrado por la modelación matemáti­ca utilizada en la física de fluidos. Frida, además de su sufrimiento físico, mostró la anatomía del dolor en su obra pictórica. En el cuadro de-nominado Lo que el agua me ha dado (1938) se observa una deformación y laceración en el pie derecho, lesiones que de acuerdo a la opinión especializada no necesariamente son consecuencia de la poliomielitis, sino que podrían ser atribuibles a espina bífida, lo que Frida pudo haber relacionado con herencia genética familiar, considerando que en el mismo cuadro, dentro de la tina de baño se encuentra un retrato de sus padres.

La pintura relacionada con el dolor físico de Frida probablemente está influenciada por la lectura de textos especializados y por el trato frecuente con galenos, apropiándose de alguna manera del lenguaje médico, lo que mezclado con su dolor físico da lugar a la lírica de algunas de sus obras pictóricas. En 1932, Frida presentó un aborto espontáneo en Estados Unidos, hecho que al parecer le dejó un trauma emocional profundo, lo que sería reflejado en la obra Hospital Henry Ford (1932) en el cual se muestra ella misma en una cama, con el producto de la gestación fuera de su cuerpo, teniendo como fondo la industria floreciente de Detroit. Este tema será nuevamente retomado en el cuadro denominado Frida y el aborto (1932), en el que se muestra de pie con una cuerda, probablemente el cordón umbilical, enrollada en su pierna derecha. En 1946 le practican una cirugía de columna, dejándole escaras dolorosas en la piel, lo que Frida, en carta dirigida a Alejandro Gómez Arias (su amor de adolescencia), considera como una especie de profanación de su cuerpo. Esta sensación la refleja en el autorretrato llamado Árbol de la esperanza, mantente firme (1946).

El malestar físico de Frida aumentó con­si­de­ra­ble­men­te en su última década de vida. Los instrumentos empleados en su “tormento terapéutico”: agujas, piquetes, corsés, acompañados por imágenes de arterias, cordones umbilicales, doble circular de cordón en su propio cuello, etcétera, serían una constante en algunas de sus obras. La recomendación médica de mejorar su ingesta alimenticia y la inapetencia crónica entran en juego en su obra Sin esperanza (1945), en la cual Frida refleja el hartazgo de alimentarse por necesidad. A partir de 1951 vivió prácticamente confinada a una silla de ruedas y forzada al uso de analgésicos derivados de la morfina.

¿Cuándo comenzó esta historia?

El origen de al menos una parte del sufrimiento de Frida Kahlo, podría haber ocurrido en las ­primeras semanas de su gestación en el vientre de Matilde Calderón, su madre, debido al defecto de cierre del tubo neural, conocido como espina bífida, diagnosticado por el doctor Leo Eloesser, su amigo y médico esta­do­unidense en 1930. El tu­bo neural es una estructura embrionaria que deriva del ectodermo y de la pla­ca neural y que da origen al siste­ma nervioso central, mismo que se cierra hacia la cuarta semana de gestación; de no hacerlo, da origen a este padecimiento. La espina bífida es generalmente asintomática si no presenta daño aparente de la médula espinal. Sin embargo, algunos casos presentan debilidad de extremidades, escoliosis (curvatura de la columna), dolor de espalda y piernas, trastornos presentes en Frida Kahlo. En algunas ocasiones se forma un saco o quiste en el que las meninges for­man una protuberancia a través de las vértebras, pero el quiste no atrapa nervios raquídeos ni médula espinal. Este tipo de espina bífida se denomina “meningocele” y generalmente se corrige con cirugía. El “mielomeningocele” es una forma severa de espina bífida, en la que el quiste sale por los espacios intervertebrales, atrapando nervios raquídeos y una porción de médula espinal. Tiene como consecuencia la parálisis de extremidades e incontinencia urinaria. La cirugía puede corregir sólo parcialmente el problema.

Aunque la causa del padecimiento se desconoce, se han identificado algunos factores de riesgo para adquirirlo, por ejemplo, si uno de los padres, un hermano(a) o algún miembro de la familia de los progenitores padeció espina bífida, aumenta la probabilidad de que no cierre el tubo neural en el producto en gestación. La obesidad, la diabetes, el tratamien­to anticonvulsivo en las mujeres gestantes o la presencia de enfermedades en las embarazadas como la influenza, el dengue u otros padecimientos que producen fiebre elevada, pueden ser factores de riesgo adicionales.

La poliomielitis no fue un convidado de piedra

En 1913, año del golpe de Estado de Victoriano Huerta y de la Decena Trágica en la ciudad de México, Frida, con seis años de edad, adquiere la poliomielitis, y sufrirá secuelas incapacitantes en la pierna derecha. Esta enfermedad es causada por un poliovirus que forma parte de los enterovirus neurotrópicos —llamados así por su afinidad con los tejidos digestivo y nervioso— de la familia Picornaviridae, que presentan tres variantes moleculares reconocidas por el sistema inmune (pv1, pv2 y pv3), el cual neutraliza la infección viral por medio de anticuerpos específicos para cada una de estas variantes. Los poliovirus son estructuras ico­saédricas de 20 a 29 nanómetros de diámetro (1 nanómetro = 1×10–9 metros) y su genoma está constituido por ácido ribonucléico de una sola cadena. Estos microorganismos se adquieren por vía digestiva, presentan estabilidad al medio ácido del estómago y soportan temperaturas ambientales próximas a 50 ºC; en aguas residuales pueden mantenerse hasta por cuatro meses, lo que favorece su diseminación a través de agua y alimentos contaminados. De acuerdo a la epidemiología del padecimiento en la época prevacunal, la variedad pv1 fue seguramente la responsable de la infección en Frida.

La descripción más antigua de la poliomielitis se encuen­tra en una estela egipcia que data de 1580 a 1350 a.C., que muestra la efigie de una persona con la extremidad izquierda acortada y adelgazada, imagen compatible con la parálisis residual dejada por este padecimiento. En 1789 el médico inglés Michael Underwood describe por primera vez esta enfermedad como una debilidad de los miembros inferiores, precedida de fiebre. En 1840, Jacob Heine identifica la médula espinal como el órgano objetivo del padecimiento y, en 1870, Jean Martin Charcot describe los cambios histopatológicos ocurridos en las astas anteriores de la médula espinal, sitio de residencia de las neuronas motoras, células de contorno poligonal irregular de las que se desprende una prolongación larga llamada cilindroeje o axón y cuyo extremo terminal presenta ramificaciones finas llamadas dendritas, responsables de la interacción electroquímica de las neuronas con las células musculares mediante la liberación de acetilco­lina, neurotransmisor que induce la contracción muscular. El conjunto formado por una neurona motora y las fibras musculares que activa se conoce como unidad motora.

La infección puede cursar en forma subclínica o asintomática (88-94% de los infectados); en forma abortiva (sólo fiebre, inflamación de amígdalas, o diarrea en 4-8% de infectados); en forma de inflamación de las envolturas del cerebro conocida como meningitis aséptica (1-2% de infectados) o en la forma paralítica que afecta generalmente una sola extremidad (1-2% de los infectados). En el siglo pasado se documentaron grandes pandemias (epidemias internacionales) en 1910, 1912 y 1916; en esta última se notificaron 900 casos tan sólo en la ciudad de Nueva York. En condiciones de pobreza la infección se presentaba usualmente en lactantes y preescolares, mientras que en el medio socioeconómico medio o superior la enfermedad paralítica afectaba más a niños en edad escolar y a jóvenes, corroborándose este comportamiento epidemiológico en Frida.

El trauma emocional que significó la deformidad y parálisis de la pierna derecha, seguramente modificó la forma de ver e imaginar la vida en la pequeña Frida. Durante su prolongada convalecencia en cama creó una amiga imaginaria con quien diálogaba y jugaba, que años después daría a conocer como “un clon” de ella misma en Las dos Fridas, cuadro probablemente emblemático de su personalidad.

Algo más que un accidente

En 1925, a la edad de dieciocho años, Frida sufrió un accidente a bordo de un vehículo público de motor, que sin lugar a duda marcó su destino. La pintora presentó fracturas múltiples en la columna, pierna y pie derechos. Por si fuera poco, una barra de metal se incrustó en su pelvis atravesando el útero, cuya reparación y cicatrización posterior probablemente modificaron la anatomía de la matriz impidiéndole llegar a tener embarazos de término y productos de la gestación viables. Este accidente llevó nuevamente a Frida a mantener periodos prolongados de inmovilidad en cama, lo que pudo alterar algunas de sus funciones motoras y la circulación sanguínea adecuada de la extremidad afectada. La recuperación de tan aparatoso accidente indica que a pesar de las fracturas múltiples de columna, la médula espinal probablemente no fue dañada, por lo que no presentó en lo inmediato problemas de nervios periféricos. En La columna rota (1944) pieza de gran profundidad, Frida desarrolla, probablemente por influencia de sus médicos, la idea de que el dolor que la aqueja se relaciona con el accidente de tráfico, mostrando en el interior de su cuerpo una columna “vertebral” jónica multifrac­turada, a la vez que sitúa su imagen en una tierra árida, probablemente arrasada por el sufrimiento. La expresión de desolación en su rostro y las lágrimas que corren por sus mejillas reflejan el dolor neuropático, definido académicamente como una sensación punzante de dolor intolerable. Cada clavo en su cuerpo describe, de acuerdo con su tamaño, la magnitud de la dolencia; los clavos se extienden hacia su extremidad inferior derecha.

¿Síndrome pospolio o fibromialgia postraumática?

El síndrome pospolio, descrito en los años setenta del siglo pasado, se presenta en un rango de 25% a 85% de los sobrevivientes a la poliomielitis, siendo más frecuente en mujeres. Los pacientes presentan sensación de fatiga, dolor muscular y sensación de debilidad progresiva en extremi­dades y en ocasiones en músculos respiratorios, lo que produce ansiedad, insomnio, depresión y déficit de memoria. La poliomielitis puede afectar hasta 95% de las neuronas motoras de la médula espinal, sin embargo, debido a la plasticidad del sistema nervioso, algunas neuronas sobrevivientes desarrollan nuevas prolongaciones que llegan a las fibras musculares innervadas previamente por células nerviosas fallecidas, generándose unidades motoras alternativas. La debilidad en estos pacientes podría atribuirse a un proceso de fatiga y degeneración de las unidades motoras emergentes, relacionado tal vez con mecanismos de daño autoinmune. El líquido cefalorraquídeo de algunos pacientes presenta interleucina-4 y factor de necrosis tumoral-alfa, moléculas conocidas como citocinas, que son excretadas por linfocitos T (células del sistema inmune). Estos hallazgos sólo están presentes en el líquido cefalorraquídeo y no en la sangre, lo que probablemente explicaría la ausencia de manifestaciones de daño en otros tejidos diferentes al nervioso. Adicionalmente, resultados de estudios de neuropatía epidémica realizados en Cuba, sugieren que algunas infecciones por enterovirus, no polio, podrían desencadenar procesos inflamatorios crónicos con potencialidad para disparar mecanismos de autoinmunidad hacia las unidades motoras.

Otros especialistas, considerando el antecedente del politraumatismo sufrido por Frida en 1925, señalan la fibromialgia postraumática —caracterizada por dolor muscular difuso, fatiga sin causa aparente y presencia de puntos dolorosos múltiples— como causa probable de su malestar crónico.

¿Y si las condiciones iniciales hubieran sido diferentes?

La enseñanza de la medicina clínica y preventiva generalmente se ha apoyado en el concepto de “historia natural de la enfermedad”, que es la forma en que se adquiere un padecimiento y su “evolución natural” sin intervención de la mano del terapeuta. Esta evolución se ubica en el contexto de la triada ecológica que determina la presencia de la enfermedad, es decir, en la relación entre agente causal, huésped (paciente) y medio ambiente, lo cual permitiría en términos teóricos identificar factores que podrían evitar o interrumpir esta historia en favor de la preservación de la salud o de una mejora en la calidad de vida de los enfermos, retrasando convenientemente la muerte. Esta forma, tal vez simplificada, de abordar el fenómeno salud-enfermedad no siempre permite ubicar el inicio de algunos padecimientos que pueden ser la suma o la multiplicación de varias enfermedades, ni la interacción compleja de diversas variables componentes del efecto clínico visible (propiedad emergente de la dinámica del fenómeno).

Vistas la salud y la enfermedad como sistemas dinámicos, podemos asumir que su comportamiento en el tiempo es suscep­tible de afectación por cambios en las condiciones biofísicas y sociales en que se desarrolla el proceso salud-enfermedad. De esta manera, habría que considerar las primeras semanas de gestación de Frida, y a partir de la identificación de ­factores de riesgo asociados a espina bífida y posteriormente de los me­ca­nismos de transmisión de la poliomielitis, imaginar un cambio en las condiciones iniciales que favorecieron la presencia de tales padecimientos. Bajo el supuesto de que Frida naciera por ejemplo, cien años después, propongamos un modelo que nos permita vislumbrar un futuro diferente para ella.

Espina bífida

Matilde Calderón vive en la ciudad de México y ha ganado derechos sobre su propio cuerpo, de manera que toma la deci­sión de embarazarse y consulta en compañía de Guillermo Kahlo un servicio médico, en donde —a partir de los progresos en salud pública y un análisis riguroso de su situación de salud— su médica le prescribe una práctica preventiva sumamente simple, aplicable a las mujeres en edad ­fértil, que consiste en recomendar el consumo de alimentos ricos en ácido fólico (vitamina B9), como naranja, vegetales verdes, legumbres y cereales fortificados con esta vitamina, disponibles en el mercado. Prescribe además una formulación farmacéutica de esta vitamina que deberá tomar un mes antes del inicio del embarazo y durante el primer trimestre de la gestación. La información disponible en la actualidad muestra que la eficacia de la intervención sería de 50% en ausencia de antecedentes familiares de defectos de cierre del tubo neural incluyendo espina bífida. La eficacia, por otra parte, sería de 71% en presencia de estos antecedentes. La probabilidad de falla de la estrategia sería por lo tanto de 50% en el primer escenario y de 29% en el segundo.

Si la intervención de salud pública fallara, no todo estaría perdido, ya que la tecnología vigente permitiría el diagnóstico oportuno de la espina bífida en el segundo trimestre de la gestación por detección de niveles elevados de una sustancia llamada alfa-fetoproteína en el suero materno. Ante un resultado positivo podrían realizarse pruebas más específicas, como la detección de esta sustancia en líquido amniótico (obtenido por amniocentesis) o mediante realización de ultrasonografía fetal de alta resolución. El diagnóstico confirmatorio de este padecimiento permitiría a la medicina preventiva nuevamente actuar con oportunidad para evaluar, mediante exploración clínica minuciosa de la recién nacida y un estudio de resonancia magnética nuclear, la dimensión del daño, para así llevar a cabo una intervención quirúrgica reconstructiva lo más tempranamente posible. Para vislumbrar qué tan diferente sería el futuro de Frida con las nuevas tecnologías de salud pública, asumamos los siguientes supuestos basados en la teoría de probabilidad: 1) la sensibilidad o capacidad de las pruebas diagnósticas de espina bífida es de 100%; 2) ante un diagnóstico confirmatorio se realiza cirugía reconstructiva; 3) en ausencia de intervención con ácido fólico, el riesgo de Frida de padecer espina bífida sería el mismo que tuvo en el siglo pasado, es decir de 100%; 4) la eficacia de la vacuna antipoliomielítica (esquema bá­sico de vacunación más dosis adicionales) es de 100%.

En términos estadísticos, y por convenir así a la comprensión de los resultados, consideremos la intervención de salud pública como un experimento, el cual se desarrolla en dos escenarios posibles. En el primero, la médica no encuentra ante­cedentes familiares de defectos de cierre del tubo neural o espina bífida en el historial clínico de Carmen Calderón ni de Guillermo Kahlo ni de las hermanas de Frida. En el segundo, estos antecedentes son positivos. A partir de los hallazgos referidos, se decide elaborar un modelo estocástico de árbol de decisión, para lo cual se establecen parámetros cuyos valores, a excepción de la eficacia de la cirugía reconstructiva, varían de acuerdo a los dos escenarios previamente comentados: 1) eficacia preventiva del ácido fólico: a) sin antecedentes familiares de defectos de cierre del tubo neural: 0.50; b) con antecedentes familiares de defectos de cierre del tubo neural: 0.71; 2) eficacia de la cirugía reconstructiva: 0.95.

El espacio muestra del experimento incluye todos los resultados posibles de la intervención, por lo que la probabilidad de que ocurra un resultado X es superior o igual a cero y, dado que estos eventos son mutuamente excluyentes, la suma de todos los resultados será igual a 1, de donde se desprende que el espacio de probabilidad de un resultado posible es el intervalo unitario: 0< P(R) < 1.

En el modelo se consideran cuatro resultados posibles, y la probabilidad de que ocurra cualquiera de ellos estará condicionada en la primera etapa del experimento al éxito o el fracaso de la dotación de ácido fólico a la madre de Frida en los tiempos anteriormente establecidos. En la segunda etapa del experimento, se realizará cirugía reconstructiva oportuna de espina bífida, cuyo éxito o fracaso condicionará la probabilidad de que se presenten los resultados
3 o 4 del espacio muestra que a continuación se describen:

espacio muestra= {X, Y},
donde: X= éxito de ácido fólico.
Y= éxito de la cirugía reconstructiva oportuna.

Los resultados posibles serían los siguientes: 1) probabilidad condicional de que Frida recién nacida no padezca de espina bífida, dado que su madre se expuso a la intervención exitosa de dotación de ácido fólico; 2) probabilidad condicional de Frida recién nacida de padecer espina bífida sin secuelas dado que su madre se expuso a una intervención fallida con ácido fólico, y dado que se expuso también a una cirugía reconstructiva exitosa; 3) probabilidad condicional de que Frida recién nacida padezca espina bífida con secuelas dado que Carmen Calderón se expuso a una intervención fallida con ácido fólico, y dado que se expuso a una cirugía reconstructiva no exitosa; 4) probabilidad de que Frida nazca sin espina bífida o de que nazca con ella pero no presente secuelas.

Analicemos las probabilidades en cada uno de los escenarios. Dado que la probabilidad de que ocurran los resultados 2 o 3 depende del fracaso de la intervención con ácido fólico y del éxito o fracaso de la cirugía reconstructiva, se trata, de acuerdo con la teoría de la probabilidad, de probabilidades condicionales con ocurrencia conjunta de dos eventos, por lo que se aplica la regla de la multiplicación para estimar la probabilidad del evento final.

Por otra parte, la probabilidad (P) de que Frida nazca sin espina bífida o de que no presente secuelas de este padecimiento estará dada por la suma de las probabilidades individuales de cada evento. Por lo que los resultados esperados podrían ser descritos por las siguientes expresiones:

Escenario 1. Sin antecedentes familiares de defectos de cierre del tubo neural o espina bífida:
1. P(nacer sin espina bífida)
P(x)= 0.50

2. P(nacer con espina bífida y no tener secuelas)
(1-P(x)) * P(y) = 0.5 × 0.95
= 0.475
3. P(nacer con espina bífida y presentar secuelas)
(1-P(x)) * (1-P(y)) = 0.5 × 0.05
= 0.025

4. P(nacer sin espina bífida, o con ella y no tener secuelas)
P(x) + ((1-P(x)) * P(y))= 0.5 + 0.475
= 0.975
Escenario 2. Con antecedentes familiares de defectos de cierre del tubo neural o espina bífida:
1. P(nacer sin espina bífida)
P(x)= 0.71

2. P(nacer con espina bífida y no tener secuelas)
(1-P(x)) * P(y)= 0.29 × 0.95
=0.276
3. P(nacer con espina bífida y presentar secuelas)
(1-P(x) * (1-P(y))= 0.29 × 0.05
=0.014

4. P(nacer sin espina bífida, o con ella y no tener secuelas)
P(x) + ((1-P(x)) * P(y))= 0.71 + 0.276
= 0.986

Los resultados de la intervención de salud pública y de la medicina preventiva en cuanto a limitación del daño, en términos porcentuales, son conmovedores: la probabilidad de nacer sin espina bífida o de no presentar secuelas sería de 97.5% en el escenario 1 y de 98.6% en el 2. La predicción de este modelo por lo tanto es que si Frida naciera en 2007, y su madre y ella misma se expusieran a las intervenciones de salud pública disponibles, tendría una probabilidad superior a 97% de desarrollarse como una niña feliz y saludable. Dado que se trata de un modelo estocástico, los resultados son solamente probables, por lo que se realizó análisis de sensibilidad del modelo a cambios en dos parámetros clave: la eficacia de la intervención con ácido fólico, la cual se modificó a 40% y posteriormente a 60% en el escenario 1, y a 61% y 81% en el escenario 2. Adicionalmente, regresando a los valores originales de los pa­rámetros anteriormente modificados, se varió el valor del pará­metro de la eficacia de la cirugía reconstructiva, asignándole valores de 85% y 100%, independientemente de los escenarios previamente aludidos. Los resultados auguran igualmente una infancia feliz para Frida si las condiciones iniciales hubieran sido diferentes: 92.5% a 100% de probabilidad de nacer sin espina bífida o de no presentar secuelas de este padecimiento.
 
 
Poliomielitis
 
A partir de las características de transmisión de la poliomielitis, aun cuando las condiciones de vivienda y saneamiento básico en general siguen siendo favorables a la diseminación de los poliovirus en México, la probabilidad de que Frida adquiriera la poliomielitis paralítica sería de 0, debido a que este padecimiento ha sido erradicado del país (último caso en 1990) y del continente americano (último caso en Perú en 1991), gracias a la vacunación universal contra la poliomielitis. La vacunación ha permitido sin duda el avance hacia la erradicación mundial de la enfermedad, objetivo proclamado por la Organización Mundial de la Salud en 1988. Actualmente la enfermedad se encuentra acorralada en países como Afganistán, Pakistán, India, Nigeria y otros, algunos de los cuales son víctimas de invasiones extranjeras o de conflictos bélicos internos. Nuestro modelo predice entonces que Frida tendría 100% de probabilidad de no padecer esta terrible enfermedad. El futuro le sonreiría a la pequeña Frida en su sexto aniversario, cuando la atacó la poliomielitis, y nadie le diría por tanto “pata de palo”, como la llamaban algunos niños en la escuela.
 
Accidente por vehículo de motor
 
Si Frida viviera su adolescencia y juventud en la ciudad de México en el año 2025, y asumiendo que se transportara a la universidad, a las reuniones políticas o a los museos y conciertos de rock en transporte público, sería difícil estimar la probabilidad de que sufriera un accidente tan trágico y aparatoso como el que vivió en el siglo pasado. Sin embargo, los recursos terapéuticos contemporáneos probablemente evitarían la mayoría de las 32 intervenciones quirúrgicas a las que fue sometida en el siglo pasado y seguramente le ofrecerían una mejor calidad de vida.

En conclusión

Frida nació y vivió en el centro de grandes convulsiones políticas y sociales. El secreto de su singular proceso de adaptación a la invalidez relativa radicó probablemente en la combina­ción creativa de sufrimiento, hedonismo y fe en el comunismo.

A consecuencia de la espina bífida, de la po­lio­mielitis paralítica, de los politraumatismos sufridos en 1925 y probablemente también a causa de las numerosas cirugías a las que fue sometida, Frida tuvo que pasar por periodos prolongados de inmovilidad en cama, lo que pudo producir problemas de circulación en la extremidad inferior derecha, inflamación, infección (celulitis) y ulceración de la piel que finalmente terminaría en gangrena y amputación de la pierna derecha en 1953. El dolor cada vez menos tolerable, aumentó su dependencia de fármacos derivados de la morfina, presentando además depresión e ideación suicida. Falleció finalmente el 13 de julio de 1954 con diagnóstico de embolia pulmonar. Días antes había escrito en su diario: “Espero alegre la salida y espero no volver jamás”. Las tecnologías disponi­bles ahora en salud pública modeladas en este trabajo, muestran que gran parte de su dolor podría actualmente ser evitado, otorgando a Frida mayoritariamente el derecho a la  felicidad.
 
Por último, puede afirmarse que a cien años de su nacimiento, Frida ha adquirido el don de la ubicuidad, haciendo acto de presencia en diferentes escenarios del mundo, donde mujeres y jóvenes enarbolan su imagen, más allá de la comercialización irrespetuosa, como símbolo de tenacidad y rebeldía ante la desesperanza y la oscuridad.
Referencias bibliográficas

American Academy of Pediatrics. 1999. “Folic acid for the prevention of neural tube defects”, en Pediatrics; 104: 325-327.
Budrys, V. 2006. “Neurological deficit in the life and works of Frida Kahlo”, en European Neurology; 55: 4-10.
Cherry, J. D. 1998. “Enteroviruses: Picornaviridae. Coxakievirus, echoviruses, and polioviruses”, en R. D. Feigin y J. D. Cherry (eds.). Textbook of pediatric infectious diseases. Elsevier, Filadelfia.
Consejo Superior de Investigación Científica (España). Nota de prensa (19/07/2006): “Una investigación del cisc demuestra que algunos cuadros de Van Gogh plasman la teoría de la turbulencia”. Disponible en: www.cisc.es/prensa/noticias2006
Espiño, I. 2006. “Medicina e historia. Los dolores de Frida”. Entrevista con el cirujano ortopedista James G. Gamble de la Universidad de Stanford, en el periódico El Mundo, Madrid. 25 de septiembre.
Gudenko, B. V. y A. Ya. Khinchin. 1962. An elementary introduction to the theory of probability. Dover Publications, Nueva York.
Halstead, L. S. 1998. “Post-polio syndrome”, en Scientific American; 278: 42-47.
Jubelt, B. y J. C. Agre. 2000. “Characteristics and management of postpolio syndrome”, en Journal of the American Medical Association; 284: 412-414.
Kahlo, F. 2001. Diario. Un íntimo retrato. 2ª edición, La vaca independiente, México.
Lomas, D. y R. Howell. 1989. “Medical imaginary in the art of Frida Kahlo”, en British Medical Journal; 299: 1584-1587.
Más Lago, P. 1998. “Neuropatía epidémica. Hipótesis etiopatogénica”, en Revista Cubana de Medicina Tropical; 50 (supl.): 259-263.
Oldstone mba. 2002. Virus, pestes e historia. Fondo de Cultura Económica, México.
Ramis, A. y M. Rina. 2004. “La causalidad compleja: un nuevo paradigma causal en epidemiología”, en Revista Cubana de Salud Pública (online); 30 (3).
Tibol, R. 2007. Escrituras de Frida Kahlo. Lumen, México.
_______________________________________________________________
José Luis Díaz Ortega
Centro de Investigación sobre Enfermedades  Infecciosas,
Instituto Nacional de Salud Pública.
 
Es médico cirujano, con especialidades en inmunología y en epidemiología, se desempeña como investigador en ciencias médicas en el Centro de Investigación sobre Enfermedades Infecciosas del Instituto Nacional de Salud Pública y es profesor del curso de verano “Vacunas y Salud Pública”.
como citar este artículo
Díaz Ortega, José Luis. (2008). Fenomenología del dolor en Frida Kahlo. Reflexiones desde la salud pública. Ciencias 89, enero-marzo, 4-13. [En línea]
  ←Regresar al índice artículo siguiente→
1 2
     
De las virtudes de la iconoclasia: una mirada
a la obra de Tomás Brody
En mayo de 2006 se inauguró en el Centro Universitario de los Lagos (Jalisco) la Cátedra Tomás Brody. El presente trabajo recoge la conferencia magistral que Luis de la Peña dictó en tal ocasión. En él se revisan muy someramente algunas de las importantes contribuciones de Brody a la filosofía de la ciencia y a la interpretación realista y objetiva de la mecánica cuántica.
Luis de la Peña
conoce más del autor
 
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
I. Tomás Brody tuvo la fortuna de gozar de un cerebro privilegiado y el privilegio de gozar en su uso. Lo llenó de conocimientos que cubrían un amplísimo espectro; los mantenía ordenados y despiertos y le daban la capacidad de discutir a profundidad sobre una enorme variedad de temas con sus especialistas en pie de igualdad. Tomás no era físico, al menos no tenía diploma alguno que lo reconociera como tal, pero nos legó muy importantes contribuciones a la física, trabajos que nos obligan a reconocerlo como uno de nuestros físicos importantes. Tanto se le reconocía en la práctica que con frecuencia la gente hablaba del doctor Brody. Recibió, pues, el más efectivo de los doctorados: el que otorga el reconocimiento de los pares. Tampoco era filósofo, o sea, tampoco poseía diploma alguno que lo acreditara como filósofo, pero su legado en esta rama es de seguro más trascendente que el de tantos filósofos cuyos diplomas de doctorado lucen hermosos en la pared más visible de su sala o cubícu­lo. Y a todo esto debemos agregar la temprana capacidad mostrada en muy diversas formas y ocasiones por Tomás Brody en el terreno de la computación, en particular —pero no exclusivamente— en la numérica. No creo que en la década de los sesentas tuviéramos en la unam, y probablemente en el país, un experto en cómputo y en métodos numéricos de mayor calibre que él. Para fijar ideas y mostrar que no se trata de exageración alguna baste recordar la elaboración por ­Brody y Marcos Moshinsky de las tablas de paréntesis de trans­formación para cálcu­los nucleares en 1964. Sin du­­da alguna los cálculos requeridos pa­ra la elaboración de estas tablas, que son la con­tribución de Brody a esta obra, fueron los más complejos, sofisticados y largos realizados en nuestro país en aquellas épocas. Fue su uso lo que mostró que ya podíamos hacer cómputo elec­tró­ni­co serio en nuestro país.

Me concreto sólo a estas tres expresiones de Tomás porque son aquellas en las que produjo una amplia obra publicada. Sin embargo antes de entrar en detalle alguno permítanme insistir en algo que de no ser mencionado desfiguraría y empobrecería su recuerdo y obra de manera no sólo injusta, sino definitivamente inapropiada por ajena a él. Me refiero al hecho de que Tomás no fue un investigador de torre de marfil, sino un ser de su tiempo, preocupado por los problemas de su momento y su medio. No sólo se expresó sistemáti­camente al respecto, sino que produjo varios trabajos sobre política científica y educativa, así como algunos escritos en los que despliega con amplitud su clara percepción social de los problemas y su patente intención de ayudar al lector a la comprensión más profunda y cabal del origen de las dificultades y del posible camino hacia su solución, siempre desde una perspectiva de avanzada, altamente original y creativa.

II

Con el objetivo de ilustrar aunque sea de manera mínima la capacidad analítica y creativa de Brody en el terreno de la filosofía de la física, recurriré a un ejemplo por demás significativo. ¿Cómo resuelve Tomás el añejo problema de la inducción en la ciencia? Es posible que la mayoría de ustedes ni siquiera haya tenido la oportunidad de enterarse que hay un problema con la inducción y de que este tema ha estado en discusión por parte de los filósofos de la ciencia durante casi doscientos años, lo que bien mide la importancia que se le atribuye.

No debo ni puedo entrar en una discusión a profundidad del tema, por lo que me limitaré a dar una idea somera del asunto. Para ello voy a recurrir a un famosísimo y viejo ejemplo propuesto (por Carl Hempel en 1935) con otro objetivo, aunque no desconectado del tema. Imaginemos que deseo elaborar una teoría sobre los cuervos; empiezo por examinar tantos de estos animalitos como me es posible y pronto llego a la observación de que todos ellos son negros. Así, mi teoría contendrá el postulado todos los cuervos son negros. Aquí surge ya el problema: ¿cómo puedo saber que todos los cuervos son negros, si sólo alcanzo a observar algunos de ellos? Es claro que nunca podré examinar todos los cuervos, así que no me es posible confirmar que todos son negros, y con ello no puedo garantizar la validez de la teoría. Pero sin el postulado tampoco tengo teoría.
 
La transición de mi observación de algunos cuervos a mi afirmación sobre todos los cuervos es un ejemplo de induc­ción. Aquí es conveniente aclarar, para evitar posibles confusiones, que el término “inducción” se utiliza con dos o tres significados diferentes, uno de los cuales es problemático, precisamente el que estoy discutiendo aquí. Así pues, he llegado a mi teoría por inducción. Es claro que la inducción no es una deducción lógica; de hecho, se trata de dos procesos mentales complementarios y excluyentes. Mientras que una deducción lógica va de lo general a lo particular, sigue reglas definidas y es única a partir de las premisas (suponiendo que lo hacemos bien), la inducción va de lo particular a lo general, y no es única, precisa ni garantizada. Como debido a esto no me es posible garantizar la validez de mi teoría, se ha propuesto como alternativa determinar para ella una probabilidad de ser correcta. Simplemente, los datos que utilicé para su construcción son claramente insuficientes para darla por demostrada, pero sí bastan para hacerla más o menos plausible, es decir, más o menos probable. Así, se habla de la probabilidad de las teorías, aunque deba reconocerse que éste es un término introducido por los filósofos de la ciencia; pero no es común su empleo entre los científicos. Además, debe quedar claro, determinar la probabilidad de una teoría no sólo no es tarea simple, sino que jamás se ha logrado hacer de manera persuasiva y útil. Así que mejor dejamos este punto de lado. Debo agregar también que se han propuesto varios otros criterios para la aceptabilidad de una teoría, pero como esto se aleja mucho de nuestro tema tampoco entraremos en su discusión.

En lo que se da por llamar el método científico, la inducción juega un papel central, pues es precisamente el paso que nos conduce de lo observado a lo general. Y no hay reglas para dar este paso, ya que, hasta donde hoy sabemos, no existen pautas para la invención. Y la inducción es eso, exactamente: una invención, una creación libre de la mente, empleando los términos de Einstein. Recuerdo bien que en nuestras discusiones y pláticas sobre estos asuntos, Tomás y yo habíamos decidido que en vez de hablar de inducción debería hablarse precisa y llanamente de invención. Ante los psicólogos y demás estudiosos de la mente humana, si desea entenderse el de la inducción, está por delante la tarea de desentrañar el misterio, hoy todavía profundo, de los mecanismos y leyes —si las hay— de la invención.

Pero regresemos a nuestro problema: ¿cómo puedo garantizar la validez de mi teoría en estas condiciones? ¿Cómo puedo saber si una teoría científica es cierta o no, considerando que todas ellas se basan en inducciones? Como respuesta parcial, y sin pretensiones de resolver con ello el problema, durante mucho tiempo —desde Stuart Mill para ser específicos, es decir, desde las primeras décadas del siglo xix— se consideró que una teoría científica se con­firma si los nuevos datos predichos por ella son convalidados por el experimento. De no ser así, debe regresarse al principio e intentar modificar la hipótesis o sustituirla por una nueva, lo que no es sino hacer una nueva inducción o una nueva invención, como prefieran decirlo, hasta que el proceso converja. De hecho, seguramente esto lo han oído muchas veces figurando como parte integral del llamado “método” científico (que no lo es tanto, en cuanto que involucra algo tan ajeno a una regla como “andar haciendo” invenciones). Vemos que según este esquema una teoría se confirma por medio de su “verificación”. Pero más adelante el destacado filósofo inglés Karl Popper argumentó que las instancias positivas no son suficientes para confirmar una teoría, pero que basta una sola instancia negativa para invalidarla. De aquí se infiere que toda teoría científica debe ser “falseable”. Por ejemplo, ninguna reli­gión es falseable, lo que significa que ningu­na es científica. Y, en efecto, ellas son religiones, no ciencias, pues se construyen no por acumulación de conocimiento verificado, sino vía la fe.
 
Vemos que para mostrar la validez de una teoría se re­quie­re un número ili­mi­ta­do de experimentos (deberé obser­var todos los cuervos de todos los tiempos y todos los lugares para verificar que mi teoría es correcta), pero bastará encontrar un ­solo cuervo verde —es decir, una sola instancia negativa— para concluir que ella es falsa: un número infinito de observaciones para validar la teoría; una sola para refutarla. Pareciera que las cosas son en efecto así, pues ciertamente pese a los millones de veces que las ­leyes de la mecánica clásica se han confirmado por doquier, bastaría que una canica empezara a acelerarse por sí sola para concluir que algo está mal en la mecánica clásica. Ello nos obligaría a sustituir la mecánica de Newton por otra teoría más abarcadora. Algo como esto pasó a principios del si­glo xx, cuando se comenzaron a realizar experimentos con los átomos y se encontró que ellos no obedecen las leyes de la mecánica clásica, es decir, que esta teo­ría falla en el nivel submicroscópico. Encima de ello, la teoría de la relatividad vino a mostrarnos que cuando los cuerpos se mueven con velocidades comparables a la de la luz, tampoco se cumplen las leyes de la mecánica newtoniana. Así, se nos dice, los nuevos conocimientos condujeron a la construcción de dos nuevas mecánicas, la cuántica y la relativista, que vinieron a sustituir la vieja teoría que se había mostrado insuficiente.
 
El concepto de la sustitución de una teoría por otra que muestra ser más exacta o general —es decir, “mejor”, pues cubre un más amplio conjunto de fenómenos o casos— es usual. La nueva teoría actúa algo así como sepulturera de la anterior. Se agrega que ésta es una vía hacia el progreso, pues con este procedimiento cada día tendremos teorías más exactas y de mayor cobertura. Sin embargo, por muy extendida que esté tal noción, basta echar un vistazo a lo que en realidad pasa para observar que las cosas no son así, al menos no en todas las instancias. Regresemos al caso de la mecánica clásica; en efecto se hizo necesario construir la mecánica cuántica para disponer de una teoría del comportamiento de los átomos y las moléculas. También fue necesaria la construcción de la teoría de la relatividad para estar en condiciones de tratar los problemas que involucran muy altas velocidades, o la cosmología, o, incluso, al campo electromagnético, el cual es por esencia relativista, ya que la luz viaja a la velocidad de la luz. Sin embargo todo esto de ningún modo significa que no sigamos usando la mecánica clásica: ella conserva toda su validez y uso para los problemas cotidianos en la industria, el taller, los transportes, etcétera. Ningún ingeniero utilizaría la mecánica cuántica para construir un puente, a pesar de que está hecho de átomos y moléculas. E in­cluso cuando se calculan las complicadas órbitas de los cohetes espaciales que van a visitar los planetas de nuestro sistema solar, no se utiliza la teoría de la relatividad, sino la vieja teoría gravitacional clásica heredada de Newton. Simplemente, las tres mecánicas coexisten y operan, “cada una en su campo de competencia”.

La observación que acabamos de hacer con­tie­ne la clave para la solución del problema de la inducción. Vemos que las teorías no necesariamente se sustituyen unas a las otras, sino que cada una (de las correctas) coexiste con las demás y opera en un intervalo de aplicabilidad limitada. En esto no hay ninguna sorpresa: por principio, toda teoría científica es de aplicación limitada a un sector de la naturaleza o la sociedad. Es claro que normalmente no sabemos a priori con detalle cuáles son esas limi­taciones. Eso lo averiguamos poco a poco, conforme ponemos a prueba las teorías. Con la mecánica clásica esto sucedió cuando se pudo operar con átomos aislados, por ejemplo. Así pues, un experimento que da un resultado diferente del esperado, no necesariamente invalida la teoría ni implica que la debemos abandonar, sino determina un límite de su aplicabilidad. Todo esto es común en la práctica científica (muy particularmente en la física), pero por una razón u otra los filósofos de la ciencia lo han omitido de sus consideraciones. En con­clu­sión: una parte muy importante del trabajo científico cotidiano consiste en probar si en las condiciones del nuevo experimento la teoría aún trabaja o hemos llegado a su límite de aplicabilidad. Es decir, estriba en determinar los límites de aplicabilidad de la teoría, lo que Tomás Brody llamó el alcance de la teoría.

La noción de alcance de una teoría es fundamental, por mucho que ni la filosofía de la ciencia ni la práctica cotidiana de la propia ciencia le asignen el papel preponderante que le ­co­rres­pon­de. Cuando nace una teoría normal­men­te se tiene sólo una idea de su alcance, de hasta dónde podemos efectivamente llegar con ella. Cuando Newton creó la mecánica clásica, muy probablemente suponía que era aplicable a todos los casos, incluyendo la mecánica celeste. Luego se encontró que el alcance de esta teoría termina donde empiezan a manifestarse los efec­tos directos de la estructura atómica de la materia. A su vez, cuando se construyó la mecánica cuántica se suponía que era aplicable al estudio de átomos y moléculas, pero no mucho más allá. Para sorpresa de todos, incluyendo sus descubridores, pronto se encontró que la mecánica cuántica sí puede aplicarse a sistemas muchísimo más pe­que­ños que los átomos, como son los nú­cleos atómicos e incluso sus constituyentes, las partículas elementales y los componentes de éstas, los cuarcs (o ­quarks). El alcance de la mecánica clásica ha quedado ya bastante bien establecido, pero el de la mecánica cuántica se amplió más allá de lo previsto y todavía no conocemos hasta dónde podremos llegar con ella. Por el contrario, determinarlo es aún una tarea abierta. Vemos que en el lenguaje cotidiano el alcance de una teoría queda especificado por sus límites de aplicabilidad: se trata, pues, del descubrimiento, no del hilo negro, sino de una nueva manera de hilvanarlo.

La noción de alcance nos aclara que cuando se pone a prueba una teoría (o, más simplemente, cuando se le usa) no necesariamente estamos verificando su validez, sino que bien puede ser que estemos determinando si nos encontramos aún dentro de su alcance. Que la teoría falle no significa así necesariamente una falla de la teoría, sino de su aplicación, que cayó más allá de su límite. Por lo tanto, se trata en realidad de una contribución adicional a la determinación del alcance, proceso que puede ser muy complejo y requerir mucho trabajo. Por ejemplo, se requirieron cosa de tres siglos para determinar el alcance de la mecánica newtoniana. Y aún no conocemos el de la teoría cuántica ni tampoco el del electromagnetismo o el de otras teorías de la física.
 
Apliquemos ahora la noción de al­can­ce de una teoría al problema de la inducción. Puesto que la inducción se acepta porque funciona en muchos ­casos, su validez misma es inductiva. Tratar de justificarla nos lleva simplemente a un círculo vi­cioso del cual no tenemos sa­lida. Y si no validamos la inducción perdemos la posibilidad de validar cualquier teoría científica. Hay aquí un punto neurálgico que normalmente no se considera, pero que nos saca del embrollo: la inducción no es una generalización que habrá de cubrir necesariamente todos los casos. Por ejemplo, al momento de construir la teoría no sabemos si los cuervos de alguna isla perdida en el Pacífico son verdes o negros. O sea, no sabemos si la teoría se aplica en todo el planeta o su alcance es más limitado. Serán las futuras exploraciones las que precisarán esto y, con ello, hasta dónde llega la teoría. Que podamos construir o no una teoría de mayor dominio es otro problema. Con esto se evapora el problema de la validación de las teorías científicas: todas las teorías que son en alguna medida correctas están plenamente justificadas dentro de su respectivo alcance. Las instancias negativas lo que hacen es acotar el difuso alcance de la teoría. En consecuencia, tanto instancias positivas como negativas son propias de los resultados de las teorías: ninguna de las dos posibilidades es suficiente por sí misma para validar o negar una teoría. Las teorías viven su vida y se refuerzan con resultados positivos y negativos. Ambos son propios de toda teoría. Vemos que en un lenguaje más apropiado en vez de hipótesis o postulados como base ­para la formulación de la nueva teoría deberíamos llamarles conjeturas, siguiendo el buen ejemplo de los matemáticos. Resulta asimismo que no necesitamos recurrir a la vaga noción de probabilidad de una teoría, pues dentro de su límite de precisión y de los propósitos que persigue, toda ­teoría científica está justificada por sus instancias positivas. Mejor aún, sólo es posible determinar la probabilidad de una teoría si se conoce su alcance, y una vez conocido éste la noción de probabilidad resulta prescindible.
 
Aunque narrado en términos por demás informales, hemos visto aquí un buen ejemplo de la extensión y calidad del trabajo filosófico de Brody. Vamos a darle un uso adicional, que seguramente no dejará de serles simpático, a la noción de alcance de una teoría, para ver mejor su alcance. Por cierto, si la teoría de Tomás es correcta, entonces también el suyo deberá ser limitado. En otras palabras: ¿significa esto que existen teorías científicas de alcance ilimitado?
El ejemplo que veremos y que super­ficialmente podría parecer un tanto juguetón, ha merecido seria atención por parte de los filósofos de la ciencia por su naturaleza paradójica y su importancia. Observamos que desde el punto de vista lógico, las frases: “todos los cuervos son negros” y “todos los no-negros son no-cuervos” son estrictamente equivalentes. Regresemos al problema de la validación de mi hipotética teoría sobre los cuervos teniendo presente esta observación. Cada vez que vea yo un lápiz amarillo en mi escritorio, es decir, un no-negro que es no-cuervo, doy un paso en la confirmación del segundo aserto. Y esto sucederá cuando vea mi cuaderno blanco, mi pantalón azul, mi pizarrón verde, etcétera, pues todos estos no-negros son efectivamente no-cuervos. Con cada paso que doy, haciendo casi cualquier cosa, aumento la probabilidad de la teoría que dice que todos los no-negros son no-cuervos. Pero como esto es lógicamente equivalente a la primera afirmación, la que dice que todos los cuervos son negros, concluyo que ¡toda observación irrelevante a mi teoría incrementa la probabilidad de su certeza! ¿Cómo podemos salir de esta paradoja?

Como dije poco an­tes, para los filó­sofos ocupados de este problema la paradoja está en pie. Pero veamos ahora el asunto a la Brody. La solución emerge de manera natural cuando observamos que el conjunto de instancias que pertenecen al alcance de cada una de estas dos teorías, es decir, sus respectivos referentes, son enteramente diferentes, e incluso con frecuencia resultan ajenos uno al otro. La primera teoría tiene que ver con los cuervos; la segunda con cosas totalmente otras, los objetos no negros. Estamos frente a dos problemas de naturaleza diferente y, por lo tanto, dos teorías que, aplicadas al mundo, no son en realidad equivalentes, aunque lo sean desde el punto de vista de la lógica. Aquí también se ha disuelto la paradoja. No se olviden: no todo lo racional es lógico.

III

Pasemos ahora, aunque sea de mane­ra muy somera, a otro de los gran­des amores de Tomás, la mecánica cuántica. Esta teoría constituye en la actualidad el soporte indispensable de casi todas las ramas de la física desarrollada durante el siglo pasado. Sin mecánica cuántica no hay física atómica, molecular, del estado sólido, nuclear, de partículas elementales, etcétera. Hasta la astrofísica ha pasado a requerir de la teoría cuántica. Pese a esta riqueza enorme de aplicaciones y de su consecuente inmensa capacidad predictiva, esta teoría, uno de los orgullos de la física teórica del siglo xx, no sólo no está exenta de problemas, ­sino que abunda en ellos. Para ser objetivos debemos decir de inmediato que no todos los físicos estarían de acuerdo con lo último que acabo de decir. Hay algunos físicos, y quizá no pocos, que hasta saltarían enojados al oírme decir tal necedad y, dando un manotazo en la mesa, negarían la existencia de cualquier problema que pudiera afectar a la más fundamental de las teorías físicas modernas. Esto mismo es señal de las complicaciones del asunto: no es que la teoría falle en el sentido de que proporcione resultados erróneos. Hasta donde hemos llegado, aparentemente ella jamás ha fallado y sus predicciones, pese a ser de naturaleza estadística, resultan sorprendentemente atinadas.

El problema tiene más fondo y consiste en que la teoría nos coloca en la posición de obli­garnos a aceptar una colección de paradojas o al menos propiedades exóticas e insólitas de los sistemas cuánticos, que van directamente en contra de esa intuición que un científico desarrolla conforme más profundi­za en la comprensión de los motores de la naturaleza. Aceptemos que cuando se aprende algo nuevo e importante de la naturaleza se revela mucho de inesperado, lo que nos obliga a reajustar continuamente nuestra intuición. La intuición de un científico se moldea a lo largo de muchos años de formación; no hay nada de sorprendente en que la aparición de una teoría fundamental de lo ultramicroscópico nos lleve hacia un mundo nuevo con leyes y conductas nue­­vas. Así también sucedió con la teoría de la relatividad, la que nos ha abierto todo un mundo de posibilidades insospechadas y extrañas. Pero, y es en los peros donde con frecuencia anidan los problemas, lo que demanda de nosotros la mecánica cuántica como hoy la conocemos, es la renuncia a principios realmente fundamentales de la ciencia. Nos pide, por ejemplo, que abdiquemos de la causalidad completa y total, y con ello del determinismo. Nos pide que renunciemos al realismo, en el sentido de la preservación de la realidad permanente del corpúsculo en su movimiento. Nos pide que aceptemos que hemos alcanzado un límite para nuestro conocimiento del mundo físi­co que no es ya posible rebasar; es de­cir, que aceptemos que hemos encontrado ya la física que habrán de usar todas las futuras generaciones. Nos pide, en fin, que aceptemos que la naturaleza es no local, es decir, que una parte de un sistema puede ejercer una acción inmediata sobre otra, sin mediar entre ellas interacción alguna conocida.
 
La posición de principio de un físico es lealtad a la naturaleza. Si ella, la naturaleza, nos muestra que su manera de actuar no corresponde a lo que esperábamos, aceptamos sin protestar cambiar nuestra forma de pensar para hacerlo de acuerdo con la lección recién aprendida: aprendemos de la naturaleza sin pretender que ella respete nuestros prejuicios. A esta aparente docilidad se contrapone otra actitud relativamente frecuente, que es el conservadurismo, llamémosle defensivo, del conocimiento establecido, que conduce a la rigidez intelectual. Pareciera, pues, que la resistencia a hacer nuestra buena parte de aquello que emerge de la física cuán­tica no es sino otra manifestación de ese conservadurismo “protector”. La esencia del problema radica, sin embargo, en que cuando se trata de abandonar principios tan profundos y generales como los de localidad, realismo o causalidad, lo menos que podemos esperar es que se demuestre la necesidad incuestionable, irrefutable, de tal proceder.

Es ahí donde se encuentra la raíz del problema: no para todo mundo resul­tan convincentes los argumentos que han sido esgrimidos para aceptar la interpretación usual, común, ortodoxa o de Co­pen­hague, de la mecánica cuántica. Y en efecto, para aceptar una renuncia tan radical de los principios básicos heredados de la protofísica general, es justo demandar que la necesidad de abandonar principios fundamentales como los ya mencionados se demuestre con procedimientos estrictamente físicos e incuestionables. Y este no es el caso. Lo que realmente sucedió durante la construcción de la teoría fue que, una vez encontrado —bastante azarosamente, por cierto— el formalismo matemático requerido, se le fue vistiendo con un ropaje hecho a la medida y escogido al gusto de los sastres, es decir, de los fundadores, quienes en su mayoría resultaron ser positivistas. Este ropaje es, precisamente, la interpretación física que debía asignarse al formalismo, esto es, empleando un término más técnico, la correspondiente semántica. Como el nombre lo indica, la semántica de una teoría físi­ca es el conjunto de reglas interpretativas que asigna un significado físico preciso a cada uno de los símbolos matemáticos de la teoría que tienen sentido físico directo. Sin semántica, es decir, sin interpretación, la teoría es una estructura matemática carente de sentido físico, son matemáticas puras, ajenas a la realidad física. La tarea de construir la semántica cuántica no fue un asunto trivial; de hecho, requirió varios años y muchas discusiones e incluso generó complejas objeciones desde un principio, elevadas por varios de los propios fundadores de la teoría, como Einstein, De Broglie, en algún sentido específico el propio Schrödinger, para citar sólo figuras de primera línea.

Recurramos a un ejemplo específico para concretar un poco lo que estoy diciendo. La mecánica cuántica nos permite hacer sólo predicciones de tipo estadístico. Muchas y muy variadas situaciones nos pueden servir para ilustrar esto. Un ejemplo común es el caso de una pequeña muestra radiactiva: podemos calcular con precisión cuánto tiempo tardará en desintegrarse, digamos, la mitad de sus átomos. Pero no podemos determinar si el siguiente átomo de la muestra en decaer es éste o aquél; tampoco podemos predecir en qué dirección habrá de salir la partícula emitida. Algo similar ocurre con la posición de un electrón en su átomo: lo más que la teoría nos permite predecir es la probabilidad de que se encuentre en una u otra pequeña zona de la región del espacio ocupada por el ­átomo.

En todos los ejemplos de este tipo nos encontramos con una dicotomía: nosotros sólo podemos determinar qué tan probable sería un posible resultado u otro si hiciéramos la observación respectiva. Pero si efectivamente hacemos tal observación se obtiene en cada caso un resultado preciso. Es decir, la naturaleza sí determina el resultado; nuestra teoría, no. Si aceptamos que la descripción que nos brinda la teoría cuántica es estadística, esta observación no resulta extraña, pues de antemano sabemos que toda descripción estadística es incompleta. Análogamente, sólo podemos calcular la probabilidad de que nuestro billete salga premia­do en el próximo sorteo de la lotería; pero cuando se realice el sorteo, saldrá o no premiado, sin indeterminación alguna. Pero no es éste el punto de vista que se adopta en la interpretación usual.

Encontramos aquí al menos dos problemas severos. El primero es que en la interpretación usual de la mecánica cuántica se insiste en que ella describe casos concretos, es decir, un átomo específico y único, o un electrón dado en los ejemplos anteriores. Y ese átomo específico decae en un momento específico que no podemos determinar. Además, puesto que el electrón en que hemos fijado nuestra atención tiene una probabilidad dada de encontrarse en un cierto lugar, y otra de estar en otro, y así sucesivamente, la interpretación usual, al ver un único electrón, le asigna todos esos lugares de manera simultánea, es decir, ve al electrón como una nube distribuida en el volumen atómico: el electrón como corpúsculo desaparece y se transforma con ello en una especie de onda ampliamente distribuida en el espacio. Pero con esta solución no sólo hemos creado el problema conceptual evidente, consecuencia de la transmutación, sino otros. Por ejemplo, dado que el electrón posee masa y carga eléctrica, éstas quedan también distribuidas en todo el volumen atómico. No deja de ser extraño que la carga eléctrica del electrón, que consideramos indivisible (no hay fracciones libres de la carga eléctrica del electrón; al menos nunca las hemos observado), se distribuya de manera continua en regiones arbitrariamente extensas del espacio.

Podemos aún agregar que es común considerar que la información que proporciona la mecánica cuántica es la máxima que puede obtenerse. Si creemos que la teoría intenta describir la realidad, entendida ésta en alguna forma apropiada, resulta que o la tal realidad se nos esconde parcialmente y nos impone un límite a su conocimiento detallado; o bien, que ella, la realidad, vive en un permanente estado de indeterminación, que sólo se colapsa en una situación definida cuando hacemos una medición específica.

De lo que acabo de decir, por extraño que suene, y de muchas cosas más que no resultan menos insólitas, está colmada la mecánica cuántica. Son estas peculiaridades, que emergen de la interpretación usual del formalismo cuántico, lo que ha conducido a muchos físicos a preguntarse si no será posible construir un camino alterno, libre del mayor número posible de ellas o, mejor aún, de todas ellas. En la lista de estos físicos iconoclastas figuraba Tomás Brody. Su visión materialista y realista le hacía demandar de una teoría física fundamental, características que, como se infiere de lo que hemos dicho, no posee la mecánica cuántica en su versión oficial. Su fino espíritu crítico le condujo a estudiar con detalle varios de estos problemas y a profundizar en sus vericuetos. El volumen que estaba preparando en la época de su muerte reco­ge una buena parte de los resultados de esas preocupaciones, así como un número de la Revista Mexica­na de Física ­dedicado a los artícu­los sobre el tema que dejó inéditos. En esos volúmenes se encuentran discutidos con bastante detalle un buen número de importantes problemas interpretativos y conceptuales de la mecánica cuántica, para los cuales To­más ofrece con frecuencia puntos de vista originales muy interesantes. Todos aquellos interesados en tales temas encon­trarán en estas obras una riquísima fuente de inspiración y conocimientos.

IV

Una posibilidad de solución a fondo de los problemas conceptuales de la mecánica cuántica que mucho atrajo la atención de Tomás y que tuvimos oportunidad de discutir en varias ocasiones, es la teoría que varios investigadores de diversos países hemos venido desarrollando desde hace algún tiempo, teoría que llamamos electrodinámica estocástica y que, en nuestra versión par­ticular actual, toma una forma más evolucionada que designamos como electrodinámica estocástica lineal. Dada su relativa reciente creación (sus inicios datan de hace cosa de diez años) Tomás no conoció esta última versión de la ­teoría, pero puedo decir con plena seguridad que le hubiera agradado sobremanera. La razón de ello es muy simple: es ésta la versión de la electrodinámica estocástica que más se ha acercado a los objetivos que se persiguen con esta teoría, es decir, dar una explicación física y conceptualmente aceptable de los fenómenos cuánticos.

La idea fundamental que define a la electrodinámica estocástica fue para él tan atractiva —sumada a una serie de resultados satisfactorios que esta teoría generó desde el principio de su estu­dio— que pronto se convirtió en su mejor propagandista: cuanta oportunidad tuvo Tomás la utilizó para dar a conocer los intentos y esfuerzos que se estaban realizando por desarrollar la electrodi­námica estocástica y sus resultados. Permítanme describir de manera somera la idea básica de esta teoría, pues puede resultar interesante para algunos de ustedes, al menos para quienes tengan su corazón cercano a la física. En todo caso seré muy breve para no correr el riesgo de agobiarles.

Vamos a ver el problema desde una perspectiva intuitiva, que tiene la doble ventaja de introducirnos al principio que constituye el punto de partida de la teoría y nos sugerirá a la vez el camino a la solución de dos problemas fundamentales de la teoría cuántica: el ­origen de la estabilidad atómica, es decir, el porqué los átomos existen y no se colapsan, y el mecanismo de su cuantización, es decir, la razón por la que sólo se realizan ciertas órbitas estables que poseen energía bastante precisa.

Pensemos en un electrón atómico que imaginamos revoloteando alrededor del núcleo del átomo, más o menos (más bien menos que más, pero en fin, sirva de punto de partida) como nos lo pintan en los dibujos del átomo estilo Walt Disney. Aquí aparece de inmediato un problema, pues si una carga eléctrica, como es el electrón, se mueve en esta forma (acelerada) necesariamente radia, es decir emite ondas electromagnéticas, similares a las de radio. Es así precisamente, ustedes lo saben, como se emiten las ondas de radio y de televisión: se ponen electrones a vibrar en la antena mediante una corriente eléctrica y la antena radia. Pero radiar significa emitir energía, por lo que los electrones del átomo en cuestión están perdiendo su energía. Y tan no es poca que un calculito nos muestra que en bastante menos de un billonésimo de segundo cada electrón atómico debería perder toda su energía, conduciendo al colapso del átomo. Pero los átomos no se colapsan, sino que se mantienen estables a través de los milenios. Algo importante, pues, nos está faltando. Aunque la respuesta va a ser simple y natural, vale la pena recordar que éste fue un problema que se planteó a la física y no encontró solución de amplia aceptación durante largo tiempo, debido tal vez a los prejuicios de la época. Lo usual, lo “natural” desde la perspectiva dominante durante la etapa de construcción de la física cuántica —y de hecho desde antes y hasta bastante después— era ver un átomo como un sistema aislado del resto del mundo. Esta perspectiva es usual en la física, en la que se acostumbra considerar al sistema estudiado como algo desconectado de sus alrededores. En la separabilidad de los sistemas físicos se basa buena parte del éxito de esta ciencia, pero también es claro que debe tenerse cuidado en decidir cuál es la porción del mundo físico de interés que resulta separable. Parte importante del éxito o del fracaso del estudio depende de esta decisión. Pero visto así nuestro problema simplemente no tiene solución, al menos dentro de la física clásica, que era la única que se conocía en las primeras décadas del siglo xx.

Nuestro análisis nos proporciona, sin embargo, si estamos dispuestos a abandonar el prejuicio mencionado, la clave para salir adelante. Vimos que cada electrón atómico emite radiación; si ahora pensamos en todos los átomos del universo, percibimos de inmediato que el espacio debe de estar lleno de esta radiación, emitida desde todos sus átomos, cercanos y lejanos. Luego el áto­mo que estamos estudiando también está inmerso en ella y sus electrones responderán absorbiendo parte de la energía del campo. Esto significa que los electrones están todo el tiempo absorbiendo y emitiendo energía en forma de radiación electromagnética. Puesto que los átomos son estables deberá suceder que existen órbitas para las cuales en promedio se emite tanta energía como se absorbe. Si la teoría confirma la existencia de tales órbitas estables, tendríamos aquí identificado el mecanismo que brinda su estabilidad a los átomos.

La electrodinámica estocástica recoge esta observación y la convierte en su principio rector. Postula que en el universo existe un campo electromagnético de fondo, llamado de vacío, sumamente complejo y azaroso, en el seno del cual se encuentran inmersos todos los átomos. En consecuencia el movimiento de los electrones resulta azaroso y muy complicado. Esto tiene secuelas importantes; por ejemplo, implica que no podemos conocer con detalle el movimiento al que está sujeto en un momento dado un electrón determinado, y que sólo lo podremos describir de manera estadística. A lo largo del tratamiento matemático de este problema, que es bastante complejo, se hace necesario introducir una serie de aproximaciones para su simplificación, pero se encuentra posible prestar atención exclusivamente a los movimientos que conducen a situaciones estadísticas estables. Resulta, como es de esperar intuitivamente, que tales condiciones se dan sólo para ciertas órbitas estocásticas (azarosas), pues la gran mayoría de los posibles movimientos no conducen al equilibrio energético, lo que identifica el mecanismo de la cuantización atómica. Vemos de esta manera que, pese a la simplicidad conceptual de la teoría, ella sugiere amplias posibilidades para entender y explicar el comportamiento cuántico de la materia. En otras palabras, de la teoría se desprende que las propiedades cuánticas de la materia, contrario a lo que hoy se estima, no son intrínsecas a ella, sino adquiridas, inducidas por su contacto estrecho, íntimo, inevitable con el resto del mundo por medio del campo de fondo de vacío. Para un físico y un filósofo de la ciencia esta conclusión es sumamente interesante, pues representa un vuelco en nuestra comprensión de la estructura de la materia.

Nuestras conclusiones nos invitan a pensar que la electrodinámica estocástica contiene efectivamente el germen de la explicación física del comportamiento cuántico de la materia. Incluso la famosa dualidad onda-corpúsculo tan propia de la física cuántica, es decir, el hecho de que hay situaciones en las cua­les los corpúsculos cuánticos se com­por­tan precisamente como tales, como partículas, pero que hay otras, no infrecuentes, en las que se comportan como ondas. Esta propiedad, cuyo origen resulta un misterio para la teoría usual, adquiere aquí visos de plausibilidad, pues cada sistema cuántico contiene como elemento fundamental además de sus partículas, el campo. En aquellas circunstancias en que este último logre imponer su marca ondulatoria sobre el movimiento de aquellas, éstas reaccionarán manifestando un aparente comportamiento ondulatorio. Hasta donde la teoría ha llegado, esto queda confirmado por los cálculos.

El desiderátum de Einstein de alcanzar una descripción determinista no se realiza en la presente teoría. Sin embargo, tal y como él lo esperaba, las ecuaciones iniciales de la electrodinámica estocástica lineal, las que describen el comportamiento de un electrón único, son perfectamente deterministas. No entra en ellas ninguna noción estadística y, en principio, describen de manera detallada el destino de cada electrón. Y lo conoceríamos, si fuera dable averiguar el campo de vacío específico en que tal electrón habrá de moverse. Pero esto queda fuera de nuestro alcance; pues se trata de un campo que se da de manera azarosa, imposible de prever en cada caso y al cual no podemos tener acceso detallado. La situación no es conceptualmente muy diferente de lo que sucede con las moléculas de un volumen de gas encerrado en una botella. Puesto que son billones de billones las moléculas ahí contenidas; es claro que no podemos conocer cómo se mueve cada una de ellas en un momento dado. Así pues, para describir lo que sucede no sólo tenemos, sino debemos recurrir a métodos estadísticos, que es lo que nos proporciona la descripción termodinámica del gas en términos de un número muy reducido de características, como la presión y la temperatura, en vez del absurdo multibillonario de pretender describir cada molécula, lo que a nadie interesaría, suponiendo que se pudiera hacer. Como decíamos, en el caso del electrón sucede algo similar: la enorme, enormísima complejidad del campo de fondo y su total desconocimiento pormenorizado en cada caso, hacen simplemente imposible y a la vez indeseable intentar una descripción detallada de su accidentado movimiento. Lo razonable y deseable a la vez es precisamente recurrir a una descripción estadística.

Es así como la electrodinámica estocástica da un contenido fundamental y claro al hecho de que la descripción cuántica sea meramente estadística. Vemos que se trata de la existencia de fluctuaciones que son enteramente causales, pese a que su descripción deba hacerse en términos probabilistas y que resulta imposible evitar el carácter estadístico, y por lo tanto, incompleto de la descripción. En otras palabras y como conclusión, la mecánica cuántica usual debe interpretarse siempre en términos de conjuntos estadísticos y no en términos de un único sistema, como usualmente se pretende.

Espero que esta pequeña narración pueda servir como una invitación para que algunos de ustedes, o muchos, o todos, se animen a conocer de cerca la obra de Brody. Pueden estar seguros de que siempre la encontrarán interesante y muy original, como es la propia de un pensador creativo.
Nota
Este texto fue leído con motivo de la Inauguración de la Cátedra Tomas Brody del Centro Universitario de Lagos, Lagos de Moreno, Jalisco, mayo de 2006.

Referencias bibliográficas

Brody, T. A. y M. Moshinsky. 1964. Tables of Transformation Brackets. Gordon and Breach, Nueva York.
Brody, T. A. 1993. The Philosophy Behin d Physics, L. de la Peña y P. Hodgson (eds.). Springer-Verlag, Berlín.
De la Peña, L. y A. M. Cetto. 1996. The Quantum Dice. An Introduction to Stochastic Electrodynamics, Kluwer Academic Publishers, Dordrecht.
T. A. Brody, Inedited papers-Artículos inéditos, A. M. Cetto y L. de la Peña (comps.). 1989, en Revista Mexicana de Física, 35, suplemento, diciembre.
_______________________________________________________________
Luis de la Peña
Instituto de Física, Universidad Nacional Autónoma de México.
 
Es ingeniero en electrónica y doctor en ciencias físico-matemáticas. Investigador emérito de la unam y del SNI. Labora en el Instituto de Física y en la Facultad de Ciencias. Su área de investigación es la física teórica, fundamentos de la teoría cuántica y procesos estocásticos. Autor de diez libros, un centenar de artículos de investigación y ochenta ensayos de política científica y divulgación.
 
como citar este artículoDe la Peña, Luis. (2008). De las virtudes de la iconoclasia: una mirada a la obra de Tomás Brody. Ciencias 89, enero-marzo, 16-28. [En línea]
  ←Regresar al índice artículo siguiente→
1 2
     
Margaret Sanger. Luces y sombras del movimiento a favor del control natal
Margaret Sanger (1879-1966) organizó en Estados Unidos un movimiento a favor de legislar el uso de algún método anticonceptivo que permitiera a las mujeres planear su reproducción. Promovió el establecimiento de clínicas especializadas para atender a las mujeres de manera segura cuando decidieran detener su reproducción. Concebía que la información y la salud reproductiva eran fundamentales para los derechos de las mujeres. Acuñó el término control natal.
Alicia Villela González y
Ana Barahona Echeverría
 
     
HTML ↓ PDF ←Regresar al indicearticulo siguiente→
     
     
Durante las primeras tres décadas del siglo xx, en Estados Unidos se produjo un cambio importante en la manera como las mujeres abordaron la mayoría de los temas relacionados con la reproducción. Dado que se sabía muy poco sobre el funcionamiento de los órganos sexuales, la información que circulaba estaba restringida a sectores académicos, es decir, médicos, enfermeras y profesionales de la salud. En ese entonces, por ejemplo, el único método para controlar la natalidad que era apoyado por el clero y una gran parte de la sociedad estadounidense aconsejaba a las mujeres la abstinencia sexual con su pareja mediante camas separadas.
 
Un grupo importante de mujeres liberales comenzó el movimiento para exigir el derecho y el acceso a una mayor cantidad de información y educación acerca de su sexualidad y la reproducción.
 
Una de ellas, Margaret Sanger, inició el movimiento en favor del control de la natalidad. Su idea era promover y difundir entre las mujeres métodos confiables e influir en la aprobación y desarrollo de una legislación a favor del aborto. Buscaba además la apertura de clínicas y hospitales con personal médico entrenado en procedimientos que promovieran la prevención de embarazos no deseados, evitando cualquier tipo de riesgos para la salud de las mujeres.
 
Margaret Sanger, nacida en 1879, fue líder de este movimiento que se desarrolló de 1910 a 1945; acuñó el término de control natal (birth control) y organizó a una gran cantidad de mujeres de diversos sectores sociales que demandó al gobierno su derecho a la información en temas de salud reproductiva.

Margaret y su esposo, William Sanger, fueron miembros activos de un grupo de radicales bohemios durante el periodo que antecedió a la Primera Guerra Mundial. El grupo se reunía cotidianamente con intelectuales en Nueva York, en Greenwich Village, con el fin de promover diversas actividades bajo lineamientos socialistas. Algunos de los miembros que participaban en estas tertulias cotidianas eran: Max Eastman, John Reed y Upton Sinclair, así como la activista socialista Emma Goldman. Entre otras acciones apoyadas por estos luchadores sociales e intelectuales se encontraba el derecho a la huelga. Tal es el caso de las huelgas realizadas en 1912 en Lawrence, Massachussets, por trabajadores industriales, y la de Paterson, Nueva Jersey, en 1913.
 
Un sector importante de ellos era el de las mujeres intelectuales, quienes buscaron sobre todo promover la creación de un comité femenino al interior del partido socialista, que obtuviera mejoras en las condiciones de vida de las mujeres, principalmente en lo tocante a la salud reproductiva, sexualidad y aspectos de equidad en el ambiente familiar.

Hasta ese momento, la abstinencia sexual era la práctica más utilizada entre las mujeres educadas para evitar la concepción. La gran mayoría de médicos y moralistas difundía y aconsejaba esta medida por considerar que no atentaba contra la condición natural de la mujer.
A principios de los años veinte existía una enorme confusión entre los especialistas sobre el momento en que ocurría la ovulación humana, por lo que sólo muy pocas mujeres, con un nivel educativo alto, tenían alguna idea de la existencia de un periodo fértil en su ciclo reproductivo y podían utilizar la abstinencia sexual como medida preventiva, aunque de ninguna manera segura, como documentó Margaret Sanger en 1920. La mayoría de los médicos en Estados Unidos se resistía a proporcionar algún tipo de información sobre temas relacionados con la concepción, por considerarla innecesaria o inmoral, y denunciaban, como si se tratara de un delito, cualquier tipo de conocimientos acerca del control de la natalidad. Los especialistas difundían con frecuencia una gran cantidad de creencias erróneas sobre la salud y la fisiología. Por ejemplo, se pensaba que el control natal ocasionaba graves consecuencias para la salud física y moral de la mujer. En 1880 la doctora Eliza Barton advertía de los graves riesgos producidos en la cavidad uterina como consecuencia del control natal, ya que podían producir esterilidad en las mujeres. Otros médicos confundían los términos de control natal con aborto, por lo que fácilmente esgrimían argumentos bíblicos para legitimar su opinión. Las mujeres de quienes se sospechaba que utilizaban un método de control de la natalidad, frecuentemente eran señaladas como “prostitutas legítimas”. Se ha señalado que muy pocos médicos de principios del siglo xx en Estados Unidos sugirieron en forma privada a sus pacientes algún método de control.

La propuesta de Margaret Sanger

La controversia sobre el control de la natalidad emerge de manera contundente entre 1914 y 1916. En marzo de 1914, Margaret Sanger inicia la publicación de un volante radical feminista, Mujeres rebeldes (The Women Rebel ), el cual tendría una edición mensual. El impreso buscaba difundir la idea del derecho de las mujeres a decidir cuándo y cuántos hijos tener; incluía además una sección de respuestas a cartas que algunas lectoras dirigían a la editora preguntando sobre temas relacionados con el cuidado reproductivo y para conocer las propuestas y actos públicos que el movimiento organizaba.

Margaret Sanger había estudiado enfermería, quizá motivada por la muerte temprana de su madre a los cincuenta, víctima de tuberculosis, con once hijos y siete abortos espontáneos. Sanger era asistenta médica y su labor consistía en dar apoyo a los médicos que trabajaban en las zonas marginadas de inmigrantes del este de Nueva York. En esas visitas, Sanger notó el vínculo entre la pobreza y la gran cantidad de hijos de las familias. La mayoría de las parejas frecuentemente entraba en contradicción, dado que no deseaban tener más hijos pero desconocían algún método eficaz para evitar o parar la concepción. En muchos casos, las mujeres recurrían a la práctica de abortos clandestinos que realizaba gente inexperta y en condiciones insalubres. Muchas de estas mujeres morían inevitablemente. Era común que en estos vecindarios las mujeres pidieran a los médicos algún consejo o tratamiento que evitara los embarazos, pero éstos evadían los temas y ni siquiera se interesaban en proporcionar información sobre cualquier cuidado.

Los principios de Mujeres rebeldes se incluyeron inmediatamente dentro de la agenda de demandas centrales que los grupos de mujeres socialistas promovieron por considerar que se trataba de derechos fundamentales mínimos que aseguraban libertad e independencia a la clase trabajadora femenina. Una de las primeras tareas que las feministas se propusieron fue el rechazo total de la Ley Federal de Comstock, promulgada en 1873. Esta ley, que se interpretaba de manera diferente en cada estado, prohibía cualquier folleto o propaganda distribuida a través del correo que hiciera una mención es­pecial a cualquier tipo de método anticonceptivo, por considerarlo material obsceno para la comunidad. Con tales restricciones legales puede entenderse el valor que tuvo para el movimiento la publicación de Mujeres rebeldes.

Debido a que el movimiento a favor del control natal tuvo enorme difusión e impacto en mujeres de diversos sectores sociales, la Iglesia, los médicos, los moralistas y el gobierno criticaron acremente a estas militantes, sobre todo al movimiento feminista. Theodore Roosevelt, por ejemplo, lo señala en 1915 como amoral y decadente. Le preocupaba que el proyecto pudiera alentar la disminución significativa de los nacimientos, lo que se conoció como “suicidio de la raza”, nombre con el que se calificaba al descenso de la tasa de natalidad de los sectores anglosajones.

Margaret Sanger y Ethel Byrne en la Corte

Margaret Sanger fue arrestada en 1914 por violaciones a la ley de Comstock, aunque fue liberada pocos días después gracias a la presión de centenares de trabajadores de diversos movimientos. Sin embargo, no pudo librarse de la acusación en su contra y, para evitar cumplir los veinticinco años de prisión que le impusieron durante su juicio, decidió viajar a Inglaterra y permaneció ahí durante un año, cuando se enteró de la muerte de Comstock.

Uno de los logros más importantes obtenidos por las feministas, que en su gran mayoría perteneció al partido socialista, fue la apertura, el 16 de octubre de 1916, de la primera clínica para el control de la natalidad bajo los lineamientos impulsados por Margaret Sanger. La clínica se localizaba en una sección de Brownsville, en Brooklyn, en el número 46 de la calle de Amboy, donde Margaret y su hermana Ethel prestaban sus servicios como enfermeras.

Con esta primera clínica se buscó la obtención de la legalidad para el uso de métodos que permitieran el control natal y el desarrollo de clínicas en todo el país donde se practicara el aborto en forma segura.

En 1915 el movimiento publicó otro folleto denominado Limitación familiar (Family limitation), con mucha información acerca del control natal y el alcance del proyecto sangerista en el país. A lo largo de publicaciones subsecuentes, el folleto de Limitación familiar, abordó el tema de la satisfacción y placer mutuos durante las relaciones sexuales.

En 1917 fue aprobado en el código penal de Estados Unidos, sección 1142, un pequeño pero significativo avance para el movimiento, un apartado en donde se permitía hablar de métodos contraceptivos. No es sino hasta 1921 cuando se aprueba de manera oficial en el Congreso que los médicos puedan prescribir a sus pacientes e informar sobre temas relacionados con la contracepción. A partir de este momento, las sangeristas buscaron aliados en otros países como Inglaterra, por lo que formaron una organización internacional denominada Federación Internacional de Paternidad Planificada (Internacional Planned Parenthood Federation), que buscaba impulsar trabajos de investigación en la creación de métodos de control seguros, baratos, sencillos y al alcance de todas las mujeres (antecedentes de la píldora anticonceptiva).

La cercanía con el proyecto de eugenesia

Margaret Sanger pensaba que la disminución del deterioro humano por ­medio del control de la natalidad redundaría no sólo en beneficio de la condición social de las mujeres, sino también, a largo plazo, en un incremento en la tasa de natalidad de la población de origen anglosajón.

La gran mayoría de los estadounidenses creían, a fines del siglo XIX, ser los descendientes directos de las poblaciones de inmigrantes ingleses con quienes suponían compartir no sólo el idioma sino otras “cualidades”, rasgos distintivos y culturales. Estas ideas permitieron que un sector de la población creyera formar parte de un grupo privilegiado en el que convergía “lo mejor” de una denominada raza “americana”.

Un sector de eugenésicos, los pertenecientes a la corriente de eugenesia positiva, se sumaron al argumento central de Margaret Sanger, por suponer que organizaría y promovería la reproducción entre individuos portadores de cualidades heredables.

El movimiento para la esterilización obligatoria con fines eugenésicos tuvo su auge en Estados Unidos en la década de los años veinte. Varios factores contribuyeron a la esterilización de grandes sectores de inmigrantes: en primer lugar, el mejoramiento en la técnica quirúrgica para llevar a cabo la esterilización; en segundo lugar, la idea del perfeccionamiento de la humanidad y, finalmente, el ahorro en los gastos de manutención de las poblaciones no consideradas como herederas de los anglosajones fundadores, que se consideraban muy elevados.

La esterilización se impuso en los sectores considerados como dementes, imbéciles, idiotas o subnormales. Desde luego, se incluyó sin ningún problema a los criminales, violadores y convictos agresivos.

La cercanía con el proyecto de eugenesia desalentó quizás a sectores importantes de feministas de izquierda que, sin embargo, mantuvieron la idea de apoyar la creación de una píldora que facilitara la anticoncepción. Gracias a ello, tuvo éxito el proyecto de Sanger para la apertura de clínicas para las mujeres decididas a luchar por su derecho a decidir cuándo y cuántos descendientes procrear. En 1936 se aprobó en una corte del tribunal superior de Estados Unidos una modificación de la ley de Comstock, que sustraía la palabra anticonceptivo de la lista considerada como material obsceno, estipulándose que se permitiría el libre acceso de información relacionada con estos temas a través del correo.

Para 1938, iniciaron sus servicios 374 clínicas de control natal en todo el país. En ellas, no sólo se ofrecía información sobre los diferentes métodos para prevenir embarazos, sino la realización de abortos por médicos competentes, con el fin de evitar cualquier riesgo que pudiera atentar contra la vida de las mujeres.

Reed y McCann intentaron explicar el porqué de la adhesión de Sanger al proyecto de eugenesia. Los autores sostienen que Sanger buscaba darle un sustento científico al movimiento. En efecto, si bien Sanger se había alejado de las ideas que sostenía una corriente importante de líderes eugenésicos en Estados Unidos respecto del peligro que, mediante el control natal, se provocara el deterioro de los individuos que portaban algún carácter benéfico, se adhirió a las explicaciones sugeridas por un líder del movimiento de eugenesia en Inglaterra, Havelock Ellis, quien aseguraba que el deterioro racial era consecuencia de la opresión victoriana y del orden sexual: “las mejores características no eran quizá aquellas de las clases altas sino aquellas distribuidas en todas las razas”. De todos modos, Sanger, continuó siendo miembro del movimiento de eugenesia en su país, convencida de que una consigna central del proyecto eugenésico era la de impulsar proyectos para el mejoramiento de la raza: “El control de la natalidad […] es nada más ni nada menos que una ayuda para aligerar en algo el problema de los menos aptos y evitar su descendencia […] Si hemos de hacer progresos raciales, este avance para la mujer debe preceder a la maternidad de cada una de ellas. Entonces, y sólo entonces, puede que la madre deje de ser una incubadora y se convierta en una madre de hecho. Entonces sólo ella podría transmitir a sus hijos e hijas las cualidades que hacen fuertes a los individuos y, de manera colectiva, una mejor raza”.

Las campañas de esterilización por eugenesia en Estados Unidos señalaban los posibles riesgos si se frenaba la segregación racial; a toda costa se debía impedir la reproducción de sectores inadecuados biológicamente o defectuosos. La lista de candidatos era interminable y no había una clara distinción entre unos y otros más que la discriminación. Entre los sectores candi­datos para la esterilización justificada estaban los sordos, huérfanos, personas sin hogar, vagabundos, ­negros e inmigrantes y, por supuesto, criminales, pervertidos, etcétera.

Para Sanger, esta situación tan compleja de la sociedad estadounidense demostraba la necesidad de desarrollar un sistema o método práctico de control natal.

En busca de una píldora anticonceptiva

La idea de contar con una píldora anticonceptiva resultaba atractiva para muchos sectores interesados: médicos, biólogos y mujeres. En 1921 un fisiólogo australiano, Ludwig Haberlandt había señalado la posibilidad de desarrollar una píldora anticonceptiva por vía oral a través del uso de hormonas que interfirieran con los procesos reproductivos. Una de las contribuciones más atinadas de principios del siglo xx fue sin duda la expuesta por el científico estadounidense George W. Corner, quien propuso que el sangrado menstrual era consecuencia de los estrógenos producidos en los ovarios, que detenían su efecto en la segunda mitad del ciclo menstrual debido a la progesterona secretada por el cuerpo lúteo. A partir de este proceso se llegó a la conclusión de que la ovulación se presentaba a la mitad del ciclo menstrual y no con la menstruación, como antes se pensaba.

Conclusiones

La lectura de los volantes, periódicos y libros de Margaret Sanger muestra una conexión poco conocida entre la lucha en favor del control de la natalidad con las ideas de eugenesia desarrolladas en Estados Unidos en los albores del si­glo xx. El análisis histórico de este movimiento evidencia, además, una respuesta organizada y contundente que un sector de mujeres en Estados Unidos protagonizó en la búsqueda de espacios y medidas equitativas en la sociedad, que poco después se empató con los avances de la ciencia y la medicina.

Aún hoy en día, una de las principales causas de muerte y discapacidad femeninas ha sido sin duda la problemática relacionada con la salud reproductiva. Cuando las mujeres no logran determinar el número y espaciamiento de sus hijos ni el momento de tenerlos, se frena la oportunidad para que realicen otras actividades productivas, integrarse a la fuerza laboral y tener un empleo estable con alguna remuneración.

En la medida en que estas cargas emanadas de la discriminación disminuyen o se eliminan, las mujeres aumentan y potencian sus capacidades, lo que redunda en el bienestar de hijos y familias, con un efecto multiplicador que contribuye, incluso, al desarrollo nacional de su país. Estas fueron algunas de las premisas abordadas por Margaret Sanger al promover la idea y desarrollo de un método en favor del control de la natalidad y el uso de una píldora anticonceptiva.
Referencias bibliográficas

Gordon, Linda. 1977. Woman’s Body, Woman’s ­Right: A Social History of Birth Control in America, Nue­va York.
Reed, James. 1978. From Private Vice to Public Virtue: The Birth Control Movement and American Society, Nueva York.
Sanger, Margaret. 1931. My Fight for Birth Control, Nueva York.
Alicia Villela González
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
Es bióloga y labora en la Facultad de Ciencias, unam. Sus áreas de trabajo son la historia de la biología, la eugenesia y el desarrollo de tecnologías reproductivas.
Ana Barahona Echeverría
 
Ana Barahona Echeverría
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
Es bióloga y profesora de tiempo completo en la Facultad de Ciencias, unam. Sus áreas de trabajo son la historia y la filosofía de la biología, la genética y la evolución. Recientemente ha sido nombrada presidenta de la Sociedad Internacional de Historia, Filosofía y de los Estudios Sociales de la Biología (ishpssb).
_______________________________________________________________
como citar este artículo
Villela, Alicia y Barahona Echeverría, Ana. (2008). Margaret Sanger. Luces y sombras del movimiento a favor del control natal. Ciencias 89, enero-marzo, 46-53. [En línea]
flechavolver89   ←Regresar al indice articulo siguiente→
1 2
     
El laboratorio más limpio: la computación atomística y las ciencias naturales
El nacimiento de la computación atomística y sus aplicaciones son el tema de este artículo. Se presenta aquí un breve recuento de la evolución de esta disciplina a partir del cómputo científico y se establece un punto de contacto entre estas técnicas y la contraparte del mundo real, la difracción de rayos X. El grafito y el plegamiento de proteínas nos permiten atisbar en el ámbito de aplicación de estas potentes técnicas.
Luis Guillermo Cota, Pablo de la Mora y Luis Rosales
conoce más del autor
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
Hace ya más de un siglo que los estudiosos dieron por primera vez con la forma de escudriñar las entrañas de la materia para arrancarle uno de sus secretos más bien guardados: su distribución atómica (el concepto de átomo, sin embargo, distaba mucho de ser nuevo, pues nació como tal en tiempo de los filósofos griegos). La técnica a la que nos referimos es la difracción de rayos X, que es más o menos una “radiografía” de la distribución atómica de un compuesto, y es pariente cercana de la radiografía ósea, que es a su vez una fotografía de la distribución de los huesos. La difracción de rayos X ha prestado un servicio invaluable en los laboratorios de investigación de todo el mundo. Sin embargo, como acontece frecuentemente con la investigación experimental, para allegarse los beneficios de esta técnica hay que lidiar con grandes aparatos, sustancias peligrosas, radiación electromagnética y, por si fuera poco, altos costos.
 
Por otro lado, el vertiginoso avance de la ciencia y la téc­ni­ca durante el último siglo dio a la humanidad grandes in­ven­tos, entre ellos los prodigiosos aparatos de cálculo electrónico, mejor conocidos en México como computadoras. Prácticamente, desde que las computadoras sólo existían en los laboratorios gubernamentales de unos cuantos países, y eran unos monstruos electromecánicos con una ridícula capacidad de cómputo —comparada con lo que se ve en nuestros días—, éstas se usaron para resolver problemas de corte científico, a la par de sus usos estadísticos y bélicos. Nació pues, desde entonces, el cómputo científico. Sólo era cuestión de tiempo para que a alguien se le ocurriera usar esta nueva herramienta para tratar de resolver problemas relacionados con la estructura de la materia usando el enfoque atomístico, nuestro tema. El enfoque atomístico implica el contemplar la materia y sus propiedades desde el punto de vista de la distribución espacial de sus átomos.
 
Quizá no sea del todo ocioso agregar que el uso del cómputo para hacer cálculos atomísticos no implica que los átomos del experimento estén danzando en el interior de la computadora, tal y como ocurre cuando jugamos en ella y no hay naves espaciales volando o explosiones sucediendo en su interior. En realidad, sólo se usan representaciones formales —fórmulas— de los átomos y de las fuerzas que actúan entre ellos. En otras palabras, se usan modelos computacionales para representar con simplicidad tal o cual comportamiento del mundo físico. Por ejemplo, en el pizarrón el modelo de un átomo podría ser simplemente una partícula esférica con una cierta masa. El enlace químico con otro átomo situado a una dis­tan­cia x de aquél podría representarse simplemente como un resorte que ejerce una fuerza, F(x), entre nuestra partícula y otra partícula esférica igual. En la computadora, por otro lado, este enlace químico se representaría simplemente como la interacción de las cantidades x, F(x) y d, la distancia óptima del enlace, por ejemplo, mediante la fórmula:

F(x) = k (x – d)


Por otro lado, usar modelos y simulaciones del mundo físico implica cierto nivel de representación abstracta, es decir, de teoría, lo cual nos lleva a formularnos la siguiente pregunta: ¿es esta técnica teoría o experimento? La mejor respuesta la tendrá seguramente un filósofo de la ciencia; para nuestros fines, sin embargo, lo que importa es que el cómputo atomístico nos permite salvar el pleito que parece existir desde siempre entre científicos teóricos y científicos experimentales, pues el cómputo atomístico tiene elementos que complacen a ambos bandos. Llamemos entonces a estos cálculos “experimentos computacionales atomísticos” y digamos, con el afán de simplificar, que son más fáciles de comprender que la teoría pura y que son más limpios y económicos que los experimentos reales.

Sin embargo, los físicos, los biólogos y los químicos atomísticos fundamentan su trabajo en las formulaciones de la termodinámica, de la mecánica clásica, de la mecánica estadística y de la mecánica cuántica, entre otras ramas “duras” de la ciencia. (De la mecánica clásica viene, por cierto, nuestro modelo del enlace químico visto como dos masas unidas por un resorte). Con esto pretendemos enfatizar que el trabajo de los científicos atomísticos no es simplemente teoría light, sino experimentos teóricos bien provistos de sustento formal, con un enfoque peculiar y con muchas ventajas, como enseguida veremos. Las limitaciones de espacio impiden abordar el tema mediante un planteamiento general, por lo cual nos restringiremos a exponer aquí un par de ejemplos que le den al lector una pequeña muestra de las posibilidades de los experimentos computacionales atomísticos.

Duro y suave, el grafito y los cálculos de estructura electrónica

El grafito, una forma de carbono puro, es una sustancia muy versátil: se utiliza en lápices, sirve como lubricante de piezas metálicas, es el material de los electrodos (los llamados “carbones”) de muchos motores eléctricos y, entre otras muchas cosas, se utiliza incluso para hacer raquetas de tenis ultrarresistentes y livianas. ¿Qué se puede aprender de las propiedades del grafito estudiando este material a partir de la configuración de sus átomos? Se puede explicar, a nivel muy detallado, por ejemplo, el porqué de su comportamiento mecánico y eléctrico. A nivel atómico, el grafito posee orden cristalino, lo cual significa que está construido por átomos de carbono que se repiten ordenadamente formando capas hexagonales, a manera de panal de abeja, las cuales, a su vez, se apilan ordenadamente unas sobre otras. Esta regularidad simplifica enormemente el cálculo, pues, usando la analogía del panal, sólo es necesario calcular las propiedades de una celda hexagonal, en lugar de las de todo el panal, que no son más que repeticiones de la celda.
 
Una explicación de por qué los lápices escriben resulta evidente a partir de los cálculos de estructura electrónica, al calcu­lar las fuerzas entre los átomos de una celda de grafito a medida que sus capas se deslizan una sobre otra. Los cálculos muestran que se requieren fuerzas muy pequeñas para deslizar las capas entre sí, lo que corresponde físicamente a que el lápiz, al deslizarlo suavemente, deja, escritas, capas de grafito sobre el papel. Por el contrario, si intentamos modificar la distancia entre los átomos de carbono que forman cada plano —el enlace carbono-carbono—, es decir, si intentamos estirar o comprimir la celda de grafito a lo largo y ancho de los planos hexagonales, será necesario aplicar una gran fuerza, lo cual explica, precisamente, la sorprendente resistencia y flexibilidad del grafito como elemento estructural de las raquetas de tenis. Los cálculos de estructura electrónica muestran, por otro lado, que el grafito conduce la electricidad fundamentalmente a lo largo de sus capas hexagonales, pero no entre las diferentes capas. Los cálculos pueden explicar, además, por qué el grafito es un conductor eléctrico más bien pobre.

Si bien en rigor los cálculos de estructura electrónica no se consideran cálculos atomísticos, nos hemos permitido, con cierta irreverencia, considerarlos aquí como tales en un afán simplificador. La razón es que en un material las propiedades electrónicas son, en última instancia, también atomísticas; la diferencia fundamental estriba en que los cálculos electrónicos abordan las propiedades materiales básicamente desde el punto de vista de la distribución espacial de sus electrones (o propiamente dicho, de su densidad electrónica).

La proteínas y su plegamiento

Al igual que en el caso de los materiales inorgánicos, como el grafito, el uso de modelos computacionales para el estudio de moléculas de importancia biológica constituye en nuestros días una parte fundamental de la comprensión cabal de los datos experimentales. A la vez, estos modelos son un poderoso aliado en la predicción de muchas propiedades estructurales y dinámicas de las moléculas biológicas, como se puede apreciar en el caso de las proteínas.

En los seres vivos sucede incesantemente una gran cantidad de reacciones químicas, todas las cuales son realizadas y reguladas por una infinidad de moléculas especializadas llamadas proteínas. En términos generales, las proteínas son cadenas compuestas por veinte distintos tipos de unidades básicas, llamadas aminoácidos. Cada proteína cuenta con una composición y longitud particular, y un arreglo espacial único de estas cadenas. Son proteínas el material de músculos y huesos, son proteínas los anticuerpos que combaten las enfermedades y son proteínas las enzimas que median en los procesos de respiración en los seres vivos, por ejemplo.
Actualmente sabemos que las estructuras de proteínas determinadas experimentalmente (mediante difracción de rayos X, como vimos antes), representan sólo el arreglo espacial promedio de una población de moléculas, debido a que éstas poseen una gran capacidad de movimiento —es decir, una gran plasticidad estructural. En este sentido, las estructuras determinadas experimentalmente constituyen simplemente “instantes” en la serie de tiempo (la “película”) que representa el movimiento normal de una proteína. Entender completamente el comportamiento de una proteína a partir exclusivamente de estructuras experimentales sería equivalente a tratar de entender la trama de una película ¡a partir de su cartel promocional!

Las simulaciones computacionales que utilizan el método conocido como dinámica molecular proponen una solución matemática a las ecuaciones de movimiento de Newton, utilizando una serie de parámetros determinados experimentalmente, conocidos como “potenciales” o “campos de fuerza” (traducción del término usual forcefields, en inglés). A partir de la estructura de una molécula, determinada experimentalmente, estas simulaciones permiten predecir su dinámica estructural —el cambio en el arreglo espacial de los átomos en función del tiempo; en otras palabras, una trayectoria—, así como los cambios de energía asociados a estos movimientos.

Las simulaciones de dinámica molecular de las proteínas arrojan información detallada acerca de su movimiento natural, es decir, de los mecanismos por medio de los cuales éstas obtienen su estructura única (fenómeno conocido como plegamiento), así como de las particularidades estructurales que explican su funcionamiento (el reconocimiento molecular y la catálisis). Es relevante mencionar que una gran parte de estos cambios ocurre en tiempos demasiado cortos para ser observada experimentalmente. Por ejemplo, el proceso de plegamiento de una proteína sólo toma unas cuantas decenas de microsegundos (un microsegundo es un millonésimo, 1/1 000 000, de segundo). Sin embargo, en términos computacionales éste es un intervalo de tiempo extremadamente largo para una simulación: para una computadora de escritorio de las actuales, tomaría más o menos un día simular el comportamiento de una proteína durante un nanosegundo (1/1 000 000 000 de segundo). Por lo tanto, simular el plegamiento de una proteína tomaría por lo menos diez mil veces este tiempo, o sea, ¡casi 28 años de cálculo ininterrumpido! Afortunadamente existen maneras ingeniosas de resolver este problema; una de ellas es el uso del llamado cómputo distribuido. Este original enfoque consiste en dividir el problema en partes más pequeñas, realizar los cálculos correspondientes a cada pequeña parte en un gran número de computadoras y finalmente combinar los resultados que arroja cada una de las máquinas.

Desde hace algunos años existen proyectos de cómputo distribuido que han sido diseñados para aprovechar el tiempo ocioso de las computadoras que cientos de miles de usuarios de internet, todos ellos voluntarios, donan. De esta manera, los voluntarios participan con sus recursos en la búsqueda de soluciones a problemas tales como el plegamiento de las proteínas y, con esto, en la búsqueda de fármacos más efectivos contra el cáncer y contra el mal de Parkinson (enfermedades relacionadas con un mal plegamiento de las proteínas), por hablar sólo de un par. Baste mencionar, como ejemplo, el proyecto de cómputo distribuido aplicado al plegamiento de proteínas conocido como Folding@Home (se lee como folding at home y se traduce más o menos como “plegamiento en casa”). Este proyecto cuenta ya con más de 270 000 computadoras activas, pertenecientes a más de 140 000 voluntarios alrededor del mundo, y su capacidad de cómputo actual sobrepasa ¡200 trillones de operaciones por segundo! (A manera de referencia diremos que las supercomputadoras más potentes del mundo sólo pueden realizar cerca de un trillón de operaciones cada segundo). El ejemplo de las proteínas permite hacer énfasis en el hecho de que las ciencias biológicas no se pueden permitir prescindir del auxilio que prestan los cálculos atomísticos. De hecho, éstos son la herramienta más moderna disponible para el diseño de nuevos fármacos, y existe hoy en día una gran demanda laboral a nivel mundial de profesionales en esta área, proveniente principalmente de los grandes laboratorios farmacéuticos.

Conclusión

La simplicidad estructural del grafito y las sutiles complejidades de las moléculas biológicas nos han servido para ilustrar cómo las computadoras sirven para hacer experimentos teóricos que implican observación y control a un nivel al que no tienen acceso ni la teoría ni el experimento real. Queremos terminar diciendo que habremos cumplido con nuestro propósito si algún lector logra interesarse por este apasionante tema. Para buena fortuna, es posible convertir práctica­men­te cualquier computadora personal en un pequeño laboratorio atomístico, sin sacrificar necesariamente sus usos habituales.

Se invita al lector que tenga cu­rio­si­dad o interés a visitar la pá­gina web del proyecto Folding@home y con el tiempo colaborar en él o en otros similares.
 
Referencias en la red

“Los experimentos computacionales atomísticos”, de la versión electrónica de Ciencia y Desarrollo, de los mismos autores, a través de la siguiente liga: http://www.conacyt.mx/comunicacion/revista/ArticulosCompletos/pdf/Atomistico.pdf
_______________________________________________________________
Luis Guillermo Cota Preciado
Universidad de Guadalajara.

Se graduó de ingeniería química en la Universidad de Guadalajara, es candidato a doctor en ciencias químicas por la unam. Ha realizado investigación en los campos de los cristales líquidos y de la ciencia de materiales con métodos computacionales. Es docente en la Facultad de Ciencias, UNAM.
 
Pablo de la Mora y Palomar Ashkinasy
Facultad de Ciencias, Universidad Nacional Autónoma de México.

Estudió licenciatura y maestría en física en la Facultad de Ciencias, unam, de donde es profesor. Se doctoró en física en la Universidad de Oxford, Inglaterra. Su tema principal es el cálculo de estructura electrónica de materiales cristalinos.
 
Luis Rosales León
Instituto de Investigaciones Biomédicas, Universidad Nacional Autónoma de México.

Estudió biología en la Facultad de Ciencias de la unam y es doctor en ciencias biomédicas. Se ha centrado en el análisis computacional de proteínas. Se desempeña como técnico académico en la Dirección General de Servicios de Cómputo Académico, UNAM.
_______________________________________________________________
como citar este artículo
Cota, Luis Guillermo, Pablo de la Mora Pablo y  Luis Rosales León. (2008). El laboratorio más limpio: la computación atomística y las ciencias naturales. Ciencias 89, enero-marzo, 34-40. [En línea]
  ←Regresar al índice artículo siguiente→
1 2
     
Génesis de la Sociedad Química Mexicana
Se describe el proceso de gestación de la Sociedad Química Mexicana durante el periodo de 1926 a 1934. El estudio también intenta analizar su publicación, Revista Química, inmerso en un contexto educativo de la Escuela Nacional de Ciencias Químicas de la Universidad Nacional.
Felipe León Olivares
conoce más del autor
 
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
La génesis de las asociaciones profesionales de los químicos es un proceso que está ligado indisolublemente a las instituciones formadoras de químicos y a sus órganos de expresión intelectual. En México, éste se inicia con la fundación del Real Seminario de Minería y cristaliza, a principios del siglo xx, con la fundación de la Escuela Nacional de Industrias Químicas. Durante los primeros años de la escuela se creó la primera agrupación de profesionales de la química, nombrada Sociedad Química Mexicana y la Revista Química, su órgano de difusión.

El estudio y la enseñanza de la química en México comenzaron su desarrollo por el camino de la metalurgia y la farmacia. Durante el largo periodo de dominación española la extracción de la plata y el oro fueron la columna vertebral de la economía novohispana. A finales del siglo xviii, ante el desarrollo de la ciencia y la tecnología en Europa, la monarquía española fundó el Real Seminario de Minería como una alternativa para formar los técnicos y los ingenieros que modernizarían la industria minera. En este contexto, la enseñanza de la química forma parte del currículo de la formación de ingenieros. El proyecto académico del Real Seminario de Minería no alcanzó a desarrollar sus propósitos por las profundas transformaciones políticas en Europa y en América. La invasión de Napoleón a España y la guerra de independencia de México trastocaron el proyecto académico.

En el siglo xix, aunque se vive una intensa lucha política para definir el proyecto de nación del naciente Estado mexicano, se desarrolla incipientemente la cultura científica. El Real Seminario de Minería se transforma en Colegio de Minería y se introducen algunos cursos de metalurgia para los estudiantes de ingeniería en las carreras de Ensayador, Apartador de Oro y Plata y Beneficiador de Metales.

En 1833 se funda la Escuela de Ciencias Médicas que, más tarde, en 1842, se transformará en Escuela de Medicina. En el proyecto curricular de la Escuela de Ciencias Médicas se estableció la especialización de farmacia y, en ésta, se incluyó el estudio de la química. En esta institución se formaron los destacados científicos que desempeñaron una función muy importante a finales del siglo XIX y principios del XX. Algunos de los farmacéuticos que sobresalen de estas generaciones son Alfonso Herrera, Andrés Almaraz, Alfonso L. Herrera, Juan Manuel Noriega, Ricardo Caturegli, Adolfo P. Castañares, Francisco Lisci y Roberto Medellín. A pesar de que los egresados de la carrera de Farmacia eran pocos, apenas cinco estudiantes por año, lograron manifestar los intereses propios de una comunidad académica y fundaron las primeras sociedades científicas.

Las primeras sociedades científicas

Durante el siglo XIX se fundaron varias sociedades científicas. En 1839 los farmacéuticos fundaron la Academia de Farmacia. Esta asociación profesional, entre otras cosas, escribió y publicó, en 1846, la primera Farmacopea de México. Más tarde, en 1849, Leopoldo Río de la Loza, con el propósito de difundir la ciencia y, particularmente, la química, impulsó la formación de la Sociedad Química con alumnos del curso de Química Médica de la Escuela de Medicina. La sociedad tuvo un periodo de vida muy corto, probablemente por la guerra con Estados Unidos o por la inestabilidad política de la época, sin embargo, la Sociedad Química expresa la importancia de las sociedades científicas para impulsar el desarrollo científico del país.

Posteriormente, con el triunfo del liberalismo, en 1867, empezó una nueva etapa histórica para nuestro país y, a su vez, surgieron nuevas posibilidades para el desarrollo científico. En 1871, por ejemplo, se reorganizó la Academia de Farmacia y se fundó la Sociedad Farmacéutica Mexicana. Entre sus fundadores se encontraban Leopoldo Río de la Loza, González Moro, Gumesindo Mendoza y José María Bustillos. En esta nueva etapa editaron la Nueva Farmacopea Mexicana y publicaron la revista Farmacia, en la que abordaron los problemas del ejercicio profesional y la necesidad de crear una escuela especial de farmacia.

En 1868 se fundó la Sociedad Mexicana de Historia Natural. Esta asociación tenía muy claro el momento históri­co del país y se propuso realizar estudios que impulsaran su de­sarrollo. Estuvo organizada en las secciones de zoología, botánica, mineralogía, geología, paleontología y ciencias auxiliares. Esta asociación fue muy importante porque formó a la nueva generación de científicos y, en 1884, impulsó la fundación de la Sociedad Científica “Antonio Alzate”.

En esta época también se creó el Instituto Médico Nacional. En 1888, este instituto se propuso estudiar la flora, la fauna, la climatología y la geografía del país para fortalecer la industria farmacéutica nacional y desarrollar la farmacopea nacional por medio del análisis químico de las plantas. Los estudios que se realizaron en el instituto se hicieron desde la perspectiva de los médicos, y no podía ser de otra manera, porque la comunidad académica era de médicos y no de quími­cos. Otra institución relevante fue el Instituto Geológico Nacional, fundado en 1891, en donde Juan Salvador Agraz, ingeniero químico formado en el Institut de Chimie Appliquée y en la Universidad de Berlín, impartió la cátedra de Química en su sección de análisis químico y metalurgia.

La química en esta época existía al lado de la medicina, la botánica o la metalurgia, es decir, no había logrado su autonomía disciplinaria. Sin embargo, el desarrollo de la ciencia durante el periodo porfirista generó las condiciones para crear una institución especializada en la enseñanza de la química.

La Escuela de Química

El olor a pólvora aún no se disipaba cuando ya estaba en proceso un nuevo proyec­to educativo. En 1916, en el barrio de Tacuba, el ingeniero químico Juan Salvador de Agraz, con mucho entusiasmo fundaba la Escuela Nacional de Industrias Químicas. La fundación de esta institución fue fundamental para el desarrollo ulterior de la química en México, en el sentido que se constituyó como una disciplina científica autónoma, independiente de la medicina y se inició la especialización en la formación de los químicos al establecerse los estudios de químico industrial y otras carreras técnicas.

El propósito del proyecto educativo de la escuela, por otra parte, constituye una respuesta a las necesidades crecientes de la industria moderna. En adelante, la manufactura de diversos productos estará relacionada con las industrias químicas. Con la creación de la escuela se pretendió impulsar y fo­mentar la industria nacional a través de la difusión de conocimientos teóricos y prácticos relacionados con la química.

La fundación de la escuela también generó una profunda reflexión sobre el perfil profesional de los químicos. Para algunos, la formación de los químicos debería limitarse a una formación técnica y, para otros, la formación de los químicos debería elevarse a un nivel profesional, equivalente a los estudios de licenciatura. Por lo pronto, al año siguiente, en diciembre de 1917, la Escuela Nacional de Industrias Químicas se incorporó a la Universidad Nacional con el nombre de Facultad de Ciencias Químicas, bajo la dirección de su fundador. El siguiente paso lo darían los farmacéuticos al trasladar los estudios de farmacia que ofrecía la Escuela Nacional de Medicina a la Facultad de Ciencias Químicas. La propuesta, apoyada por la Sociedad Farmacéutica Mexicana, estuvo a cargo del farmacéutico Adolfo P. Castañares.

Los médicos, a finales del siglo XIX, aún consideraban a los farmacéuticos como técnicos. Los farmacéuticos, por su parte, comprendieron que su futuro profesional no estaba al lado de la medicina sino de la química y solicitaron su incorporación a dicha facultad. A principios del si­glo xx, los farmacéuticos consideraban que la farmacia debía profesionalizarse. Castañares argumentó que la profesión de farmacéutico requería independizarse de la medicina y, como disciplina científica, necesitaba apoyarse en conceptos teóricos de la química general y del análisis químico, al igual que un químico industrial, como lo concebía Agraz. Des­pués de asumir la dirección de dicha facultad, en 1919, Adolfo P. Castañares invitó a colaborar a algunos compañeros de la carrera de farmacia. De esta manera, Roberto Medellín, Ricardo Caturegli y Juan Manuel Noriega, egresados de la Escuela Nacional de Medicina, se incorporaron como docentes a la facultad. Esta comunidad profesional de farmacéuticos fue la encargada de institucionalizar la enseñanza de la química durante los siguientes años en la facultad.

En 1920, cuando el farmacéutico Francisco Lisci asumió la dirección de la facultad, generó un nuevo proyecto curricu­lar para la carrera de químico farmacéutico que incluía asignaturas como Química Orgánica Experimental, Análisis Químico Cualitativo y Cuantitativo, Análisis Orgánico Elemental y Análisis Especiales, Microbiología, entre otras asignaturas. De esta manera se transitaba del químico farmacéutico como preparador de fórmulas galénicas al profesionista que realizaba análisis químicos o intentaba preparar un medicamento.

Durante la primera década de vida de la escuela se fueron conformando los planes de estudio de las carreras profe­sionales al lado de las carreras técnicas como la de Perito en Industrias, que implicaba cursar los dos primeros años de la carrera de químico industrial, así como la de Prácticos en Industrias que se cursaba en un año. En ambos estudios técnicos sólo se requería el certificado de educación primaria superior. También se impartían cursos industriales que eran de materias grasas, la gran industria química, de fermentaciones, de tanantes y curtientes, de aceites esenciales, látex, gomas y resinas y del petróleo.

Con el propósito de generar un nuevo proyecto educativo de acuerdo con las necesidades planteadas por la Revolución Mexicana se creó la Secretaría de Educación Pública en 1921. El director de Educación Técnica, el farmacéutico Roberto Medellín, generó un programa de becas para que los alumnos más sobresalientes realizaran estudios en Alemania y Francia. Los primeros estudiantes becados, en 1921, fueron Fernando Orozco, Marcelino García Junco, Ángel Solache, Agustín Solache, Alfonso Romero, Luis de la Borbolla, Teófilo García Sancho, Alberto Sellerier, Enrique Sosa y Praxedis de la Peña. Al año siguiente fueron becados Fernando González Vargas, Francisco Díaz Lombardo, Juan Chávez, Eduardo Castensen y Raúl Colorado.
Al poco tiempo regresaron los estudiantes que viajaron al extranjero y se incorporaron en diferentes espacios sociales. Algunos se incorporaron al Consejo Superior de Salubridad, en Hacienda, en las refinerías de petróleo o en las fábricas de papel. Otros profesionales se integraron al cuerpo docente de la Facultad de Ciencias Químicas, en donde Fernando Orozco impartió la cátedra de Análisis Químico Cuantitativo; Marcelino García Junco la de Química Orgánica y Francisco Díaz Lombardo la de Análisis Químico Cualitativo. Fernando González Vargas se incorporó a la Fundición Nacional de Artillería.

Los químicos formados en Europa transformaron progresivamente la vida académica de la facultad. Sus cátedras incorporaron las nuevas concepciones teóricas y metodológicas de su disciplina. Al mismo tiempo, también se fortaleció la ne­ce­sidad de formar una asociación de profesionales de la química.

Fundación de la Sociedad Química Mexicana

En agosto de 1926 un grupo de académicos y profesionales de la química decidieron fundar una sociedad cooperativa, que nombraron Sociedad Química Mexicana. La sociedad reunió a diferentes profesionales de la química de distintos espacios laborales; entre los socios fundadores se encontraba Francisco Lisci, Juan Manuel Noriega, Ignacio Rentería M., Alejandro Terreros, Rafael Illescas, Carlos Herrera, Esther Luque, Praxedis de la Peña, Fernando Orozco, Manuel Maza, Eugenio Álvarez, Francisco Noriega, Manuel González de la Vega, Luis de la Borbolla, Guillermo López, Elías Gómez, Nelly Frap, Juana Hube, Honoria Olivo, Enrique Sosa, Bernardo Izaguirre, Ignacio García, Lorenzo Pasquel, Alfonso Castro, Juan Chávez y Teófilo García. Algunos se formaron en la Escuela Nacional de Medicina como farmacéuticos, otros en la Escuela Nacional de Industrias Químicas y en la Facultad de Ciencias Químicas.

El cuerpo directivo de la Sociedad se integró de la siguiente manera: como presidente, el farmacéutico Francisco Lisci; como secretario, el químico técnico Ignacio Rentería; como tesorero, el farmacéutico Juan Manuel Noriega y como vocales, los ingenieros químicos Alejandro Terreros y Rafael Illescas.

En 1927 la Sociedad Química Mexicana se planteó los siguientes objetivos: “Agrupar a todos los químicos mexicanos, para ayudarse mutuamente y velar por los intereses de la profesión. Ayudar al gobierno y a las empresas particulares a tener personal idóneo. Proporcionar todas las facilidades a los socios para buscar trabajo. Colaborar con el poder público a fin de conseguir el más exacto cumplimiento de las disposiciones legales relativas al ejercicio científico de la profesión química en toda la república. Trabajar por la implantación de las reformas legislativas que tiendan a mejorar dicha profesión. Fundar una publicación como órgano de la Sociedad Química Mexicana, que se denominará Revista Química. Establecer un laboratorio para cubrir las necesidades de la Sociedad, que estará sujeta a una reglamentación interior, entre otros estatutos”.

El gobierno federal tomó nota de esta situación y recomendó al secretario de Gobernación para contratar alumnos egresados de la Facultad de Química y Farmacia de la Universidad Nacional.
En 1929, por ejemplo, la Sociedad solicitó al licenciado Antonio Castro Leal, rector de la Universidad Nacional, para que se contratara a los químicos porque, en algunos casos, éstos habían sido sustituidos por médicos. Al respecto argumentaron que eran actividades profesionales diferentes y, por lo mismo, con objetivos y funciones diversas. La Sociedad planteó la necesidad de respetar el ámbito profesional de los químicos.

Los químicos asociados también desempeñaron funciones de consultoría. En cierta ocasión la Secretaría de Hacienda y Crédito Público les solicitó asesoría sobre cómo utilizar dieciocho mil toneladas de arsénico blanco, material que tuvo en existencia la compañía minera “La Rosita”, en el estado de Chihuahua. En otro momento, el ingeniero químico Pablo Hope y Hope, jefe del laboratorio químico del Departamento de Investigación de la Oficina Federal para la Defensa Agríco­la, informó sobre las propiedades y métodos de fabricación del arseniato de calcio, con el propósito de combatir las plagas de los plantíos de algodón.

Los primeros años de vida de la Sociedad transcurrieron en un México que buscaba la estabilidad política después de la guerra cristera y cuando se logró la autonomía universitaria. En 1930 hubo cambio de mesa directiva en la Sociedad, tocó al doctor Fernando Orozco ser el presidente; el químico Guillermo García Colín, el secretario; el ingeniero quími­co Manuel Dondé, el tesorero; y los químicos farma­céuticos Esther Luque y Carlos Herrera, los vocales. En este año la sociedad estaba integrada por cuarenta y dos miembros, la mayoría académicos de la Facultad de Química y Farmacia y la Escuela Práctica de Industrias Químicas.

Entre tanto, los miembros de la Sociedad, durante sus primeras reuniones, expresaron la necesidad de contar con una publicación que manifestara sus intereses como agrupación profesional y se inició la edición de la Revista Química.

La Revista Química

La Sociedad Química Mexicana consideró de interés para los químicos la publicación de la revista. Se trataba de difundir algún tema relevante para los industriales, agricultores, farmacéuticos y, en general, para todos aquellos que tuvieran interés en los últimos adelantos de la química, tanto teórica como aplicada.

La dirección de la Revista Química estuvo a cargo del doctor Teófilo García; como jefe de redacción, el ingeniero químico Manuel González de la Vega; y como administrador, el ingeniero químico Raúl Colorado. El primer número de la publicación apareció en febrero de 1927; los siguientes números fueron trimestrales y, a partir de 1930, la publicación apareció mensualmente. La Sociedad, a través de su publicación, manifestó su interés por crear un plan nacional de desarrollo industrial para sustituir las importaciones. En este sentido, el ingeniero químico González de la Vega se expresó en su ar­tícu­lo “Las aberraciones de las importaciones”: “Para nadie es un secreto que se importan fuertes cantidades de barnices de muy diversas especies, tanto para usos en interiores de habitaciones como en exteriores; la mayor importación proviene de los Estados Unidos de Norte América y la mayor parte de los barnices americanos están hechos a base de brea, materia prima que tenemos nosotros en abundancia y que exportamos a los estados unidos de norte américa. Los industriales americanos transforman nuestra materia prima en barnices, nosotros importamos sus barnices y les enviamos nuestra brea. ¿No es esto una aberración? ¿No indica a las claras la falta de desarrollo in­dustrial? ¿No es un error gra­ve en un país que tiene el pro­ble­ma pavoroso de la falta de trabajo, el exportar su materia prima para importar un producto elaborado? El dinero que entra en concepto de nuestra exportación de materia prima es inferior al que sale por concepto de importación del producto elaborado; este dinero va a hacer florecer industrias extrañas, a engrosar capitales extranjeros, a dar vida y bienestar a innumerables trabajadores extranjeros, mientras los nuestros padecen hambres o se nulifican por la miseria. La aberración es patente. El público que prefiere la mercancía extranjera inferior a la nacional hace labor de lesa patria. El comerciante que denigra el producto nacional ejerce una labor criminal”.

Los cambios en la revista se fueron manifestando al paso de los años. En febrero de 1931, el ingeniero químico Manuel González de la Vega asumió la dirección y el ingeniero químico Edmundo de Jarmy, la jefatura de redacción. Para 1932, el nombre de la revista cambió a Revista de Química, aunque mantuvo la misma dirección, ahora el lema fue “La industria necesita la dirección técnico-química para poder prosperar”. Es muy probable que la revista se haya editado hasta 1933, cuando la Sociedad Química Mexicana tomó un nuevo rumbo al inicio del periodo cardenistas.

La Revista Química no tuvo secciones definidas; sus artículos consistían en cuestiones teóricas de la química y traducciones de la sección 7 del Chemical Abstracts, correspondientes a determinaciones analíticas de interés industrial que pudieran adaptarse al medio nacional, así como temas relacionados con las industrias minera, metalúrgica y farmacéutica. Por ejemplo, en el número 1, de 1927, aparecieron los artículos “Introducción al estudio de la concentración de iones hidrógeno”, de Alejandro Terreros; “Sobre la reacción de Shiff”, de Rafael Illescas y Chávez Orozco J.; “Teoría del teñido”, de Ignacio M. Rentería, entre otros trabajos. En el volumen VI, número 1, de 1931, los artículos de la Revista Química fueron “Sobre la producción de ­sueros y vacunas en México”, de Alfredo Rubio; “Productos farmacéuticos” de Guillermo García Colín; “Manufactura y refinación de los aceites lubricantes”, de Benjamín Arkin, entre otros trabajos.

También la Revista Química dio muestra de la actividad académica en sectores industriales como la metalurgia, textiles y aceites comestibles. Algunos artículos con esta temática fueron “Datos analíticos de trigos y harinas del país”, de Rafael Illescas; “Utilidad práctica del conocimiento estructural de los aceros”, de Francisco González; “Manteca vegetal, su composición e importancia”, de P. de la Peña. En relación a la industria petrolera sólo apareció un artículo en estos años, que fue la “hidrogenación del petróleo crudo y de sus derivados”, de Fernando Pacheco.

La Revista Química fue un medio de publicidad de carácter técnico-industrial. Algunas empresas como el Laboratorio Químico Central, la Compañía Industrial Refinadora de Aceites Vegetales, Productos Farmacéuticos Senosiain, Beick Félix y Compañía, la Industria Farmacéutica Nacional y Control Químico, la utilizaron como medio de publicidad de sus productos químicos a principios de la década de los treintas.

Después de la Primera Guerra Mundial la industria farmacéutica comienza a desarrollarse aceleradamente en Europa y Estados Unidos y se expande por otras regiones. En México empieza a manifestarse a principios de los años treinta. Su ingreso al mercado nacional lo realizaron representantes comerciales de productos importados, que más tarde se constituyeron como filiales de las grandes empresas farmacéuticas. Su actividad consistía en realizar actividades de mezcla, formulación y empaquetado de especialidades farmacéuticas a escala industrial. Algunas empresas de esta época son The Sydney Ross Co., S.A., 1929; Johnson&Johnson de México, S.A., 1931; los Laboratorios Hormona y Chinoin Productos Farmacéuticos, S.A., 1932; Grupo Roussel, S.A., 1933; los Abbott Laboratorios de México, S.A., 1934; y la Bayer de México, S.A., 1937. De estas empresas sólo Chinoin Productos Farmacéuticos, S.A. fue de capital mexicano.

La industria química estaba representada por tres firmas. Beick Félix y Compañía, S.A., que producía ácido sulfúrico, cola y superfosfatos. Los técnicos de la empresa eran alemanes, a excepción de un pasante de la Escuela Nacional de Ciencias Químicas que estaba en el laboratorio y tenía prohi­bido pasar a la fábrica. La Chemical Works, S.A., cuya producción era de ácido sulfúrico, ésteres, ácido acético, ácido nitroso, acetato de amilo y creolina. Finalmente, en Orizaba existía otra empresa llamada El Electrón, que producía hidróxido de sodio, pero debido a las dificultades para capturar el cloro, cerró sus instalaciones. La industria química en México era incipiente, así como el desarrollo industrial. Por otra parte, la inestabilidad política del país hacía difícil la instalación de fábricas de productos químicos.

El químico Guillermo García Colín, secretario de la Sociedad, informó que México importaba anualmente cerca de treinta millones de pesos en drogas. Esto significaba que el país no producía drogas, ni bicarbonato de sodio, nada.

¿De dónde viene ese bicarbonato? De Inglaterra. ¿Pedimos magnesia calcinada, carbonato de magnesia o alguna preparación de patente nacional a base de magnesia? La magnesia de cualquier forma viene de Inglaterra. El farmacéutico la vende al menudeo y el fabricante nacional la importa para envasarla. Un caso evidente, el bicarbonato de sodio y magnesia, dos drogas de consumo en medicina de uso cotidiano de las que no se producía ni siquiera un gramo en México. Al igual que los laxantes, algún derivado arsenical ­inyectable, sales orgánicas de calcio, el cuernecillo de centeno para hemorragias en la mujer, el clorhidrato de emetina para la disentería amibiana. En general, en una droguería y farmacia en México, con excepción de alcohol, glicerina y plantas medicinales nacionales, no existe ninguna droga derivada de la flora medicinal nacional, ni medicamento de patente cuyo principio activo o medicinal sea nacional.

Todo era importado y simplemente envasado en México. Razón por la que los químicos e industriales señalaban como una necesidad apremiante el desarrollo de una industria estratégica, la farmacéutica. También fue necesario impulsar esta industria en escuelas técnicas y en los laboratorios del gobierno.

El Laboratorio Químico Central, una empresa privada mexicana, en su Departamento de Farmacología intentó incorporase a la industria farmacéutica, desarrollando estudios sobre plantas medicinales, como la tronadora o retama, hierba que gozaba de cierta popularidad como agente curativo de la diabetes; al respecto se logró obtener una fracción cristalizada y soluble que llamaron glucolisina, aunque el estudio clínico-farmacológico de una droga requiere ante todo un fármaco de composición fija, ya que la composición química definida en estos casos es prácticamente compleja. Otros estudios semejantes consistieron en el estudio farmacológico del extracto de la planta conocida como zoapatle —a su formulación la llamaron eriocomina—, la cual presentó propiedades ocitócicas.

Una de las acciones más importantes en investigación por parte del Estado fueron los trabajos del Instituto de Higiene del Departamento de Salubridad Pública. El instituto elaboraba productos biológicos como antitoxina diftérica, suero antidisentérico, suero anti-alacrán, suero preventivo contra el sarampión, vacunas como Pertussis, tífica-paratífica, ­equipos para la inmunización activa contra la escarlatina, entre otros, que se utilizaban para las campañas sanitarias de dicho departamento.
 
Conclusiones

La Sociedad Química Mexicana es la primera asociación profesional de los químicos mexicanos. Sus fundadores no podrían ser otros que los farmacéuticos que le dieron vida a la Escuela Nacional de Industrias Químicas y a la Facultad de Ciencias Químicas. Por supuesto, los egresados de la facultad también serían fundadores de la Sociedad Química Mexicana.La Sociedad se fundó en 1926, a diez años de la creación de la Escuela Nacional de Industrias Químicas. Al año siguiente, en 1927, surgirá la Revista Química que se convirtió en la voz y expresión de los intereses profesionales de los químicos mexicanos, así como la de sus anhelos y es­peranzas.

En el primer número de la Revista Química se tuvieron muy presente los intereses de los mexicanos, al interesarse en el desarrollo de la industria mexicana como una estrategia para lograr el bienestar de la nación. La fundación de la Sociedad Quími­ca Mexicana es la síntesis del desarrollo de la Química en México durante el siglo xx y del surgimiento de la Facultad de Ciencias Químicas como institución formadora de los químicos.
________________________________________________________________
Felipe León Olivares
Escuela Nacional Preparatoria, Universidad Nacional Autónoma de México.
 
Es químico por la Facultad de Química de la unam y doctor en Investigaciones Educativas por el Cinvestav-ipn. Es profesor de química en la Escuela Nacional Preparatoria de la unam. Sus trabajos de investigación se centran en la historia de la química en México durante el siglo XX.

como citar este artículo

León Olivares, Felipe. (2008). Génesis de la Sociedad Química Mexicana. Ciencias 89, enero-marzo, 58-67. [En línea]

  ←Regresar al índiceartículo siguiente→
Você está aqui: Inicio Búsqueda Número revistas revista ciencias 89