revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
cuento         menu2
índice 30 
anterior
PDF
                 
La computación
al alcance de la
mano
R030B02   
 
   
   
Ramón Vera    
                     
Amanda entró al cubículo y los encargados le
asignaron un sitio entre las otras cincuenta personas que esperaban instrucciones.
 
PANTRONICS Y ASOCIADOS, iniciaba hoy la última etapa de prueba de su nueva línea de mini micro computadoras personales. Nada descabellado después del avance de los “cristales líquidos” y las nuevas micropartes que permitían computadores sin diskette y del tamaño de un reloj pulsera. Sin diskette porque un comando, sensible a las pulsaciones de la muñeca, provenientes del sistema nervioso, permitirían enlazar la micromax (ese era su nombre) a gigantescas memorias ubicadas en un complejo enorme de computación, en el que a su vez, se conectaría vía satélite con los bancos de información y memoria más grandes del mundo. Esto implicaba un vínculo general del individuo en la calle con la sabiduría y los datos de cualquier fuente. Era la expresión más acabada de la modernización educativa y periodística que el nuevo gobierno central estaba propugnando. Por supuesto, las funciones de la micromax no permitirían el acceso a las verdaderas fuentes de información, y la seguridad de transacciones, datos clasificados confidenciales y táctica militar, estaría controlada. Pero la micromax ofrecía una serie de servicios que no dejarían nada que desear al consumidor ávido de sensaciones, emociones e información. La micromax se convertiría en una verdadera amiga, una lámpara de Aladino, una revolución mayor que el Ford modelo T.
 
El menú era estupendo: operaciones bancarias de todo tipo; información sobre espectáculos; reporte del clima, de las mareas y del tráfico en la ciudad; pedidos de comida; servicios de mantenimiento; información noticiosa actualizada, minuto a minuto; captura de textos con sólo hablar en voz alta, como dictado, y, por supuesto, información bibliográfica y de investigación, a partir de los bancos de memoria centrales. Todo está con sólo “mentalizar” el asunto a nivel consciente pues la micromax “leía” el impulso específico y lo codificaba.
 
No paraba esto aquí. Todo el sistema micromax implicaría la posibilidad de llamar por teléfono a cualquier parte del mundo, viendo a la persona indicada; tener recetas de cocina; saber las posiciones de los planetas en el momento; las efemérides astrales desde 1622; pedir la lectura del tarot y del I Ching; solicitar cita con el peluquero, el médico, el abogado o el terapeuta; hacer trámites legales y, en general, obtener imágenes de lugares, calle por calle o metro por metro; conocer el estado del propio organismo; los biorritmos o incluso algo tan específico como el nivel de glucosa o de glóbulos rojos. Un programa especial indicaría el remedio homeopático requerido, de acuerdo a las circunstancias especiales por las que atravesara el usuario y, en fin, todo lo que la gente pudiera soñar. Sí, un comando especial a la hora del sueño permitiría capturar y simular imágenes del sueño y verlas al otro día en la micropantalla o en cualquier receptor de video.
 
Los experimentos serían muy sencillos. Después de una serie de instrucciones simples se les entregó a los sujetos una micromax pavonada con extensible del plástico negro, un manual de operación y un menú completo de posibilidades. No era necesario que estuvieran en un sitio especial ya que otros sistemas de diagnóstico por computadora revisarían periódicamente los resultados individuales.
 
Amanda recibió su micromax y salió a la calle. Sintió un escalofrío al ver pasar un auto a todo velocidad muy cerca de la banqueta. Su asombro creció y se tornó terror al ver que la pantalla de su micromax asumía un color rojo sangre y aparecían imágenes de su infancia, más bien, imágenes muy similares a ciertos episodios de su infancia.
 
Ya en su casa volvió a sorprenderse, cuando al pensar en su novio, apareció en la micropantalla alguien que parecía su novio, aunque no era exactamente su novio. Su extrañeza convocó una proyección estructural de las características morfológicas de su amigo, datos bioquímicos del mismo y un reporte de sus actividades más conocidas. Queriendo alejar esa sensación trató de pensar en otra cosa y así comenzó un desfile de fragmentos de árboles, perros, casas, convertidos rápidamente a factores e índices matemáticos o a proyecciones estructurales de los mismos.
 
Presenció aterrada hundimientos de barcos, asesinatos, terremotos en regiones alejadas del globo. Todos pasando a velocidad de computación. Intentó calmarse y la computadora le indicó su pulso cardiaco, el estado de su respiración, el remedio químico apropiado a su condición y hasta sugerencias de ejercicios paralelos. Gritó queriendo parar todo eso y la micromax le contestó con un análisis espectroscópico con un grito, dándole la tonalidad musical en que se encontraba, el rango de volúmenes que había manejado, el nivel de adrenalina en su torrente sanguíneo y nuevas recomendaciones para tranquilizarse.
 
No pudo más. Aventó su micromax al suelo y se desplomó en una silla observando la micropantalla que durante horas y horas desplegó cambiante todo lo imaginado y por imaginar. Aprehensiones, sentimientos de culpa, recuerdos lejanos, imágenes de lugares, fragmentos de película, deseos, por más contradictorios y empalmados que estuvieran, desfilaron y fueron acompañados instantáneamente por análisis psicológicos, matemáticos, biomédicos y hasta sociales.
 
Cada minuto, la micromax desplegó un aviso atestiguando el hecho, no contemplado, de que el impulso proveniente de Amanda operaba aún a distancia. Ya no era necesario el contacto físico para que la micromax sintonizara. Lo había registrado tan bien que funcionaba a algunos metros. Después de todo Amanda había sido siempre un ser sensible, una mujer perceptiva y tierna, susceptible a todo lo que le rodeaba.
 
Con ojos azorados quedó en medio de la habitación extendiendo los brazos y absolutamente ausente. Llegaron por ella empleados de PANTRONICS y fue internada dos horas más tarde. Los experimentos tuvieron que ser suspendidos.
 
articulos
 
 _______________________________      
Ramón Vera
     
_______________________________________________      
 
cómo citar este artículo 
 
Vera, Ramón. 1993. La computación al alcance de la mano. Ciencias, núm. 30, abril-junio, pp. 67-68. [En línea].
     

 

 

nota         menu2
índice 30 
siguiente
anterior
PDF

                 
Bolero para el
virus del corazón envuelto
R030B01   
 
   
   
Raymundo Méndez Canseco    
                     
                     
Tanto tiempo disfrutamos de ese amor…
 
Pareciera que mucho tiempo ha pasado desde la liberación femenina, la revolución sexual, el surgimiento de las comunas de los hippies y las sex-shops. El auge de esta tendencia en los años sesenta, reflejada en la psicodelia, el pop-art, el empleo de las drogas y la búsqueda del yo en regiones tan remotas como la India o Huautla, desembocó en un cambio de las actitudes sociales de la población urbana durante las dos décadas subsecuentes. Fue a finales de los ochenta, cuando una palabra compuesta por cuatro siglas —AIDS en inglés, SIDA en español— despertó el interés del individuo común y corriente hacia ciertos especímenes de la naturaleza, cuyos mayores daños cotidianos eran, hasta entonces, los resfriados y la hepatitis. Así, un vocablo más se incorporó al lenguaje común: virus. Y si para los científicos estas partículas aún guardan muchos de sus secretos, para el común de la población son seres inasibles, de difícil comprensión.
 
Hoy resulta que no soy de la estatura de tu vida…
 
La gran controversia respecto a los virus reside en su naturaleza: ¿son seres vivos? El consenso general coincide en que no. Y pobre de aquel estudiante de microbiología que proclame la muerte de un virus. Según la definición de Renato Dulbecco un virus es un parásito intracelular obligatorio que puede ser considerado como un bloque de material genético capaz de “replicarse” de manera autónoma; está rodeado de una cubierta proteica que lo protege del medio y que le sirve como un vehículo de transmisión de una célula a otra. En otras palabras, un virus es una partícula que contiene información genética, y que es capaz de transformar el funcionamiento de una célula en beneficio propio, con el mero fin de obtener réplicas de él mismo. Y el término “replicación” es distinto al de reproducción. Reproducción implica la unión de dos gametos haploides para formar un nuevo individuo con características heredadas de los padres; también se refiere a la fisión binaria o a la gemación, donde una célula —como una bacteria o una levadura— se dividen en dos individuos hijos. La replicación es la obtención de copias, y en el caso de los virus, de más partículas idénticas entre sí, las que son fabricadas dentro de una célula viva pues estos parásitos diminutos son incapaces de hacerlo por sí mismos. No son seres vivos, son —a la manera creacionista— imperfecciones del séptimo día de la creación.
 
Si fue por ti, no sé…
 
Respecto a su origen, existen diversas teorías agrupadas dentro de dos tendencias generales. Una: los virus provienen de células degeneradas, las ovejas negras del rebaño. Otra: los virus tienen su origen en fragmentos de información genética que huyeron de la célula madre, rebeldes sin causa, antecesoras de James Dean. Dentro del primer grupo de teorías, se menciona a los Poxvirus como los resultados de células que sufrieron una evolución regresiva. Quienes apoyan esta idea se basan en la inusitada capacidad de los Poxvirus para replicarse. Contienen gran parte de la información requerida para la síntesis de maquinaria enzimática replicativa, además de que en su ciclo de infección no necesitan instalarse en el núcleo celular como los virus más sencillos. Les basta y sobra con el citoplasma de la célula huésped.
 
La segunda tendencia no se queda atrás. Está orientada, fundamentalmente, al origen de los viroides y los virusoides. Los viroides son partículas involucradas en ciertas enfermedades de las plantas. La más conocida de ellas es la que afecta al tubérculo de la papa. Mientras que los virusoides son parásitos de los virus. Las células eucarióticas —aquellas que poseen un núcleo definido, como las de un elefante, un cocodrilo o las de Mikhail Gorbachev— llevan a cabo un proceso denominado maduración. Durante este evento, las moléculas de ARN, que sirven de mensajeros entre el ADN celular y los ribosomas —partículas que elaboran las proteínas— sufren la pérdida de fragmentos cortos de la cadena que las conforman. Dichos fragmentos, denominados intrones, han sido analizados en su composición y han sido agrupados de acuerdo a su grado de homología. Tales estudios han conducido a clasificar dentro del grupo I a intrones provenientes de genes de ARN ribosomal nuclear, ARN de transferencia de cloraplastos, ARN mensajero de mitocondrias y ciertos viroides y virusoides. Otro fenómeno que apoya la segunda tendencia, es el que se refiere a la existencia de los transposones que son las mariposas del material genético. Se insertan en regiones con las que comparten homología en sus secuencias flanqueantes y tienen la habilidad de salirse de esos sitios y trasladarse a otros sin la mínima promesa de retorno. Los transposones fueron descubiertos inicialmente en el maíz y se les ha colgado el milagrito de ser los responsables de que existan mazorcas con dientes blancos y oscuros. Los dientes oscuros son el resultado de la expresión de la información contenida en el transposón. Y también como transposones degenerados se contempla la posibilidad de considerar al virus de la hepatitis B y a los retrovirus.
 
Es probable que ambas tendencias teóricas tengan razón. Verdad solo hay una y es que será difícil —por no mencionar imposible— comprobarlo.
 
Cicatrices imposibles de borrar…
 
El conocimiento de los virus como paquetes de información genética es reciente. Sin embargo, sus efectos son conocidos desde los tiempos en que Sócrates confundía a sus congéneres al declarar que sólo sabía que no sabía nada. Aristóteles es autor de las descripciones más antiguas respecto a la rabia, enfermedad causada por un virus. Los siglos y los hombres de ciencia pasaron; solo los virus permanecieron, ocultos como figuras misteriosas y oscuras. Pasteur, al abordar el problema de la rabia, se dio cuenta de que el agente causal de la enfermedad no era cultivable en medios artificiales como sucedía con las bacterias. Sólo crecía en animales de laboratorio. Después, Ivanovsky y Beijerinck descubrieron que tenían la capacidad de evadir los filtros más finos, lo que representó otra diferencia con respecto a las bacterias. Poco a poco, científicos de Europa y Estados Unidos fueron armando el inicio del rompecabezas, rompecabezas interminable que no tiene para cuando acabar. En la actualidad, la mayoría de los virus se mantienen en cultivos celulares —en placas de Petri, frascos o botellas—, en embriones de pollo y animales de laboratorio. Muchas telarañas mentales que había en los científicos del siglo pasado se han disipado. Si a usted alguien le pregunta qué es un virus, ya no dirá que es un agente filtrable, un veneno o fluido contagioso.
 
Sembramos de espinas el camino…
 
En la actualidad, el estudio de los virus se ha facilitado con el empleo de la tecnología del ADN recombinante. Dicha tecnología surgió en los años setenta, al descubrirse las enzimas de restricción, que son proteínas que cortan el ADN en sitios específicos, de acuerdo a la secuencia de nucleótidos. Las técnicas del ADN recombinante han llevado al conocimiento de mecanismos más complejos. Por ejemplo, al aplicarse las técnicas de secuenciación de ácidos nucleicos al virus SV40, uno de los más pequeños, se creyó que se obtendría un modelo bastante sencillo que se podría extrapolar al estudio de virus más grandes. Ocurrió lo contrario. SV40 es pequeña, cierto, pero los mecanismos de regulación de sus genes son complejos a grado demoniaco.
 
La biología molecular ha hecho grandes avances en el estudio de los virus. Se han obtenido derivados del virus de vaccinia —el causante de la viruela de las vacas— a los que se han insertado genes que confieren protección contra el sarampión en los ratones. Se contempla a los virus como vehículos eficaces en las terapias génicas. Y en el caso del SIDA, gracias a la tecnología del ADN recombinante, se ha aprendido mucho acerca de un virus específico, en un tiempo muy corto. Las perspectivas a futuro son halagadoras: virus que portan genes que corrigen defectos genéticos en el hombre; virus recombinantes de producción accesible, que protegen contra diversos agentes patógenos; enfermedades virales curables y la vacuna contra el SIDA, incluso. Lo deseable sería que los sueños del hombre corrieron a la par que la ciencia. Y por desgracia, la ciencia en un país como México no es uno de los caminos más gratos y mejor remunerados para soñar.
 
Como se lleva un lunar…
 
La historia de la humanidad ha estado acompañada de los virus. Epidemias de influenza, de viruela y el terror a la rabia, aparecen frecuentemente en el recuento de los siglos pasados. Nuestro siglo estará marcado por el SIDA. Y no contribuirán a la celebridad del virus únicamente su epidemiología y la mortalidad que provoca. Destacará también en ello, influencia en la sociedad que ha provocado: la marginación a los grupos de alto riesgo, las amenazas a la cultura gay, la persecución de los drogadictos1 y el retorno a la conservación de las buenas costumbres. La aparición del SIDA coincide con tendencias oscurantistas en diversos países, incluido el nuestro. En Estados Unidos, el caso Mapplethorpe2 y la existencia de Jesse Helms, entre otros muchos, son solo la punta del iceberg de una transformación radical. Los años noventa podrían pasar a la historia como algo más que la segunda década de los yuppies. Sería un ejemplo de cómo una partícula que no tiene vida, es capaz de influir en el rumbo de la humanidad. El virus del SIDA, partícula envuelta con un corazón de material genético, ya ha demostrado una parte del tamaño de su poder. Un reto para la ciencia de cuyo resultado dependen mucho la cultura, la economía y la sociedad del siglo que viene.
 
articulos
Referencias Bibliográficas
 
Aranza Anzaldo, Armando, En la frontera de al vida: los virus, Colección La Ciencia desde México, No. 71, SEP, Conacyt, Fondo de Cultura Económica, México.
Lehninger, Albert, Bioquímica, 2a. edición, Omega, España, 1982.
Drillien, et al., 1988, “Protection of mice from fatal measles encephalitis by vaccination with vaccine virus recombinants encoding either the hem agglutinin or the fusion protein”, Proc. Not. Acad. Sci., USA 85: 1252.
 
Notas
 
1 Los únicos que saben lo que ocurrirá en el minuto siguiente, y por eso no temen, en palabras de Bob Hughes, el protagonista de Drugstore cowboy (Gus Van Sant Jr., USA, 1989).
2 Robert Mapplethorpe, finado fotógrafo norteamericano, cuya colección titulada El momento perfecto fue calificada como obsceno por un juzgado de Cincinnati, Ohio, en 1990.
 
 
 
______________________________________________      
Raymundo Méndez Canseco      
_______________________________________________      
cómo citar este artículo 
 
Méndez Canseco, Raymundo. 1993. Bolero para el virus del corazón envuelto. Ciencias, núm. 30, abril-junio, pp. 23-25. [En línea].
     

 

 

 

R30Articulo08   menu2
índice 30
siguiente
anterior
PDF
   
   
Mauricio Schoijet      
               
               
En la década de 1980 ocurrieron por lo menos cuatro grandes
accidentes, con un costo humano que oscila, para tres de ellos, entre los miles y centenares de miles de víctimas inmediatas y potenciales a largo plazo, y con un costo material que va de decenas a miles de millones de dólares. Nos referimos a los de Bhopal, San Juan Ixhuatepec, el de la nave espacial Challenger y al del accidente nuclear de Chernobyl. Si bien es cierto que desde los comienzos de la Revolución Industrial en Inglaterra, en el siglo XVIII, han venido sucediendo accidentes imputables a la industria, también es válido preguntarnos si los que hemos mencionado responden a un fenómeno puramente casual, o si la frecuencia con que se presentaron indica una tendencia que inevitablemente debemos asociar al desarrollo de las fuerzas productivas, el que las convierte en destructivas, en el sentido más literal de la palabra.
 
La cuestión es fundamental para el futuro de la energía nuclear, porque cualquier discusión sobre éste necesariamente debe estar enmarcada por una controversia más amplia, referida a los grandes accidentes, porque los nucleares son los de mayores consecuencias, debido a que sus efectos no sólo abarcan mayores áreas sino que tienen repercusiones a largo plazo que los causados por cualquier otro tipo de desastre de origen humano.
 
La ciencia comienza a convertirse en la crítica del discurso preexistente, y esto implica la definición de un nuevo campo de problemas. Así viene ocurriendo con la astronomía y la mecánica desde hace ya varios siglos, y así está sucediendo gracias a que los desastres generados por la acción humana ocupan el centro del escenario histórico. El discurso convencional, precientífico, repite que se trata de una cuestión de aprendizaje, y una vez que se tengan los recursos y el tiempo suficientes aprenderemos a manejar con seguridad cualquier tipo de sistemas, por más complejos y peligrosos que estos sean. Hasta ahora la investigación de los accidentes se ha limitado básicamente a aspectos tales como los errores de los operadores y de los diseñadores; a la falta de atención en lo referente a seguridad; al entrenamiento inadecuado de los operadores; a la falta de atención en lo referente a la seguridad; a la carencia de tecnologías más avanzadas; y al manejo deficiente e insuficiencia de recursos. Todo ello demuestra que el centro del discurso se preocupa más de la descripción y el deslinde de responsabilidades, que de analizar las razones profundas del problema, las que necesariamente requieren de la elaboración de un nuevo marco conceptual.
 
Una primera aproximación científica al estudio de los grandes accidentes, aparece en el libro de Charles Perrow, Normal Accidents: Living with High Risk Technologies1 en la que el autor acepta la existencia de los problemas antes enumerados (ya Daniel Ford los resalta en el análisis detallado que hace del accidente de la central nuclear de Three Mile Island, al referirlos a ese caso en especial),2 pero plantea que están presentes en todos los sistemas tecnológicos de gran tamaño y alta complejidad, y que, por consiguiente, no pueden reflejar las variaciones observadas en la tasa de accidentes para distintos tipos de sistemas. Por ello, explica, deben existir características estructurales que dependen de los sistemas mismos, tales que ningún ajuste tecnológico (technological fix) podría llegar a corregir.
 
Obviamente no todos los grandes accidentes tienen el mismo rango de potencial destructivo. En este sentido los nucleares son los más peligrosos, porque, como ya explicamos, tienen una prolongada repercusión en cuanto a tiempo y espacio, y pueden llegar a afectar a futuras generaciones, víctimas eventuales de cáncer, leucemia y defectos genéticos. Cuando afectan a personas alejadas del suceso en el espacio y en el tiempo; cuando perjudican no sólo a los operadores directos y al personal relacionado con las operaciones, sino que involucran a víctimas circunstanciales, como son los usuarios lejanos, los fetos y las generaciones futuras, entonces el número de víctimas crece exponencialmente, y aumenta sustancialmente la incertidumbre sobre los riesgos.
 
Para Perrow, la causa de los accidentes sistémicos o normales no se encuentra en los errores de diseño, ni en los de operación, sino en la complejidad misma de los sistemas. Ello no quiere decir que todos los grandes accidentes —en términos de costos o número de víctimas— sean necesariamente accidentes de este tipo. Estos no incluyen —de acuerdo a las definiciones de Perrow— los accidentes en minas, ni los marinos, ni los ferrocarrileros.
 
Perrow define como accidente a aquel suceso que produce daños a nivel de subsistema —por ejemplo en el de enfriamiento secundario de una planta nuclear, compuesto por un generador de vapor, unidades de depuración y condensación de agua con sus motores correspondientes, tuberías, etcétera — que afectan al sistema en su totalidad, paralizando su funcionamiento u obligando a detenerlo. El accidente de Three Mile Island lo produjo una acumulación de errores de poca monta, de diseño, de equipo y de operación. Cada uno de ellos era trivial en sí mismo, e incluso pudieron ser de mínimas consecuencias, ya que en cada caso había dispositivos redundantes o auxiliares, pero se volvieron serios sólo gracias a los efectos que se produjeron al interactuar entre ellos. Fue esta interacción de fallas múltiples la que produjo el accidente.
 
Nuestro autor utiliza varias categorías, entre ellas están: la interactiva, las interacciones fuertes, las funciones de modo común y la incomprensibilidad. Así, los accidentes normales o sistémicos se presentarían como un fenómeno nuevo en la historia de las fuerzas materiales —productivas y destructivas—, como el resultado de la existencia simultánea de la complejidad interactiva y de interacciones fuertes. Un aspecto particular de la complejidad interactiva es la presencia de funciones de modo común, lo que puede acarrear la aparición de una clase particular de fallas: las de modo común. La complejidad de los sistemas aumenta la posibilidad de interacciones imprevistas, y la multiplicidad de los caminos de propagación de las interacciones termina por neutralizar los dispositivos de seguridad. La complejidad de los sistemas no es fortuita, sino que surge por los requerimientos de manejo de sustancias más peligrosas, o porque exigimos que los sistemas funcionen en ambientes más hostiles, o en condiciones físicas cada vez más severas, en cuanto a velocidades, volúmenes, presiones, etcétera.
 
Una unidad o subsistema funciona de modo común cuando sirve a más de un componente, lo cual equivale a decir que cuando esta unidad o subsistema falla, afecta a dos “modos”. Por ejemplo, un intercambiador absorbe el calor de un reactor químico y lo utiliza para calentar al gas contenido en un tanque, cumple con ello dos funciones, lo que permite el ahorro de energía, luego se trata de un diseño más económico. Si falla, el reactor se recalienta y el tanque se enfría demasiado, lo que impide que se recombinen las moléculas del gas; es decir, fallan dos funciones o “modos”.
 
La presencia de funciones de modo común es una de las características de la complejidad interactiva. Hay otras, como: la disposición compacta del equipo; la proximidad física de las distintas etapas de un proceso productivo; el exceso de conexiones de modo común entre componentes que no están en la secuencia de producción, etcétera. Al hablar de acoplamiento fuerte nos referimos a la existencia de un gran número de procesos que dependen del tiempo, y que por lo tanto requieren de la atención constante de los operarios. Otra característica es la poca flexibilidad de la secuencia de operaciones, ya que cuenta con sólo un camino para alcanzar el resultado final. Las cantidades deben ser precisas, no se puede sustituir un recurso por otro y los suministros que se desperdician pueden sobrecargar al sistema.
 
La definición de las interacciones —lineales o complejas— y de los acoplamientos —débiles o fuertes—, permiten elaborar un mapa sobre el cual podemos ubicar varios sistemas de producción, de transporte y militares. Los sistemas más peligrosos son los de mayor complejidad y de acoplamientos fuertes; entre ellos están las plantas nucleares, los sistemas de armas nucleares, las plantas petroquímicas, la manipulación genética con DNA y los sistemas aeroespaciales. La peligrosidad de todos ellos es potencialmente catastrófica, ya que además cuentan, en principio, con pocas medidas adicionales de seguridad. La historia de las plantas petroquímicas sería probablemente el campo más fértil para verificar la hipótesis de Perrow, debido a que se trata de una industria de larga experiencia, a la que podemos suponer bien manejada, y que, además, tienen sustanciales motivaciones económicas para prevenir los accidentes, ya que no puede, como lo hace la nuclear, pasar el costo a los contribuyentes. Las plantas de este tipo han existido durante un siglo. Sin embargo, aquí la investigación se enfrenta con obstáculos de tipo social, porque parece ser mucho más difícil obtener información sobre la industria petroquímica que sobre la nuclear. No existe —por lo menos en Estados Unidos— ningún organismo regulador de esta industria, y por ello tampoco hay información disponible proveniente de fuentes externas a la misma. Los datos que existen sólo los conocen las propias compañías, y de ninguna manera están dispuestos a facilitarlos a investigadores externos. Sin embargo, se han publicado artículos en revistas especializadas como Ammonia Plant Safety, de los que se han obtenido algunos datos significativos, como por ejemplo el que en las plantas de amoniaco se produce, en promedio, un incendio cada once meses. Si en una industria tan establecida los problemas no han sido resueltos quiere decir —argumenta Perrow—, que nos encontramos ante accidentes sistemáticos, o sea que seguirán ocurriendo. Y sugiere que una razón para ello radica en que, a pesar de su larga historia, los procesos fisicoquímicos en que se basa tal industria no están totalmente comprendidos.
 
Otras tesis se refieren a la incomprensibilidad de los accidentes cuando éstos se producen; a la ineficiencia de los dispositivos redundantes; a la dificultad de mejorar los diseños a partir de la información obtenida en los accidentes, y a la atribución de responsabilidades como campo para la lucha de clases.
 
La tesis de la incomprensibilidad es sumamente importante para poder entender la conducta y los límites de la responsabilidad de los operadores, y parece estar claramente confirmada por la narración que hace Ford del accidente nuclear de Three Mile Island. En efecto, en sistemas industriales, especiales y militares complejos, las interacciones pueden resultar no sólo inesperadas, sino incomprensibles durante el periodo crítico del tiempo. La contradicción central en relación con los operadores, radica en que los rendimientos del sistema apuntan a un control centralizado —debido a la peligrosidad—; pero al mismo tiempo la incertidumbre debida a la imposibilidad de previsión, plantea la exigencia contraria, o sea, la de que los operarios puedan actuar de manera independiente y, a veces, creativa.
 
El autor cita un trabajo de E. W. Hagen3 para sostener el que se adicionen componentes redundantes para obtener mayor seguridad ha sido la causa de fallas; o sea que la redundancia no ofrece más garantías, porque la realidad lo es en un mayor nivel de complejidad.
 
Uno de los efectos de la tendencia al gigantismo y de las condiciones físicas extremas es el que ya no podemos aprender de los errores; en él los diseñadores obtenían valiosísima información, para realizar mejores diseños, del análisis de las causas de desastre tales como el derrumbe de un edificio, del choque de trenes, o de la explosión de calderas; sin embargo, en la actualidad eso ya no es posible; parece que hemos llegado a un límite en que no es factible tal tipo de aprendizaje de las catástrofes que ocurren en plantas químicas o nucleares. En efecto, si la complejidad hace crecer exponencialmente la probabilidad de las interacciones imprevistas, y la tendencia al gigantismo causa un efecto similar para el costo de cada sistema, aprender con base en esas experiencias se hace prohibitivo. Si los accidentes de Three Mile Island y Chernobyl han arrojado al basurero de la historia a los estudios sobre accidentes nucleares que daban cifras extremadamente pequeñas para la probabilidad de desastres (del orden de uno en cien mil a uno en mil millones de años-reactor), por ejemplo el llamado informe Rasmussen, elaborado por encargo de la Comisión de Energía Atómica de los Estados Unidos en 1972, bajo la dirección de Norman Rasmussen, profesor de energía nuclear del Instituto Tecnológico de Massachusetts, constituían no solo un ejercicio de futilidad, sino un abuso de la ciencia. Porque, aunque es cierto que Rasmussen y sus colaboradores hicieron algunos cálculos al respecto, también es cierto que los hicieron basándose en accidentes probables, imaginados por ellos; pero la verdad es que ningún accidente real tuvo nada que ver con cualquiera de los imaginados —hubo varios antes de que Rasmussen presentara sus informes pero se mantuvieron en secreto aunque llegaron a causar importantes pérdidas económicas—. Todos los accidentes reales implicaron secuencias de sucesos imprevistos y se puede suponer, y es una de las suposiciones cruciales de Perrow, que las posibles secuencias de fallas imprevistas, superan ampliamente en número, a las de accidentes que, en el estado actual de nuestros conocimientos, resultan previsibles.
 
De todo lo anterior podríamos deducir que el problema de la industria nuclear no es el de tener una historia peor que las otras, en cuanto a número y probabilidad de accidentes, sino justamente tener una historia no demasiado diferente, cuando su condición de viabilidad sería precisamente —debido a la peligrosidad de los elementos que maneja— una crónica exenta de desastres.
 
De la lectura del texto de Perrow surge la idea de que la aparición de la energía nuclear sobre la escena histórica, puede haber funcionado como un detonador que llevara, tanto a científicos como a militantes políticos, a prestar atención a un campo de fenómenos que hasta ahora habían sido no sólo poco estudiados sino sistemáticamente ocultados. Se trataba de un área marginal, en lo relativo a ser un campo de conocimientos, manejado por burócratas de organismos técnicos marginales, que dependen del capital privado y de los gobiernos. Aquellos que podían tener más interés en estudiar el problema desde el punto de vista de las víctimas, (trabajadores y no trabajadores afectados por los accidentes); aquellos que se interesaban por defender a los operadores sobre quienes las burocracias técnicas pretendían descargar las consecuencias de su irresponsabilidad y de su aventurerismo, no disponían de los recursos necesarios, ni tenían acceso a la información más relevante. Por ello, el papel de Perrow en este terreno podría ser similar al que cumplió la bióloga Racher Carson, en la década de 1960, con la publicación de su libro Silent Spring (La primavera silenciosa) sobre los efectos de los plaguicidas, en el que aparecen una enorme cantidad de datos diversos, fuentes especializadas, y lo que es más importante, aun para el caso que nos ocupa, en el que se formaliza un intento de teorización de vasto alcance.
 
De la narración que hace Ford del accidente de Three Mile Island, se podría deducir que ese accidente fue, en gran medida, el producto de condicionamientos ideológicos. Si éstos, que hacían suponer que los grandes accidentes nucleares eran imposibles, no hubieran existido, entonces la simple capacidad de atención y percepción probablemente habría sido suficiente para tomar medidas preventivas. Pero sin esa ideología de la infalibilidad la energía nuclear tampoco hubiera podido avanzar con la velocidad y la extensión con la que lo hizo. Perrow va más allá que Ford, ya que sugiere que pasado un cierto límite de complejidad de los sistemas, sería imposible, o demasiado costoso, disminuir la probabilidad de accidentes.
 
El trabajo de Perrow apoya la posición de que se debería abandonar la energía nuclear, por lo menos en el corto y mediano plazo. Pero quedaría por verse si en el largo plazo podrían ser diseñados reactores intrínsecamente seguros, los que deberían ser probados a partir de tamaños más pequeños a lo largo de varias décadas. Creemos que hay razones derivadas de aspectos de la física básica de los reactores, aún no suficientemente estudiados, que preferimos no discutir en el presente texto, pero que apuntan contra esta posibilidad.
 
El accidente de Chernobyl y los costos económicos crecientes e indeterminados de la energía nuclear —porque el problema de los desechos no ha sido resuelto— han llevado a la parálisis de ésta y aun a su abandono en muchos países. La disyuntiva que planteaba el ecologista David Brower, en 1975, sigue siendo válida. Brower afirmó que “si nosotros, los antinucleares, estamos equivocados, podemos hacer otra cosa (para cubrir las necesidades energéticas). Si ellos —los pronucleares— lo están, estaremos muertos.”4
 
Los acontecimientos ocurridos después de la publicación del libro de Perrow no solo parecen darle la razón, sino que incluso hacen pensar que en ciertos puntos se quedó corto. Por ejemplo, en relación con los accidentes en plantas químicas, sostiene que han tenido un costo comparativamente bajo, porque en general las plantas de este tipo se ubican en lugares poco poblados. Aparentemente en la India no hay lugares de estas características, y el accidente de Bhopal nos sugiere que la combinación del aventurerismo y la falta de escrúpulos de las burocracias técnicas de los países centrales y de las burguesías periféricas armó la trampa en la que perecieron miles de personas y en la que quedaron permanentemente afectadas decenas o centenares de miles. Por supuesto que el accidente de Chernobyl también le da la razón.
 
La complejidad de un sistema fisicoquímico como causa de accidentes
 
El libro de Perrow no se ocupa de las plantas de procesamiento de uranio, pero los datos que proporciona el físico Walter Patteson al respecto, sugieren que este tipo de instalaciones son probablemente aún menos viables que las de producción de energía nuclear.5 El autor incluye una lista de doce plantas terminadas —había varias más en construcción— de las cuales una nunca llegó a operar. De las restantes sólo seis seguían en operación en 1984. Cuatro dejaron de funcionar después de seis años o menos de operación y una después de diez. Aunque no se tienen datos para todos los casos, está claro que estaban plagadas de muy serias dificultades técnicas. La planta británica de Head End, que funcionó sólo durante cuatro años, quedó inutilizada por una explosión ocurrida en 1973, que contaminó a treinta y cinco de sus trabajadores. Sólo cuatro años más tarde fue reconocido el hecho de que a raíz de la explosión, había dejado de funcionar.
 
La causa del accidente parece ser que se debió a que dentro de los sus productos de fisión contenidos en el combustible nuclear usado, se encuentran pequeñas cantidades de un isótopo radioactivo del rodio, el que es insoluble aun en ácido nítrico caliente, que es el solvente usado en el proceso. Cuando el uranio “quemado” permanece un tiempo suficientemente largo en el reactor, los productos insolubles de fisión se aglomeran en gránulos. Cuando éste fue disuelto en el solvente, los gránulos no lo hicieron, sino que fueron arrastrados por el líquido hasta llegar a un área en la que pudieron asentarse. Durante la operación previa al accidente, los gránulos habían llegado a formar una capa sólida sobre el fondo de uno de los tanques del proceso. El calor producido por la radioactividad evaporó toda traza de líquido, dejándolo al rojo vivo. Cuando éste se puso en contacto con el líquido proveniente de otra masa de combustible, aparentemente se produjo lo que se llama una explosión de vapor —una evaporación violenta seguida de un aumento rápido de presión—, que diseminó una ráfaga de radioactividad hasta el área ocupada por el personal.6, 7
 
Creemos que esta historia resulta totalmente coherente con la tesis de Perrow.
 
El accidente que hemos descrito era difícilmente previsible, y esta dificultad de previsión no era casual, sino que es el resultado de una forma de complejidad que Perrow no percibió, por supuesto tampoco los diseñadores.
 
En efecto, cuando se produce una reacción, o serie de reacciones químicas, más aún si se trata de sistemas químicos complejos, es probable que se produzcan reacciones y productos no previstos, que pueden causar efectos indeseables que tampoco son previsibles. La razón por la que se da esta situación, en el reprocesamiento de combustible nuclear usado es que las reacciones nucleares que se producen en un reactor nuclear, convienen a un sistema físicoquimico, relativamente simple, en uno de los más complejos que puedan imaginarse, en el que están presentes más de cien elementos, algunos de ellos son el producto de reacciones secundarias que terminan por transmutarse en otros, en el curso de algunas horas. Uno de los productos presentes en pequeñas cantidades, es por supuesto, el ya mencionado rodio, pero el que éstas sean pequeñas no significa que lo sean sus efectos. Este no es el único caso; también existe el del llamado envenenamiento por xenón en los reactores, en el que la operación de éstos se ve seriamente afectada por pequeñas cantidades de este elemento, el que, a su vez, se produce por una reacción secundaria.8
 
Especular sobre los viajes espaciales tripulados y la guerra de las galaxias
 
Perrow incluye las naves espaciales entre los sistemas complejos propensos a sufrir accidentes sistémicas, y menciona el caso de la nave espacial Apolo, en 1967, en el que tres astronautas murieron en la plataforma de lanzamiento; también consigna el conato de accidente que en 1970 sufrió una nave espacial en viaje a la Luna; este último percance presentó características similares al de Three Mile Island, en cuanto a la dificultad para detectar la causa, y pudo haber tenido las más serias consecuencias. Posteriormente ocurrió el ya mencionado accidente de la nave Challenger, en el que perecieron varios astronautas.
 
Para especular acerca del futuro de los viajes espaciales podría ser útil recordar la historia aún muy reciente de la aviación. Su primera aplicación comercial fue en 1918 para el transporte de correspondencia, aunque para entonces ya volaban miles de aviones. En esa época la esperanza de vida de un piloto era de cuatro años, o sea que, si suponemos que volaban veinte horas semanales, se podría decir que un accidente fatal se producía al cabo de algunas miles de horas de vuelo.9 Obviamente los aviones actuales son mucho más seguros, y la mayoría de los pilotos llegan a jubilarse después de décadas de vuelo. Esa seguridad se obtuvo a un considerable costo económico y humano, tal vez miles de pilotos y pasajeros murieron antes de que los diseñadores aprendieran a fabricar aviones más confiables.
 
No tenemos el dato exacto de cuál es el total de horas de vuelo de las naves espaciales, pero creemos que no pasan de miles. Si es así, resultan menos seguras que los aviones de 1920, con la diferencia esencial de que el costo de cada una de ellas es de 108−109 dólares, mientras que un avión de 1920 costaría alrededor de 103 −104 dólares, o sea que existe una diferencia de 105. Si suponemos que para llegar a construir naves espaciales seguras debemos acumular la experiencia de operación de mil o diez mil, ello implica un costo de 1012 ó 1013 dólares, o sea mayor que el producto bruto de los Estados Unidos; además, deberíamos aceptar la posibilidad de que ese proceso resulte muy costoso en términos de vidas humanas, y estaríamos hablando de, tal vez, miles de astronautas. Pero sin lograr un alto grado de seguridad, los vuelos espaciales tripulados a otros planetas, las operaciones industriales en el espacio, la guerra de las galaxias y las colonias espaciales, no pasarán de ser meras fantasías.
 
articulos
Referencias Bibliográficas
 
1 Perrow, Charles, 1984, Normal Accidents: Living with High Risk Technologies, Basic Books, New York.
2 Ford, Daniel, 1981, Three Mile Island; Thirty Minutes to Meltdown, Penguins.
3 Hagen, E. W., “Common Mode/Common Cause Failure: A Review”, Nuclear Safety, 21:2, marzo-abril de 1980, p. 184-92; citado en ref. 1, p. 73.
4 Olson, Mc Kinley, 1976, Unacceptable Risk: The Nuclear Power Controversy, Bantam Books, New York, p. 253.
5 Patterson Walter, 1974, The Plutonium Business and the Spread of the Bomb, Paladin Books, Londres, pp. 40-43.
6 Idem, ref. 5, p. 47-50.
7 Patterson Walter, 1985, Going Critical: An Unofficial History of British Nuclear Power, Paladin Books, Londres, pp. 105-109.
8 Patterson Walter, 1982, Nuclear Power, 2nd. Ed., Penguins, pp. 35-36.
9 Idem, ref. 1, p. 125.
 ________________________________________      
Mauricio Schoijet
Universidad Autónoma Metropolitana-Unidad Xochimilco.
     
____________________________________________________________      
cómo citar este artículo 
Schoijet, Mauricio. 1993. Accidentes tecnológicos. Ciencias, núm. 30, abril-junio, pp. 55-60. [En línea].
     

 

 

R30Articulo09   menu2
índice 30
siguiente
anterior
PDF
   
   
María del Rocío Salgado y Adela L. Ruíz      
               
               
La quinta parte de la población mundial
se encuentra infectada por gusanos helmintos.
 
En nuestro país se ha estimado que en promedio
cada individuo tiene dos Ascaris lumbricoides en su aparato digestivo.
 
articulos

 

Las diversas asociaciones que existen en la naturaleza dan
lugar a que los individuos involucrados puedan vivir en grupos formando un solo ente. Una de ellas es el parasitismo, interacción biológica entre dos organismos definida como la relación huésped-parásito, que puede afectar en grado variable la calidad de vida del primero. Probablemente esta asociación tiene su origen en la vida misma, y se vincula con la competencia por el espacio, el alimento y la sobrevivencia.

Entre los diversos antecedentes que existen, se puede señalar uno de los más primitivos, encontrado en restos fósiles de protozoos con concha calcárea (foraminíferos) y algas marinas con más de 500 millones de años, quizá con cualidades y capacidad necesarias para determinar el parasitismo. En algunos casos se consideran macroparásitos por su tamaño6 con un tiempo de generación relativamente largo, si se compara con el de los microparásitos (virus y bacterias). Con el hallazgo de los helmintos parásitos del hombre, se pudo registrar su existencia en diversos manuscritos: los egipcios, en el papiro de Ebers (550 a. C.) describieron un gusano cuyas características hacen suponer que se trataba de lo que hoy se conoce como solitaria Taenia saginata. Moisés, por instrucciones médicas de los egipcios, prescribe leyes sanitarias de protección, tales como evitar el consumo de carne de animales infectados con “piedras” (seguramente se trataba del cisticerco en la carne de cerdo). Por su parte, los griegos identificaron algunos gusanos planos (céstodos). A Avícenas, médico persa, se le reconoce por sus descripciones de gusanos redondos Ascaris lumbricoides y Enterobius vermicularis. Finalmente, de las primeras aportaciones importantes en forma de libro, dedicado a la parasitología, fue la realizada por Francisco Redi (1684).15
 
Hasta entonces el hombre sólo había descrito a los gusanos que podía observar a simple vista; gracias a la invención de lo que en la actualidad se conoce como microscopio, el campo de la parasitología amplió sus horizontes en el estudio de los parásitos y de su relación con los huéspedes.
 
En 1947, el Dr. Norman Stoll calculó que había en el mundo 72 millones de individuos infectados por diversos céstodos o solitarias (gusanos planos); 148 millones por tremátodos (gusanos planos no segmentados); y 2000 millones por nemátodos (gusanos redondos). Si se toma en cuenta que la población de aquel entonces era de 2170 millones de personas, se deduce que un mismo individuo podía albergar varias especies.
 
Ninguna región geográfica está exenta de padecer enfermedades parasitarias; muestra de ello es la problemática que se tiene en los países de África, Asia y Sudamérica, en donde los índices notablemente elevados de estos padecimientos así lo señalan; un ejemplo de esto es la ascariasis, que se encuentra entre las 20 enfermedades más graves. Las causas son múltiples, fundamentalmente ecológicas, socioeconómicas, hábitos y costumbres del hombre, así como problemas de saneamiento (deficiencia en los métodos de eliminación de excretas).7 Por tal motivo el parásito representa una problemática biológica, psicológica, social y económica, debiendo señalarse, además, que en algunos casos llega a provocar la muerte de los individuos que lo albergan.
 
La situación en México es semejante a la observada en otros países. Las infecciones intestinales causadas por helmintos (gusanos planos y redondos), constituyen un problema de salud pública por su elevada frecuencia3 (tabla 1), y al parecer tienden a aumentar (tabla 2).8
 
Tabla 1. Frecuencia de helmintiasis intestinales en la población de la República Mexicana 19763
Parasitosis % de la población afectada
Ascariasis 26.0
Tricocefalosis 21.3
Enterobiasis 20.9
Uncinariasis 19.2
Hymenolepiasis 15.8
 
 
Tabla 2. Frecuencia de algunos helmintos intestinales en la población de la República Mexicana 199116
Ascaris lumbricoides 29.7%
Trichuris trichiura 26.4%
Enterobius vermicularis 25.3%
 
 
Los parásitos se alimentan de productos que elabora el huésped. Se ha descrito que un gran número de individuos se encuentran infectados con una carga parasitaria ligera (10%),2 pasando inadvertida su presencia; de manera contraria, una carga intensa (90%) es posible que se traduzca en enfermedad17, 2 Figura 1. Cabe señalar la importancia y, por ende la comprensión de los conceptos de infección y enfermedad.18, 2
 
figura30A09 1
Figura 1. Esquema de la distribución de los helmintos en la población humana.
 
Dada la variedad de especies parásitas que padece el hombre, abarcar su estudio implicaría una tarea por demás extraordinaria y que difícilmente tendría cabida en unos cuantos párrafos. En el presente trabajo se hace referencia sólo a un grupo importante de parásitos al que se conoce con el nombre genérico de “Helminto”.
 
Biología de los parásitos
 
La taxonomía de los metazoos o helmintos, describe tres clases importantes denominadas cestodos, trematodos y nematodos, mismas que presentan características específicas, las cuales permiten su ubicación dentro de las diferentes clases.
 
 foto30A09 1
Foto 1. Adulto de Taenia saginata (cortesía del depto. de Microbiología y Parasitología, Facultad de Medicina, UNAM).
 
Si se observa su tamaño, se verá que es variable, algunas presentan escasos milímetros (Trichinella spiralis) y otros hasta varios metros de longitud (Taenia solium y Taenia saginata, foto 1). Asimismo, pueden poseer estructuras especializadas para fijarse en el aparato digestivo del hombre, como ganchos y ventosas (Taenia solium e Hymenolepis nana, foto 2) o elementos “bucales” que lesionan directamente la mucosa intestinal (Ancylostoma duodenale y Necator americanus, foto 3).
 
 foto30A09 2
Foto 2. Escólex de Taenia solium, G = ganchos, V = ventosas (cortesía Dr. J. Tay).
 
Por otro lado, si se habla del ciclo biológico, algunas especies pueden desarrollarse en un solo huésped (Hymenolepis nana y Enterobius vernicularis), y otras requieren de huéspedes intermediarios para completarlo (Fasciola hepatica y Paragonimus mexicanus). Existe un grupo denominado geohelmintos, el que, para completar su ciclo vital, necesariamente debe permanecer en la tierra, sitio en el que se conjugan factores de humedad, de temperatura y de composición química, lo que favorece el desarrollo de formas infectantes para el hombre como Ascaris lumbricoides, Trichuris trichiura, Strongyloides stercoralis.
 
foto30A09 3
Foto 3. Adulto de Ancylostoma sp., se señala su cápsula bucal (cortesía Dr. J. Tay).
 
Ahora bien, su mecanismo de transmisión también es variable. Ciertos helmintos se adquieren en forma directa (vía oral), como Hymenolepis nana y Enterobius vermicularis, o bien al consumir carne de cerdo infectada: Taenia solium y Trichinella spiralis. El contacto directo de la piel con suelos contaminados favorece la infección por Ancylostoma duodenale y Strongyloides stercoralis, ya que las larvas tienen la capacidad de atravesarla. Los transmisores biológicos juegan un papel importante en esta dinámica, así la picadura de insectos (Simulleum ochraceum) determina la infección por Onchocerca volvulus.
 
Establecimiento en el huésped humano
 
Los helmintos en el hombre desencadenan una serie de fenómenos determinados por la relación huésped-parásito. Es importante considerar para el primero: la predisposición, edad, estado nutricional, respuesta inmune, interacción con otras enfermedades, hábitos higiénicos y fecalismo al aire libre, entre otros; y para el segundo: virulencia, número de especies infectantes (carga parasitaria), y la posibilidad de evadir la respuesta inmune del huésped, entre otros. Esta gama de factores permitirán que se establezca o no el parásito; de ahí la importancia de que sea un médico el que diagnostique, ya que la variedad de síntomas clínicos que manifieste el hombre dependerá del sitio donde se localice el parásito. Este puede encontrarse a nivel intestinal (Ascaris lumbricoides, Enterobius vermicularis, Trichuris trichiura, Ancylostoma duodenale, Taenia solium, Taenia saginata e Hymenolepis nana, principalmente) en los músculos (larvas de Trichinella spiralis, foto 4); en tejido subcutáneo (Onchocerca valvulus); en órganos vitales como el Sistema Nervioso Central y ojo (cisticerco de Taenia solium, fotos 5 y 6); o bien en conductos biliares (Fasciola hepatica, foto 7).
 
foto30A09 4
Foto 4. Larva de Trichinella spiralis en músculo (cortesía Dr. J. Tay).
 
En todos y cada uno de estos sitios, la patología se puede manifestar como infección o desencadenar una grave enfermedad con alteraciones tales como: inflamación muscular, obstrucción intestinal, elefantiasis (hinchazón desmesurada de las extremidades), anemia,9, 14 ceguera, o incluso hasta la muerte.
 
 foto30A09 5
Foto 5. Cisticercosis cerebral (cortesía Dr. J. Tay).
 
Las parasitosis pueden presentarse a cualquier edad, sin embargo, favorecidas por deficientes hábitos y costumbres, algunas son comunes en ciertos grupos; así por ejemplo, la ascariasis es frecuente en niños y la necatoriasis en adolescentes y adultos.
 
foto30A09 6
Foto 6. Cisticerco localizado en globo ocular (cortesía Dr. J. Tay).
 
 
Respuesta inmune del huésped
 
Determinado el estado clínico del individuo, surge una cuestión: ¿qué sucede con la respuesta inmune del huésped ante la presencia del parásito? La situación real implica una serie de fenómenos extremadamente complejos y en el caso de infecciones por helmintos son aún mayores, debido esto al tamaño, a la composición tisular, al metabolismo y al desarrollo, en el mismo huésped de varias formas del parásito lo que propicia una respuesta única para cada forma. De tal manera que el hombre puede producir anticuerpos19 contra productos metabólicos, enzimáticos, excreciones y secreciones, o hacia algún componente estructural del parásito.
 
Mediante estudios inmunoquímicos ha sido posible determinar que los céstodos, tremátodos y nemátodos comparten ciertos antígenos20 comunes. La respuesta contra estos helmintos se basa fundamentalmente en dos acciones: la primera es elevando el número de eosinófilos (glóbulos blancos de la sangre) lo que se denomina eosinofilia; y la segunda es produciendo anticuerpos. La eosinofilia sanguínea y la de los tejidos, se considera una característica común contra la mayoría de las infecciones por helmintos, aunado a la producción de anticuerpos específicos que activan células con acción tóxica hacia los parásitos, especialmente contra fases larvarias. Los eosinófilos actúan depositando su contenido granular altamente tóxico, así como enzimas (peroxidasa) que producen daño directo contra el parásito.16
 
En ocasiones esta respuesta inmune puede causar un efecto más severo que el que produce en sí el parásito, un ejemplo clásico es cuando se produce un shock anafiláctico (o respuesta inmune exagerada) al romperse un quiste hidatídico (fase larvaria de Echinococcus granulosus) y liberarse el contenido líquido.15
 
Otro punto importante es el conocimiento de los diferentes mecanismos mediante los cuales el parásito evade la respuesta inmune del huésped, así, la diversidad de antígenos y el mimetismo21 a las proteínas propias del huésped, aseguran la supervivencia y multiplicación del parásito.
 
Entre las enfermedades causadas por helmintos, en las que ha sido posible realizar un mayor número de investigaciones inmunológicas se encuentran: la esquistosomiasis,5 la cisticercosis,16 la ascariasis, la triquinosis y la hidatidosis, principalmente.
 
 foto30A09 7
Foto 7. Adulto de Fasciola hepatica (cortesía del depto. de Microbiología y Parasitología, Facultad de Medicina, UNAM).
 
 
Recursos para establecer el diagnóstico
 
Si se toman en cuenta todos los aspectos referidos sobre los helmintos parásitos del hombre, cabe también señalar los recursos que se tienen para su diagnóstico. Estos pueden ser exámenes de laboratorio o los denominados de gabinete.
 
Es necesario, antes de seleccionar el estudio, que convenga establecer la impresión del médico clínico, lo que servirá para conocer la probable localización del parásito. En el caso de los helmintos intestinales (A. lumbricoides, T. trichiura, uncinarias y S. stercoralis, H. nana, entre otros), el método de laboratorio de primera intención lo constituye el estudio de materia fecal o examen coproparasitoscópico (CPS). Tres muestras obtenidas en días consecutivos permitirán diagnosticar el 95% de los casos.
 
La biometría hemática es otra prueba de laboratorio a través de la cual es posible detectar la eosinofilia causada por los helmintos, los que durante su ciclo biológico en el huésped, atraviesan o se establecen en diversos tejidos (A. lumbricoides, T. spiralis, Ancylostoma duodenale, F. hepatica, entre otros).
 
Existen estudios inmunológicos que contribuyen de manera importante al diagnóstico de algunas parasitosis. El examen de suero permite identificar la respuesta inmune de tipo humoral (detección de anticuerpos). Entre los más frecuentes se tienen: Hemaglutinación,12 Reacción de Fijación de Complemento,12 Contrainmunoelectroforesis, Reacción de Precipitación, Inmunmofluorescencia y ELISA. Algunos ejemplos de parasitosis donde su empleo constituye un importante apoyo para el diagnóstico, son: cisticercosis, fasciolosis, hidatidosis, esquistosomiasis, triquinosis, oncocercosis, principalmente. Las intradermorreacciones son pruebas practicadas sobre la piel del paciente, que permiten poner de manifiesto la inmunidad de tipo celular, como en los casos de hidatodosis, triquinosis o fasciolosis.
 
Los exámenes llamados de gabinete son recursos mediante los cuales se visualiza el sitio anatómico exacto, en donde se alojan los parásitos. Estos estudios pueden ser simples como una placa radiográfica o tan sofisticados como el ultrasonido, la tomografía computarizada o la resonancia magnética.14 Su valor en el diagnóstico de la cisticercosis e hidatodosis es importante.
 
Tratamiento de las helmintiasis
 
Determinada la enfermedad parasitaria en el hombre, mediante las diversas técnicas de diagnóstico, se justifica y se hace necesaria la aplicación de un tratamiento dirigido a eliminar el agente causal de la enfermedad. Este se puede dividir en dos aspectos, el primero encaminado a la expulsión del parásito (antiparasitario), y el segundo a disminuir y/o a eliminar los síntomas (dolor abdominal, náuseas, vómito, etcétera), que se presentan por la presencia del gusano.
 
En la actualidad los tratamientos con medicamentos antiparasitarios han tenido un avance verdaderamente significativo, ya que algunos fármacos permiten la eliminación del parásito en poco tiempo; por otro lado, ha sido posible el desarrollo de un tipo de medicamento que actúa contra varias especies. Gracias a esto, si un individuo presenta infección por diferentes gusanos, al aplicarse el tratamiento se eliminarán los parásitos, aun cuando se traten de especies diferentes. Entre los medicamentos de acción antihelmíntica, se cuentan los siguientes: Piperacina, eficaz contra A. lumbricoides, Mebendazol, cuyo empleo es útil en el tratamiento contra la ascariasis, la tricocefalosis, la uncinariasis y la estrongiloidosis.
 
Los efectos indeseables que se producen en el hombre por la aplicación de diferentes drogas antihelmínticas, han disminuido, ya que antes existían algunos fármacos, como por ejemplo Carbontetracloro, Tártaro emético que por su alta toxicidad lesionaban más que el mismo parásito.
 
De uso actual y eficaz contra una amplia variedad de especies es el Albendazol26, 27 no solo en el tratamiento de parasitosis intestinales (ascariasis, tricocefalosis, teniasis, himenolepiasis, entre otros) sino también en contra de las especies que tienen predilección por otros tejidos (cisticercosis14 e hidatidosis). Sin duda, otro medicamento eficaz es el Prazicuantel, empleado en el tratamiento contra la cisticercosis, la teniasis y la himenolepiasis. En los casos de oncocercosis, la Ivermectina ha resultado ser una droga de acción eficaz, lo mismo que para otras infecciones helmínticas.
 
Al administrar estos fármacos se debe tomar en cuenta varios aspectos, tales como: edad del paciente, peso, si se encuentra bajo otro tratamiento, o su posible aplicación durante el embarazo, ya que generalmente en este último caso, están contraindicados, en el primer trimestre.
 
Todo tratamiento deberá ser valorado mediante exámenes de control, ya sean de laboratorio o de gabinete, y los resultados serán los parámetros para considerar la cura del individuo o la necesidad de aplicar un nuevo tratamiento. El fracaso es factible si no se administran las dosis correctas durante el tiempo adecuado, esto aunado además a las probables reinfecciones del individuo.
 
Medidas preventivas y de control
 
En 1980 la OMS reinició un programa para investigar y combatir las infecciones causadas por parásitos intestinales, en el que la mejor solución implica una serie de acciones conjugadas, aplicándose todos los elementos de la atención primaria de la salud.4 En otras palabras, se sugiere incluir:
 
• Acciones de prevención y de tratamiento para capacitar a los grupos relacionados con la educación sanitaria (médicos y enfermeras principalmente).
• Fomentar en la población, actividades relacionadas con la adecuada alimentación, debido a que los parásitos privan al hombre de los nutrientes esenciales, cuya carencia se traduce en anemia y desnutrición.
• Adecuar el sistema de abastecimiento de agua potable, así como tomar medidas en cuanto a saneamiento, señalando la necesidad de evitar la defecación al aire libre y mejorando los métodos de disposición de excreta (materia fecal y orina). Evitar que se rieguen diversos vegetales de consumo con “aguas negras”.
• Modificar ciertos hábitos y costumbres del individuo que favorecen la infección parasitaria (higiene personal, uso de calzado para evitar la uncinariasis).
• Promover programas de higiene escolar, ya que desde las etapas tempranas es posible sensibilizar a un núcleo de la población (niños) donde los parásitos producen graves consecuencias.
• Incentivar la participación de las comunidades en las zonas con alta frecuencia helmíntica, basándose en la comunicación y explicación de la problemática.
• Fomentar y aplicar tratamientos adecuados y oportunos a todo aquel individuo que manifieste síntomas producidos por diversos parásitos intestinales.
 
En relación al empleo de vacunas antiparasitarias, por desgracia en la actualidad es prácticamente nulo, ya que muchas de ellas sólo se han evaluando a nivel experimental; un ejemplo de esto es el intento de inducir una respuesta inmune protectora en infecciones causadas por cisticercos en cerdos.11
 
Aun cuando todos estos lineamientos son fundamentales para atacar el problema de las parasitosis causadas por helmintos, en México no ha sido posible realizar un proyecto a nivel nacional que involucre a todo aquel personal (médicos, enfermeras, veterinarios, epidemiólogos, sociólogos, etcétera) para que de una u otra manera promueva la concientización y la organización de eventos en la lucha contra estas enfermedades.
Agradecimientos
 
A los señores Tomás Cruz Méndez y Rodolfo Gómez Córdoba, por la elaboración del material fotográfico y del dibujo, respectivamente.
 
     
Referencias Bibliográficas
 
1 Comunicación personal con el Dr. Kenneth, S. Warren.
2 Bundy, D. A. P., D. E. Thompson, M. H. N. Golden, E. S. Cooper, R. M., Anderson, P. S. E. Harlan, 1985, “Population distribution of Trichum trichiura in a community of Jamaican children”, Trans. of Roy. Soc. Trap. Med. and Hyg., 79, pp. 232-237.
3 Tay, J., S. Salazar, I. de Haro, M. I. Bucio, 1976, Frecuencia de las Helmintiasis en la República Mexicana, Salud Pública de México, 36: 241-280.
4 Zbigniew, S. H., Hakan Pawtwsky, 1984, “La solución de la APS”, Salud mundial, OMS; 226-28.
5 Bundy, D. A. P., E. S. Cooper, 1988, “The Evidence for predisposition to Trichuriasis in humans: comparison of institutional and community studies”, Ann. of the Trop. Med. and Parasitology, 82 (3), pp. 251-256.
6 Anderson, R. M., R. M. May, 1979, “Population biology of infections diseases: Part I”, Nature, 280(9): 455-461.
7 Davis, A., 1984, “Este mundo agusanado”, Salud mundial, OMS: 2-3.
8 Ruiz, A. L., L., Robert, T. Uribarren, J. Tay., I. T. Sánchez, 1991, “Parasitosis intestinales en México, antecedentes”, Estado actual, Memorias del X Congreso Latinoamericano de Parasitología, I Congreso Uruguayo de parasitología, Montevideo, Uruguay, 17-22 de noviembre de.
9 Sánchez, M. H., 1987, Memorias del simposio internacional “Albendazol en el control de helmintiasis” ,VIII Congreso de la Federación Latinoamericana de Parasitología, Guatemala.
10 Álvarez, C. R., 1984, “Biología del eosinófilo en las helmintiasis tisulares”, Red. Infectología año IV. (2): 41-43.
11 Flisser, A., R. Pérez-Monfort, C. Larralde, 1979, “The immunology of human and animal cysticercosis a review”, Bull. or World health Org. 57(5): 839-856.
12 Mahajan, R. C., J. S. Chopra, N. L. Chitkara, 1975, “Comparative evaluation of indirect haemaglutination and complement fixation test in serodiagnosis of cysticercosis”, Indian J. Med. Res., 63(1): 121-125.
13 Kenneth, S. Warren, 1990, “An integrate system for the control of the major human helminth parasites”, Acta Leidensia, 59 (1): 433-442.
14 1988, “Segundo Encuentro Nacional de Cisticercosis”, Memorias, Soc. Mex. De Parasitología A. C. Pachuca, Hidalgo.
15 Tay, J., R. Lara, C. Velasco, 1991, “Parasitología médica”, Ed. Méndez-Cervantes 5a. Ed.
16 Stites, D. P., J. D. Stobo, J. V. Wells, 1988, Inmunología básica y clínica, Caps. 9 y 35, Ed. El manual moderno. 6a. Ed.
 
Notas
 
17 Los helmintos se encuentran en las poblaciones humanas con una distribución conocida como negativa binomial.6
18 Infección es el proceso mediante el cual organismos patógenos comienzan a establecerse en el cuerpo del hospedero. Enfermedad es una condición en la cual se altera o interfiere el estado normal del hospedero y usualmente se caracteriza por la función anormal de una o más partes u órganos de éste.
19 Anticuerpo, proteína producida por el hombre como respuesta a la presencia de un agente externo en la sangre de los tejidos.
20 Antígeno, agente extraño (proteína) que desencadena la formación de anticuerpos específicos en un organismo.
21 Propiedad de algunos organismos de semejarse a seres u objetos entre los cuales viven.
     
 ______________________________________      
María del Rocío Salgado
Facultad de Medicina,
Universidad Nacional Autónoma de México.
 
Adela L. Ruiz
Facultad de Medicina,
Universidad Nacional Autónoma de México.
     
_________________________________________________________      
cómo citar este artículo 
 
Salgado, María del Rocío y Ruiz, Adela L. 1993. Gusanos parásitos del hombre. Ciencias, núm. 30, abril-junio, pp. 61-66. [En línea].
     

 

 

R30Articulo07   menu2
índice 30 
siguiente
anterior 
PDF
   
   
Francisco Luis Aviña Cervantes      
               
               
Amanece en las costas de la península de la Florida; los
habitantes del Refugio Natural Merritt Island se preparan a iniciar un nuevo día; sin embargo, casi todos han preferido marcharse ante el avance de la pesada oruga hacia el Complejo 39-A; a lo largo de los años los animales del refugio han aprendido que después de que aquel gusano completa su lenta marcha de 6 horas, vendrán unas cuantas horas de calma y de pronto un estruendo cimbrará los suelos, cubriendo los cielos de un humo que no deja respirar y mata.
 
Mientras tanto los ingenieros, científicos y cientos de curiosos no dejan de admirar al coloso de fuego en su viaje a las alturas, perdiéndose entre las nubes hasta desaparecer, otra misión del transbordador espacial ha comenzado.
 
En esta ocasión, dentro de los sorprendidos testigos del despegue se encuentran los 47 estudiantes del Programa de Entrenamiento de Ciencias de la Vida en el Espacio 1992, quienes aún impresionados se reincorporan a sus actividades.
 
Creado en 1985, el SLSTP —por sus siglas en inglés— es un curso intensivo de seis semanas, en el cual se reúnen estudiantes universitarios de diversas áreas (Biología, Química, Física, Medicina, etcétera) con el propósito de introducirlos al apasionante terreno de las Ciencias de la Vida en el Espacio, realizando una estancia académica en el Centro Espacial Kennedy.
 
Este año el programa contó con un nuevo atractivo, ya que, gracias al Año Internacional del Espacio, la NASA y la Universidad Agrícola y Mecánica de Florida —FAMU— decidieron unirse a la celebración, incluyendo estudiantes internacionales dentro del curso de verano.
 
Basándose en su participación dentro de la industria espacial, NASA invitó a 10 países para que iniciaran el proceso de selección; finalmente 19 universitarios de todo el mundo se unieron a los 28 estadounidenses para conformar la generación 1992 del SLSTP.
 
Dentro de las naciones participantes estuvieron Francia (3), Brasil (3), Reino Unido (3), Canadá (2), China (2), Marruecos (1), Alemania (1), Costa Rica (1), Colombia (1) y México (2); nuestro país es un importante usuario de satélites, además de haber incluido un astronauta —Rodolfo Neri Vela— en el transbordador Atlantis, en 1985.
 
La UNAM fue la encargada de elegir a los candidatos mexicanos, quienes finalmente fueron seleccionados por la agencia espacial. Se otorgaron dos plazas, que fueron ocupadas por alumnos de la Facultad de Ciencias: Vanesa Magar y Francisco Luis Aviña, estudiantes de Matemáticas y Biología respectivamente.
 
Durante los meses de junio y julio presenciamos el enorme panorama que ofrece la exploración espacial, incluyendo las futuras metas de NASA como la estación espacial, la colonia lunar y la misión tripulada a Marte; los problemas implicados dentro de éstas y el cúmulo de nuevos conocimientos biológicos que se obtendrán a partir de estas experiencias.
 
En el curso se dictaron conferencias sobre diversos tópicos de la Biología Espacial como: Medicina Operacional, investigación Biomédica, Sistemas Ecológicos Cerrados, Exobiología, Biología Gravitacional, etcétera.
 
Por otra parte se formaron equipos de trabajo enfocados a la presentación de diseños preliminares de utensilios de uso común, adaptados al ambiente ingrávido del espacio como por ejemplo: procesadores de alimentos, sistemas de limpieza, habitaciones, ejercitadores, etcétera.
 
La parte medular del SLSTP consistió en la serie de visitas a los laboratorios del Centro Espacial, donde se realizan investigaciones en 4 áreas:
 
a. Fisiología Cardio-Vascular, Pulmonar, Muscular y Vestibular.
b. Mantenimiento de Sistemas Vivos Ecológicamente Controlados.
c. Desarrollo de Experimentos en Vuelo.
d. Diversos tópicos de Biología.
 
Fisiología Humana Espacial
 
En cuanto a Fisiología Humana, se pretende caracterizar los cambios operados en el cuerpo humano como consecuencia del vuelo espacial, en donde, durante el despegue, el astronauta es sometido a una aceleración de hasta 5 veces la gravedad; una vez en órbita, permanece en la ingravidez por unos cuantos días hasta regresar a la Tierra, que nuevamente queda bajo la influencia de la gravedad.
 
Todos estos cambios alteran el funcionamiento del organismo, especialmente los sistemas:
 
• Cardiovascular.
• Músculo esquelético.
• Vestibular.
 
En el transcurso de una misión espacial, la sangre sufre diversos procesos adaptativos como: pérdida de células y cambios constantes de distribución y dirección, lo que puede representar un peligro para la integridad de los astronautas.
 
Por su parte, los músculos corren el riesgo de atrofiarse, ya que al quedar fuera de la fuerza de gravedad, todos aquellos músculos involucrados en el soporte del cuerpo dejan de ser funcionales, por lo que se hace necesaria una rutina de ejercicios que evite su inutilización. Por otra parte, se desconoce la razón por la cual los huesos pierden Ca+ durante los vuelos, con lo que aumentan su grado de susceptibilidad a una fractura.
 
El Sistema Vestibular, encargado de la orientación, experimenta problemas para ajustarse a las nuevas condiciones gravitatorias, por lo que se presentan mareos, náusea, vómito, etcérera, y diversos problemas de coordinación.
 
Mantenimiento de Sistemas Vivos Ecológicamente Controlados
 
Los sistemas biorregenerativos parecen ser la mejor alternativa para el abastecimiento de alimentos en las misiones de larga duración; basados en el reciclaje y aprovechamiento total de los productos y desechos, se les puede considerar como sistemas ecológicos cerrados, dentro de los cuales se pretende producir alimentos, procesarlos y manejar los desperdicios.
 
Durante las seis semanas del curso se hizo hincapié en algunos de los problemas más importantes de estos microecosistemas, como por ejemplo los métodos de producción de alimentos, para lo cual se emplea la cámara de producción de biomasa, un depósito herméticamente cerrado, donde se cultivan plantas bajo condiciones controladas y que se monitorean mediante complejos sistemas de cómputo. Asimismo se evalúan otros métodos de crecimiento de plantas como el cultivo de tejidos vegetales.
 
Se intentará introducir en este sistema un acuicultivo con mojarras Tilapia sp., las cuales proveerían a la tripulación de la proteína animal necesaria para su alimentación; no obstante quedan por resolver muchos problemas inherentes al manejo de los residuos animales y vegetales, para lo cual se incluirán microorganismos con la capacidad de reincorporar al ciclo todos los componentes no asimilados por las plantas y la tripulación.
 
El adecuado manejo de los biorreactores determinará el buen funcionamiento del sistema; cualquier imprecisión podría repercutir en su desequilibrio e incluso destruirlo. Por lo tanto todas las fases son monitoreadas por sofisticados equipos de cómputo que cotejan, minuto a minuto los diversos parámetros reguladores del sistema, advirtiendo al personal sobre cualquier anomalía; al mismo tiempo se trabaja con sistemas expertos en la predicción de los efectos que causará sobre el microecosistema cualquier deficiencia en sus componentes.
 
En cuanto al procesamiento de alimentos, se intenta aprovechar al máximo la biomasa de los vegetales, mediante procedimientos sencillos que consuman el menor tiempo posible. Por eso al final del programa se evaluaron diversos platillos elaborados a base de los cultivos obtenidos en la cámara de producción de biomasa, con el propósito de ir haciendo un recetario completo y accesible para las futuras misiones del espacio.
 
Desarrollo de experimentos en vuelo
 
Con la puesta en órbita de las estaciones espaciales Salyut y Skylab en los setenta, se abrió una nueva etapa dentro de la era espacial, que se podría llamar la del desarrollo de experimentos en vuelo. 
   
Actualmente se realizan múltiples experimentos dentro de los transbordadores espaciales, poniendo especial énfasis en la Biología Vegetal Espacial.
 
Si se considera que las plantas constituirán la principal fuente de alimento en las misiones de larga duración, la comprensión de sus procesos de desarrollo y crecimiento, en un ambiente ingrávido, son cruciales para el futuro.
 
En ese sentido se ha establecido que la naturaleza gravitrópica de las raíces, provoca en éstas un crecimiento desordenado ante la exposición a la microgravedad y la división celular y el desarrollo embrionario parecen inhibirse. La situación se agrava si tomamos en cuenta que los sistemas de suministro de nutrientes empleados en tierra, no funcionarían en el espacio.
 
En el Centro Espacial Kennedy se experimenta con diversos sistemas de nutrición vegetal, independientes de la gravedad; entre ellos mencionaremos uno que consiste en que, a través de un tubo poroso, se hace circular, a presión, una solución cargada de minerales esenciales para el desarrollo de las plantas, cuyas raíces se introducen a través de los poros, absorbiendo los elementos que le permiten seguir creciendo; al mismo tiempo se coloca una membrana hidrofóbica a lo largo del tubo, con lo que se impide la salida de la solución nutritiva.
 
El vacío creado en un recipiente de plástico donde se encuentra un vástago, permite el flujo de una solución hidropónica que baña sus raíces; por el recipiente sellado a la perfección se asoma el tallo que crece vigorosamente, mientras la solución aspirada por el sistema de vacío circula por un gran número de contenedores similares.
 
Diversos tópicos de Biología
 
No toda la actividad del Centro Espacial Kennedy se concentra en las misiones del futuro, sino que, por estar ubicado dentro de un refugio de vida silvestre, la agencia espacial es responsable de preservar el equilibrio ecológico de la zona; como sabemos, los lanzamientos producen grandes cantidades de contaminantes que amenazan a las especies del lugar, por tal motivo la NASA dirige importantes estudios de impacto ambiental, que incluyen el seguimiento de especies endémicas como las serpientes índigo y algunas aves; en diversas ocasiones constatamos los esfuerzos de los investigadores por conocer más sobre la biología de estos organismos, con el propósito de mantenerlos a salvo de los efectos de la actividad que la agencia espacial desarrolla en esta región de la Florida.
              
Fue así como entre lanzamientos y aterrizajes del transbordador, plantas, serpientes y mucho más, se desarrolló el SLSTP-ISY 1992, con un cúmulo de experiencias y emociones que nos hicieron olvidar por un instante las fronteras, esperando que en un futuro, cuando la exploración del Sistema Solar esté en su apogeo, se consolide la unificación de las diversas agendas espaciales para que, juntas, permitan al hombre viajar a las estrellas y más allá.
 
 articulos
_____________________________________
     
Francisco Luis Aviña Cervantes
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
________________________________________
     
cómo citar este artículo 
 
Aviña Cervantes, Francisco Luis. 1993. Un vistazo a la tierra del mañana. Ciencias, núm. 30, abril-junio, pp. 51-53. [En línea].
     

 

 

You are here: Inicio Búsqueda Autor revistas revista ciencias 30