revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
noticiencia         menu2
índice 24
siguiente
anterior
PDF
            R024B06
Las ciencias
en la educación nacional
César Carrillo Trueba 
   
   
     
                     
El número de estudiantes que ingresan cada año
a las carreras de Ciencias ha disminuido vertiginosamente en los últimos años. Esto se explica por el hecho de que la actividad científica en México está muy mal remunerada, escasean los empleos y es poco reconocida socialmente. Por ello, carreras como Administración de Empresas, Contaduría, o Ciencias de la Comunicación, siguen aumentando sus matrículas mientras el árbol del conocimiento languidece.
 
Sin embargo, hay un factor poco mencionado y que quizá sea tan importante como los demás: la manera en que se lleva a cabo la enseñanza de las ciencias en las escuelas primaria y secundaria.
 
Según los resultados de un estudio dirigido por Gilberto Guevara Niebla, publicados en la revista NEXOS del mes de julio de este año, el nivel medio de conocimientos de los estudiantes mexicanos de primaria y secundaria, es alarmantemente bajo.
 
El estudio tiene como base la aplicación de dos exámenes, uno entre alumnos de 6° de primaria y otro entre estudiantes de 3er año de secundaria. El objetivo era “medir el nivel de conocimiento de los alumnos, de acuerdo a los programas de estudio vigentes”.
 
Entre los datos más generales de este trabajo destacan, por ejemplo, que de los 3248 niños de 6° de primaria examinados, sólo el 16.3% obtuvo calificaciones promedio superiores a 6, y el promedio general fue de 4.83. La diferencia de promedio entre las escuelas privadas (6.55), las estatales (4.90), los federales (4.72) y las federales descentralizadas de la SEP (4.52), es otro hecho relevante. Las calificaciones más bajas se obtuvieron en las zonas rurales y en los estados de Yucatán, Tabasco, Campeche y Guerrero, y los alumnos del turno matutino superaron a los del vespertino y diurno.
 
El punto que aquí nos interesa particularmente (para mayor detalle ver NEXOS, julio de 1991), es el lugar que ocupan las materias científicas en la escala de calificaciones por materia: el último.
 
En el examen de primaria, sólo un 15.5% aprobó el de matemáticas, en el cual el promedio general se encuentra por debajo de la media (4.3), mientras que el de Ciencias Naturales es igual a la media (4.83). Ciencias Sociales (4.88) y Español (5.23) superaron la media.
 
El examen de secundaria, aplicado a 4755 estudiantes de 3° de secundaria, arrojó resultados semejantes. El promedio general fue de 3.97, y sólo el 3.8% de los alumnos aprobó con calificación promedio superior a 6. Nuevamente las escuelas particulares aparecen por encima de las públicas, aunque por menos cantidad que en el nivel de primaria, y las calificaciones más bajas se obtuvieron en las zonas rurales y en los estados de Campeche, Chiapas y Yucatán.
 
Las áreas científicas no perdieron su lugar, aunque ahora las matemáticas (3.47 de promedio) se encuentran por encima de las Ciencias Naturales (3.4). En estas últimas curiosamente la Química ocupa el lugar más alto, seguida por la Biología y después la Física.
 
Ciencias Sociales (4.01) y Español (5) conservaron sus respectivos lugares.
 
El abandono en que se encuentra nuestro sistema de educación es aún mayor en esta área, como se puede observar en estos resultados. De no acabar con este estado de cosas, México seguirá siendo, como lo señala este trabajo, un país de reprobados.
 
articulos
_____________________________________________________________      
César Carrillo Trueba
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
_____________________________________________________________      
cómo citar este artículo
Carrillo Trueba, César. 1991. Las ciencias en la educación nacional. Ciencias núm. 24, octubre-diciembre, p. 70. [En línea]
     

 

 

R24Articulo08
  menu2
   
   
Lourdes Esteva, Guillermo Gómez,
Juan Hernández y Marco Zepeda
     
               
               
El estudio de los brotes epidémicos y sus posibles causas
data de tiempos muy antiguos. Hipócrates (459-377  a. C.), en su ensayo sobre “Aires, aguas y lugares”, escribió que el temperamento de las personas, así como sus hábitos y el medio ambiente que les rodea, son factores importantes para el desarrollo de una enfermedad, lo cual suena razonable aún en estos tiempos. En todas las épocas, las epidemias se han atribuido a espíritus malignos, castigo de dioses o conjunción de planetas. Así por ejemplo, Alexander Howe (1865), en Leyes de la Pestilencia, menciona que el intervalo de tiempo entre dos epidemias consecutivas está en relación con el periodo lunar. Aún en la actualidad, hay quien afirma que el SIDA (síndrome de inmunodeficiencia adquirida) es un castigo divino.
 
En 1760, el matemático Daniel Bernoulli presentó ante la Academia Real de Ciencias de París un trabajo en el cual, aparentemente por vez primera, usó un modelo matemático para estudiar la difusión de una enfermedad infecciosa en la población y las ventajas de un programa de vacunación. El origen de este trabajo fue el siguiente: Durante la primera mitad del siglo XVIII se introdujo en Europa la técnica de variolación o inoculación contra la viruela, mal que en esos tiempos azotaba a la población a grado tal que, curiosamente, que en los registros de la policía de la época, como señas características para reconocer a un delincuente, se hacía notar la ausencia de marcas de viruela en el rostro.
 
La técnica de variolación, usada desde tiempos remotos en India y China, consiste en inocular, con el material tomado de una pústula de viruela de un caso activo a un individuo susceptible de contraer la enfermedad, con la intención de producir en él un ataque ligero. Una vez que la persona se recuperaba de la enfermedad adquiría inmunidad permanente. Este es el antecedente de los modernos y más confiables métodos de vacunación. Por supuesto, la técnica de variolación tenía sus riesgos, ya que un individuo inoculado podía morir de la enfermedad adquirida, aunque esto sucedía raramente. También se corría el peligro de provocar brotes epidémicos debido al contacto del individuo inoculado con otros susceptibles a la enfermedad que lo rodeaban. Esto produjo una gran controversia acerca de la efectividad de este método y los daños potenciales que podía producir a la población en general.
 
Bernoulli, quien además de matemático era médico, se interesó en el problema, y para evaluar la efectividad de la técnica de variolación, con miras a influir en las políticas de salud vigentes en esa época, formuló y resolvió su famosa ecuación diferencial y evaluó los resultados en términos de las medidas de control involucradas. Así este problema teórico no sólo surgió de un problema real, sino que sus conclusiones se relacionaron directamente con acciones prácticas.
        
Durante la segunda mitad del siglo XIX, el desarrollo espectacular de la Bacteriología, debido a los trabajos de Pasteur (1822-1895), Koch (1843-1910) y otros, fue quizás uno de los factores decisivos en el comienzo real de una nueva ciencia: la epidemiología teórica. La razón es que, gracias a los trabajos antes mencionados, se conocieron los mecanismos físicos de la transmisión de las enfermedades. Así, se dio el gran paso que hizo posible el desarrollo de teorías matemáticas adecuadas para explicar el fenómeno de la propagación de una enfermedad en una comunidad, en contraposición con el uso de descripciones puramente empíricas.
 
La primera contribución importante a la Epidemiología teórica se debió a los trabajos de Hamer (1906), quién postuló que el curso de una epidemia depende de la tasa de contactos entre individuos susceptibles e infecciosos. Esta noción se convirtió en uno de los conceptos más importantes en epidemiología matemática: la ley de acción de masas, la cual dice que la tasa a la cual una enfermedad se propaga es proporcional al número de individuos susceptibles por el número de individuos infecciosos.
 
 
Por la misma época, Ronald Ross (1911) formuló el principio de acción de masas para un modelo continuo, en su trabajo pionero sobre la dinámica de la malaria.
 
Kermack y McKendrick (1927) establecieron el celebrado Teorema del umbral, el cual postula que la introducción de un individuo infeccioso a una comunidad no dará lugar a un brote epidémico, a menos que la densidad de los susceptibles en la población sobrepase cierta cantidad umbral.
 
Los trabajos sobre modelos epidémicos de Kermack y McKendrick han tenido una gran influencia para el desarrollo posterior de modelos matemáticos. La literatura actual sobre este tema es bastante extensa, así como sus aplicaciones en el campo de la medicina preventiva.     
Los modelos matemáticos pueden ayudarnos a predecir el curso de una epidemia dentro de una población; pueden también ser una herramienta útil para detectar los umbrales de población mas allá de los cuales existe el riesgo de una epidemia.
 
En el contexto de una enfermedad endémica (esto es, que permanece todo el tiempo en la población), los modelos matemáticos dan información acerca de cómo los niveles de endemicidad están relacionados con factores que pueden ser controlados por la intervención de las autoridades sanitaras. Ayudan, asimismo, a la elección de programas óptimos de vacunación o de técnicas para la erradicación de ciertas enfermedades. Longini, Ackerman y Elveback (1978) han usado un modelo matemático para decidir que grupos de edad deben vacunarse primero para minimizar el costo o riesgo de muerte en una epidemia de influenza. Hethcote y Yorke (1984) compararon los procedimientos para el control de la gonorrea en la población estadounidense.
 
En muchas ciencias es posible llevar a cabo experimentos para obtener información y con ésta probar hipótesis. Evidentemente, los experimentos sobre enfermedades infecciosas en la población humana son imposibles de realizar por muchas razones. Los datos disponibles en epidemiología provienen de epidemias ocurridas de manera natural o de registros sobre incidencia de enfermedades endémicas; sin embargo, esta información, por lo general, es escasa o está incompleta. La falta de datos confiables da lugar a que la estimación precisa de los parámetros epidemiológicos sea difícil de realizar, por lo que sólo es posible estimar un rango de valores para algunos de esos parámetros. Este tipo de limitaciones se salva con ayuda de modelos matemáticos y simulaciones numéricas, que permiten llevar a cabo experimentos teóricos con gran variedad de parámetros y juegos de datos.
 
En este artículo, ilustraremos mediante un ejemplo simple las potencialidades de la aplicación de modelos matemáticos al estudio de la dinámica de una enfermedad infecciosa. El uso práctico de estos modelos debe descansar firmemente en la información real puesta en ellos. Como siempre, esto no quiere decir que se incorporen a los modelos todos los posibles factores que intervengan en el fenómeno, sino aquellos que, expresados de la manera más simple posible, ayuden a entender los mecanismos que dan lugar a dicho fenómeno.
 
El problema fundamental en epidemiología se puede resumir de la siguiente manera: uno o más infectados se introducen a una comunidad de individuos con cierto grado de susceptibilidad a la enfermedad en cuestión. Ésta comienza a propagarse de los individuos infecciosos a los susceptibles. Los primeros dejan de serlo debido a que se recuperan o se mueren y el número de personas que no son afectadas por la enfermedad va disminuyendo. Finalmente, después de un periodo de tiempo, la epidemia cesa. Entonces, uno se pregunta si ésta se detuvo debido a que ya no existen individuos susceptibles o por la interacción de varios factores, como facilidad de transmisión del agente infeccioso, recuperación del huésped y mortalidad, en cuyo caso quedan aún muchos individuos susceptibles.
 
Como veremos más adelante, aún con los modelos más simples, en epidemiología, se puede dar una respuesta adecuada a este problema.
 
Conceptos Generales
 
Al estudio de la ocurrencia de una enfermedad que ataca a un número de personas se le llama Epidemiología. Una epidemia es un brote temporal mayor de lo usual en una población. Una enfermedad se dice que es endémica si persiste todo el tiempo en la población.
 
La prevalencia se define como el número de casos de una enfermedad en un tiempo dado.
 
La incidencia se define como el número de casos nuevos por unidad de tiempo.
 
La propagación de una infección dentro de una población depende tanto de factores biológicos como de factores demográficos, sociales, económicos, geográficos, etcétera.
 
Entre los factores biológicos destacan: tipo de agente infeccioso, modo de transmisión de la enfermedad, susceptibilidad del huésped al agente patógeno, periodo de incubación, periodo de infecciosidad, tipo de inmunidad que confiere el agente infeccioso al huésped, etcétera.
 
La tabla I muestra la clasificación de algunas enfermedades de acuerdo al agente infeccioso y modo de transmisión.
 
Tabla l. Clasificación de las enfermedades infecciosas por agente y modo de transmisión
agente pers.-pers
pers.-med.amb.
med.amb.-pers
reserv-vector.
vector-pers
virus
sarampión
variacela
rubeola
influenza
poliomielitis
herpes
SIDA 
paludismo
dengue
encefalitis
bacterias
gonorrea
tubercolosis
neumonía
meningitis
tifoidea
cólera
plaga
protozoarios sífilis amibiasis
paludismo
tripanosomas
helmintos
esquistosoma
filariasis
oncocercosis
 
En este artículo ilustraremos algunos conceptos de epidemiología matemática aplicados al caso de una enfermedad de transmisión directa.       
El proceso de difusión de la enfermedad dentro de una población puede estudiarse a partir de modelos compartamentales (Kermack y Mc. Kendrick, Anderson y May, Bailey, Dietz, Hoppenstead). Esto es, se subdivide a la población huésped en diferentes clases; usualmente se distinguen tres:
 
1. De susceptibles (S), consistente en todos aquellos individuos que son propensos a adquirir la infección.
2. De infecciosas (I), compuesta por quienes padecen la enfermedad y pueden transmitirla.
3. De recuperados (Z), a la que pertenecen individuos restablecidos de la enfermedad y, por tanto, inmunes a ella, ya sea temporalmente o de por vida. Se pueden considerar otras clases epidemiológicas: la de los infectados latentes, que incluye a todos aquellos individuos que han adquirido la enfermedad pero aún no la transmiten; la de los portadores asintomáticos integrada por quienes están aparentemente sanos, pero son portadores del agente infeccioso y capaces de transmitirla. la incorporación de otras clases al modelo dependerá, por supuesto, de las características de la enfermedad en cuestión. Por ejemplo, la tifoidea es una enfermedad que se caracteriza por tener portadores asintomáticos.
 
figura24A08 1
Figura 1. Trayectorias en el espacio fase de susceptibles (S) e infecciosos (l) del modelo 3.1-3.3. Cada curva está determinada por las condiciones iniciales I(0) = I0 y S(0) = S0 con Z(0) = 0, por lo que todas las trayectorias comienzan en la línea S + I = N.
         
Para describir la dinámica de la enfermedad, basta conocer el número de individuos de las clases S, I, Z en el tiempo t, lo cual se denota por S(t), I(t), Z(t) respectivamente. Ahora bien, S(t), I(t) y Z(t) dependen a su vez del flujo de individuos de una clase a otra. En el caso particular considerado, dicho flujo estará regido por las siguientes suposiciones epidemiológicas y demográficas:
 
a) Todos los que nacen son susceptibles.
b) El proceso está regido por la ley de acción de masas, el cual, como mencionamos anteriormente, postula que los susceptibles se convierten en infecciosos a una tasa proporcional al producto del número de individuos de ambas clases, con constante de proporcionalidad r, la cual es una medida de la eficiencia de la transmisión de la enfermedad y depende, entre otras cosas, de la virulencia del agente infeccioso, la resistencia del huésped y las condiciones ambientales. Puesto en lenguaje matemático, esto quiere decir que la tasa de pérdida de personas susceptibles y la ganancia de infecciosas es igual a rSI.
c) El periodo de incubación desde el momento de exposición hasta aquel en el que el individuo empieza a ser infeccioso) es lo suficientemente pequeño como para no tomarlo en cuenta, es decir, un individuo susceptible que contrae la enfermedad se convierte inmediatamente en infeccioso.
d) Los infecciosos abandonan su clase para formar parte de los recuperados a una tasa per cápita constante e igual a b. Entonces, el número de individuos expuestos (e inmediatamente infectados) en el tiempo t0, que son aún infecciosos en el tiempo t + t0 está dado por exp(-bt), de donde se obtiene que el periodo esperado de permanencia en la clase infecciosa es 1/b.
e) Los individuos de todas las clases están sujetos a una tasa de mortalidad per cápita, denotada por m, la cual es independiente de la infección. La esperanza de vida es 1/m.
f) La tasa de natalidad es igual a la tasa de mortalidad. Esto quiere decir que la población total es de tamaño constante. Denotaremos por N al número total de individuos de la población, y supondremos que N es lo suficientemente grande como para poder considerar S(t), R(t) y Z(t) variables continuas en el tiempo.
g) La población es cerrada, esto es, no recibe migraciones.
 
Lo anterior se reduce en el diagrama compartamental.
 
figura24A08 2
Diagrama compartamental
 
Un individuo infeccioso abandona la clase en la que está, sea por recuperación o por muerte. Entonces, la tasa de abandono de los infecciosos está dada por (m +b) y el periodo esperado de permanencia en la clase infecciosa, tomando en cuenta la mortalidad, por 1/(m + b).
    
Existen dos conceptos fundamentales en la teoría epidemiológica, a saber: la “tasa de reproducción básica de una enfermedad y el umbral, los cuales nos permiten caracterizar globalmente las distintas epidemias.
 
La tasa de reproducción intrínseca, denotada por R0, se define como el número promedio de infecciones secundarias producidas por un individuo durante su periodo de infecciosidad, en una población donde todos son susceptibles (esto es S = N). Para las enfermedades de transmisión directa, R0 toma la siguiente forma:
 
R0=rN/b           (2.1)
 
en caso de no considerar mortalidad, y
 
R0=rN/(b+m)    (2.2)
 
en caso de que ésta se incluya.
 
La tasa de reproducción efectiva denotada por R, es igual al producto de R0 por la fracción de individuos susceptibles en la población. Entonces
 
R= R0(S/N)     (3)
Observaciones:
 
El valor de R0 dependerá entonces, de las características epidemiológicas de la enfermedad (reflejadas en los coeficientes r y b), así como de la población (reflejada en N y m). Entonces, para una población y una enfermedad particulares, R0 toma un valor constante (ya que r, b, m y N lo son). En cambio R, por depender del número de susceptibles, es una variable que cambia con el tiempo, aún para una misma población y enfermedad.
 
Los conceptos de R0 y R son análogos en epidemiología, a la tasa bruta y neta de reproducción de una población, y ambos provienen de la demografía.
 
Los umbrales son valores críticos de variables como la tasa intrínseca de reproducción, la densidad de la población susceptible, o la densidad de la población vector, los cuales deben ser rebasados para que ocurra un brote epidémico en la población, o una enfermedad permanezca de forma endémica en la comunidad.
 
El modelo y sus aplicaciones prácticas
 
En esta sección se expondrá el modelo clásico de Kermack y McKendrick (1927), el cual, como ya se dijo, a pesar de su simplicidad, puede darnos información relevante acerca de un proceso epidémico y de hecho en muchos casos describe adecuadamente epidemias específicas. En él no se consideran las variables demográficas. Es apropiado para aquellas enfermedades en las cuales la infección confiere al huésped inmunidad permanente y produce escasa mortalidad. Entre las enfermedades de este tipo están la rubeola, varicela, sarampión, paperas y, en general, casi todas las enfermedades infantiles.
 
Si el caso que nos ocupa es un brote epidémico de alguna enfermedad de este tipo, no es necesario considerar nacimientos ni muertes, debido a que por lo general las epidemias tienen un periodo de duración relativamente corto (menos de un año) y, por tanto, la demografía de la población afecta poco a la dinámica de la enfermedad.
 
De acuerdo con las suposiciones hechas en la sección anterior, tenemos una comunidad de tamaño N, compuesta, en el tiempo t, de S(t) susceptibles, I(t) infecciosos y Z(t) recuperados. Entonces S(t) + I(t) + Z(t) = N. En un intervalo de tiempo Δt, se producen rSI  Δt infecciones nuevas y bI  Δt recuperados. Por tanto, de acuerdo con el diagrama compartamental, el cambio promedio de las tres poblaciones S, I y Z, en un intervalo de tiempo Δt, es:
 
ΔS= -rSIΔt  
ΔI=rSIΔt-bIΔt  
ΔZ= bIΔt
 
Dividiendo entre t y tomando el límite cuando t tiende a 0, se obtiene el siguiente sistema de ecuaciones diferenciales:
 
S'(t)= -rS(t)I(t)          (3.1)
I'(t)= rS(t)I(t)-bI(t)   (3.2)
Z'(t)=bI(t)                    (3.3)
 
donde ' denota derivada con respecto a t. La formulación matemática del problema epidémico está completa al dar las condiciones iniciales:
 
S(0)= S0>0, I(0)= I0>0, R(0)= 0      (3.4)
 
Encontrar la solución del sistema de ecuaciones diferenciales, implica encontrar tres funciones S(t), I(t) y Z(t) tales que las igualdades 3.1 a 3.4 se cumplan para toda t0 y tc.
                   
Ahora bien, la pregunta clave en una situación epidémica es, dados r,b y S0, así como el número inicial de individuos infecciosos I0, cuándo se propagará la infección y cuando no, y en caso de propagarse, cuál será su desarrollo en el tiempo, y por supuesto, cuándo comenzará a declinar. Este tipo de preguntas se puede responder al hacer el análisis cualitativo del sistema dado por las ecuaciones 3.1 a 3.3. Esto es, conociendo la forma que tienen las soluciones, y no tanto su expresión analítica, podemos saber cuando el número de infectados crece o decrece, y por tanto, si habrá un brote epidémico o no. La forma de una función se puede conocer a partir del análisis de su derivada: si ésta es positiva, la función es creciente; si es negativa, la función es decreciente; si es cero, la función tiene un máximo o un mínimo o un punto de inflexión (un punto donde la concavidad de la gráfica cambia), etcétera. Al hacer el análisis cualitativo del sistema 3.1 a 3.4, resulta que las gráficas de S(t) vs I(t) para distintas condiciones iniciales S0 e I0 tienen la forma ilustrada en la figura 1. A estas gráficas se les denomina trayectorias solución del sistema, y al espacio SI, espacio fase de dimensión 2.
      
Podemos lograr algunos resultados importantes a partir de las trayectorias del sistema 3.1 a 3.4 en el espacio fase de dimensión 2: Cada curva está determinada por las condiciones iniciales I(0) = I0 y S(0) = S0. Si Z(0) = 0, todas las trayectorias comienzan en la recta S + I = N y permanecen dentro del triángulo, ya que 0 < S + I = N para toda t. Si las condiciones iniciales están a la izquierda de la línea S(t) = b/r, I(t) es decreciente; si se encuentran a la derecha, entonces I(t) crece hasta un máximo que se encuentra sobre la línea, y después decrece hasta cero. En la gráfica se observa también que S(t) es decreciente y se acerca a un valor límite mayor de cero.
 
Por tanto, si S0 < b/r, el número de infecciosos tiende a 0 cuando t tiende a infinito, por lo que la infección desaparece, esto es, no ocurre una epidemia. Por otro lado, si S0 > b/r, entonces I(t) inicialmente aumenta y ocurre una epidemia. El término epidemia significa que I(t) >I0 para alguna t > 0. Así, el número inicial de susceptibles en la población es la cantidad umbral que determina el posible estallamiento de una epidemia en la comunidad, y el valor umbral correspondiente es b/r = N/R8.
 
Recordando que la tasa efectiva R = R0S0/N =rS0/b, se obtienen también los siguientes resultados: Si R < 1, el número promedio de casos infecciosos secundarios producidos por un infeccioso en una comunidad con un número inicial de susceptibles S0 es menor de uno, entonces el número de infecciosos decrece con el tiempo. Si R > 1, cada infeccioso producirá en promedio más de un caso infeccioso en la comunidad, por la que el número promedio de infecciosos aumentará dando lugar a un brote epidémico.
 
En caso de que exista una epidemia nos gustaría saber que tan severa resultará. En la figura 1 se observa que el máximo de I(t), denotado por Imáx, ocurre cuando S(t) = b/r (que es el valor de S para el cual I'(t) = 0). De las ecuaciones 3.1 a 3.4 se puede obtener que
 
Imáx= N-b/r+ln(b/rS0)      (4)
 
Así, si I0 está muy lejos de Imáx, podemos concluir que la epidemia es severa.
 
Por último, otra consecuencia importante del análisis cualitativo del sistema es que se puede observar que I(t) tiende a 0 y S(t), a S cuando t tiende infinito, es decir, la enfermedad desaparece por falta de infecciosos y no por falta de susceptibles.
 
Raggett aplicó el modelo anterior a un brote de peste en el poblado de Eyam, Inglaterra, durante 1665. En este incidente, los habitantes decidieron acordonar el poblado con el fin de que la enfermedad no se propagara a los pueblos vecinos, y lo lograron. Hacia el final de la epidemia sólo sobrevivieron 83 individuos de la población original de 350. En este caso, S 5 83 y S0 5 350. Raggett determinó los parámetros del modelo a partir de los datos disponibles y del conocimiento de la etiología de la enfermedad. Usó el criterio de que, aunque la forma inicial de la peste fue probablemente la bubónica, la forma neumónica (que se transmite a través de la tos de la víctima) prevaleció la mayoría del tiempo. Los resultados que obtuvo usando el modelo SIZ se ajustan muy bien a los datos empíricos.
 
Además del ejemplo mencionado, existe una gran variedad de situaciones en las cuales la concordancia entre las predicciones obtenidas con este modelo y los datos empíricos es bastante satisfactoria.
          
Si se desea estudiar una enfermedad endémica en una comunidad o el comportamiento de los brotes epidémicos durante un periodo de tiempo largo, es necesario considerar las variables demográficas, ya que debemos introducir los nacimientos como fuente de nuevos sujetos susceptibles, y considerar la mortalidad en cada clase. El modelo resultante puede ser analizado también con métodos cualitativos, ya que es igualmente un sistema de ecuaciones diferenciales. En este caso, para algunos valores de los parámetros, las trayectorias (S(t), I(t)), en el espacio fase, pueden presentar oscilaciones, que se suelen llamar ciclos epidémicos.
 
figura24A08 3
Figura 2. Comparación entre las curvas S(t) e I(t) obtenidas con el modelo 3.1 y 3.6 y los datos empíricos (•) de una epidemia de influenza ocurrida en un intervalo de niños ingleses. Los datos aparecieron en la Revista Médica Inglesa en marzo de 1978. N = 763, S0=762, I0=1 b/r = 202, r=2.18 x 10-3 /día. Claramente R=S0 r/b > 1. Tomado del libro Mathematical Biology, autor: J. D. Murray, Ed. Springer Verlag.
               
Comentarios
 
Aunque el modelo presentado en este artículo, da alguna información acerca de los procesos de difusión de una enfermedad, la mayoría de los modelos que actualmente se aplican a enfermedades específicas son mucho más complicados, pues contemplan una variedad de aspectos que no son cubiertos por los modelos básicos presentados aquí.
           
Así, por ejemplo, existen algunos que contemplan las oscilaciones periódicas de ciertas enfermedades. (Dietz, 1975; Hetchcote y Levin, 1988). En este artículo hemos supuesto que la población es uniforme y se mezcla de manera homogénea; sin embargo, muchas enfermedades se propagan de distinta manera en diferentes grupos de la población (tal es el caso de las enfermedades venéreas). Por tanto, existen modelos (Hetchcote y Yorke, 1984) que consideran a la población dividida en subpoblaciones en las cuales la enfermedad tiene diversas características epidemiológicas. También existen modelos que estudian el fenómeno de propagación de una enfermedad no sólo en función del tiempo, sino también de la edad de la población huésped, ya que es claro que para muchas enfermedades la fuerza de la infección depende también de este factor (Anderson, 1982; Hoppenstead, 1974). Existe asimismo una gran cantidad de investigaciones enfocadas hacia el estudio de la distribución espacial de una enfermedad (Rvachev y Longini, 1985).
 
Por último, diremos que el estudio de la difusión de una enfermedad se puede hacer también usando un enfoque probabilístico. A este respecto, Bailey (1975) hace una recopilación de los diferentes modelos epidemiológicos, usando para cada uno tanto el enfoque determinista como el probabilístico.
 articulos
Referencias Bibliográficas
 
Anderson, R. M., 1982, Population dynamics of infections diseases theory and applications, Chapman and Hall, London.
Bailey, N. T. J., 1975, Mathematical Theory of Infectious Diseases, 2nd ed., Griffin, London.
Bernoulli, D., 1760. Essai d’une nouvelle analyse de la mortalité causée par la petite vérole et des avantages de Inoculation pour la prévenir, Mem. Math. Phys and Roy. Sci., Paris, 1-45.
Coddington, E. A. y Levinson N., 1955, Theory of Ordinary Differential Equations, Mc.Graw Hill, New York.
Dietz, K., 1975, Transmission and control of arbovirus diseases, Epidemiology, F. Ludwing y K. L. Cooke eds. SIMS 1974 Utah Conference Proceedings, SIAM, Philadelphia, pp. 104-121.
Dietz, K., 1975, The incidence of infections diseases under the in?uence of season fluctuations. Lecture Notes in Biomathematics 11, Springer-Verlag, New York, pp. 1-15.
Hamer, W. H., 1906, Epidemic disease in England, Lancet I, 733-754.
Hetchcote, H. W., 1976, Qualitative analysis for communicable disease models, Math. Biosc. 28, pp. 335-356.
Hetchcote, H. W., 1983, Measles and rubella in the United States. Am. Journal of Epidemiology 117:2-13.
Hetchcote, H. W. y S. A. Levin, 1988, Periodicity in epidemiological models. Mathematical Ecology, Vol. II, Springer Verlag.
Hetchcote, H. W. y J. A. Yorke, 1984, Gonorrhea transmission dynamics and control, Lecture Notes in Biomathematics, 56.
Hoppenstead, F. C., 1974, An age dependent epidemic model, Journal of the Franklin Institute 295, no. 5, pp. 325-333.
Kermack, W. y A. McKendrick, 1927, Contributions to the mathematical theory of epidemics, Proc. Ray. Soc. A. 115, pp. 700-721.
Longini, I. M. Jr., E. Ackerman y L. Elveback, 1978, An Optimization model for influenza, Math. Biosci., 38, 141-157.
Murray, J. D., 1989, Mathematical Biology, Biomathematics Texts, vol. 19, Springer Verlag.
Raggett. G. F., 1982, Modeling the Exam plague, Bull. Inst. Math. and its Aplic. 18, 221-226.
Rvachev, L. A. e I. M. Jr. Longini, 1985, A mathematical model for the global spread of influenza, Math. Biosci. 75, 3-22.
Ross, R., 1911, The prevention of Malaria, Murray 2nd ed., London.
 
 
 
____________________________________________________________      
Lourdes Esteva, Guillermo Gómez, Juan Hernández y Marco Zepeda.
Grupo de Biomatemáticas, Departamento de Matemáticas,
Facultad de Ciencias,Universidad Nacional Autónoma de México.
     
____________________________________________________________      


cómo citar este artículo

Esteva, Lourdes; Gómez Guillermo; Hernández Juan y Zepeda Marco. 1991. Matemáticas y epidemiología. Ciencias núm. 24, octubre-diciembre, pp. 57-63.

     

 

 

noticiencia    
 
  menu2
            R024B03
Paliativos salariales:
éxito del PEPRPA
Jóse Ruiz de Esparza
   
   
     
                     
Por paliativo se entiende un remedio aplicado a un
enfermo incurable con la finalidad de mitigar el sufrimiento. Hasta ahora ese parece ser el sentido de las acciones emprendidas con relación a los ingresos económicos de los académicos de la UNAM. Así se aprecia en las conversaciones entre universitarios, cuando surge el recurrente tema del salario que padecen los profesores, los investigadores y los técnicos académicos.
 
Hay quienes proponen directa y claramente que las autoridades universitarias debieran asumir el papel de dirigentes de una Universidad Nacional y Autónoma, y actuar en consecuencia; esto es, planeando y ejerciendo el presupuesto de acuerdo con los propósitos de la institución y sus necesidades internas, y restándole importancia a los deseos y políticas generados extrauniversitariamente.
 
Este enfoque va asociado a la inconformidad por el excesivo peso que las funciones administrativas tienen dentro del gasto de la UNAM, en detrimento de los recursos necesarios para cumplir sus funciones sustantivas. Llama la atención el número de comentarios que generan los elevados salarios de los funcionarios administrativos, quienes ocupan esos puestos sin la obligación de presentar un examen; sus salarios en ocasiones triplican los de académicos con tres décadas de antigüedad en la institución e innumerables méritos y evaluaciones. Sin duda es válido y loable que los funcionarios quieran progresar en su carrera personal, lo que es difícil de justificar es que algunos se promuevan con dinero en la UNAM.
 
Los comentarios se completan con menciones a la creación de dependencias administrativas como las “direcciones generales”, que no responden de sus acciones ante el Consejo Universitario. Se dice que la cantidad de dinero de que disponen esas dependencias burocráticas es, desde hace muchos años, mayor que la destinada al sector de investigación, por ejemplo.
 
No obstante lo anterior, el aparato burocrático afecta impunemente la vida académica y el desempeño de sectores completos; tal es el caso de la Dirección General de Apoyo al Personal Académico (DGAPA) y su relación con el sector de investigación. Su Programa de Estímulos a la Productividad y al Rendimiento del Personal Académico (PEPRPA) es un éxito, a pesar de todo. El mayor logro de este programa es su contribución al deterioro de la legislación universitaria vigente mediante el establecimiento de “condiciones generales, bases y requisitos” diferentes de los establecidos en el Estatuto del Personal Académico y en el contrato colectivo; contribución nada despreciable a la cantidad de disposiciones violatorias de la legislación universitaria que un día futuro hará inoperante a la Ley Orgánica, los estatutos General y del Personal Académico y al contrato colectivo. Además la DGAPA determina el presupuesto y patrón de distribución de estímulos correspondiente a cada dependencia; es decir, sin más, una dependencia administrativa se sobrepone a los criterios académicos. Ahora ya es claro que en el PEPRPA lo que verdaderamente se evalúa es el ingenio para acumular “pilones”, o sea, puntos. Si la verdadera intención fuera acabar con la deshonestidad de algunos académicos y las corruptelas de algunos funcionarios y autoridades, bastaría con aplicar la legislación vigente.
 
Destacan algunas imprecisiones y vaguedades en este programa, pero especialmente surge una duda: ¿por qué se excluye del PEPRPA el trabajo docente en instituciones que no tienen convenios con la UNAM? La legislación universitaria determina que la UNAM debe tener un carácter nacional y extender con la mayor amplitud posible los beneficios de la cultura y precisa que el propósito esencial de la UNAM es estar íntegramente al servicio del país y de la humanidad. Todo ello con absoluto respeto del principio de libertad de cátedra y de investigación. ¿Por qué una instancia administrativa devalúa ese trabajo docente?
 
Otro detalle especialmente interesante en este caso es el manejo de la información acerca del PEPRPA. Ante todo resalta la mala fe con la que se han usado los recursos universitarios para ocupar espacios privilegiados en los medios de comunicación y hacer creer a la opinión pública que ahora sí los profesores e investigadores universitarios pueden ganar un buen salario cuando la verdad es que apenas el 1 por ciento de los académicos, es decir a lo más 70 personas, recibieron el dinero equivalente a los siete salarios mínimos.
 
El PEPRPA es un éxito y lo será más en el futuro, ya que agudizará los problemas de enseñanza e investigación dentro de la UNAM. Al favorecer la calificación del trabajo académico con fines utilitarios, seguirá dañando investigaciones que son vitales para nuestra nación, investigaciones que requieren trabajo y esfuerzos sostenidos durante plazos largos. Además seguirá generando un alarmante descenso en el profesionalismo, el interés y la estima entre académicos.
 
Debido a estas razones, la Rectoría está recibiendo cartas de protesta por las medidas tomadas y las declaraciones de las más altas autoridades universitarias, quienes han abandonado toda actitud ambivalente y ahora argumentan en contra de los universitarios. Será un gran día cuando volvamos a ver a los miembros de la Junta de Gobierno utilizar su influencia para apoyar a la Universidad.
 
Nota tomada de La Jornada, 12 mayo, 1991.
 
articulos
 _____________________________________________________________      
José Ruiz de Esparza
     
 _____________________________________________________________      

cómo citar este artículo
Ruiz de Esparza, José. 1991. Paliativos salariales: éxito del PEPRPA. Ciencias núm. 24, octubre-diciembre, pp. 66-67. [En línea]
     

 

 

noticiencia      
 
  menu2
            R024B04

Pumas Estimulados

Grupo Pandora
   
   
     
                     
¡Goya! ¡Goya!, cachún, cachún, ra, ra…
UNAM campeón. Juego vistoso y noble. Hay campeón para rato.
El rector Sarukhán, como dice la Gaceta “…sintiéndose más universitario que nunca… roció la sidra del festejo a los campeones”.
 
En el otro lodo, en el vestidor de las Águilas, hay enojo y tristeza. ¿Qué hacemos para el año próximo? Como van no hay quien los pare; si con el espíritu Puma hasta el Tuca corre.
 
Los demás equipos, Chivas, Camoteros, Tecos, Tiburones, etcétera, se desesperan. Reunión urgente de todos los equipos de la primera división. Alguien dice:
 
—Es el colmo, hasta parece que juegan fútbol, esto es inadmisible.
 
Desconcierto, gritos, jaloneos, hasta que se oye una voz engolada, como de cronista de Televisa que comenta:
 
—Hay que destruirlos y yo sé cómo. Convenzamos al doctor Sarukhán para que inicie un Programa de Estímulos a la Productividad como premio a los jugadores. Inclusive puede ser manejado por la DGAPA, que se convertiría en la DGAPAyF, la Dirección General de Apoyo al Personal Académico y Futbolístico —todos ponen cara de sorpresa y nadie entiende. El de la voz de locutor se aclara la garganta y explica:
 
— Es muy claro. La DGAPAyF saca una convocatoria inentendible y solicita los informes de los últimos tres años. Imagínense a Patiño, Nava, Vera y demás, llenando informes en lugar de entrenar, tratando de recordar los entrenamientos a los que han asistido, los partidos jugados completos e incompletos, goles anotados, penaltis fallados, corners lanzados, ¿cuántos minutos jugué hace dos años contra Cruz Azul?, y cuando creen que ya pueden regresar a entrenar, nada de eso, a conseguir los comprobantes.
 
El cuerpo técnico encargado de la evaluación se devana los sesos haciendo un tabulador. ¿Cuántos puntos dan las tarjetas amarillas?, y las rojas, ¿deben dar puntos?, ¿valen más los partidos arbitrados que los no arbitrados?, ¿y los mal arbitrados?, ¿cuándo el árbitro es extranjero deben valer más?
 
En esto se les va toda la pretemporada. Los jugadores están nerviosos y tensos, pero creen que ya acabaron y cuando van empezando a agarrar el ritmo, les llega un aviso de la DGAPAyF de que al equipo sólo le tocan veinte salarios mínimos y que la distribución en las cuatro categorías, uno, uno y medio, dos y dos y medio salarios mínimos, debe ser una curva gaussiana.
 
En lugar de que el entrenador Mejía Barón les explique las tácticas a seguir en los juegos, se la pasará horas dando explicaciones sobre lo que es una gaussiana, sin responder a la pregunta ¿por qué una gaussiana? Señalando a un miembro del cuerpo técnico, informará a su equipo que le dijeron que además les tocaron dos de cuatro salarios mínimos y uno de siete, calculados a partir de una ecuación.
 
Torres Servín mira incrédulo a su entrenador. España, que tiene más experiencia, intenta explicarles lo que es una ecuación. Para colmo todos desconfían de Mejía Barón que insistió en que se tomara en cuenta la formación y escolaridad. Siendo doctor él mismo, tiene asegurados todos los puntos en ese rubro.
 
De regreso al entrenamiento los jugadores se ven recelosos, ¿quién será el de siete salarios? Luis García fue el goleador, García Aspe anotó los goles importantes, el Tuca metió el bueno, Campos se ufana que jugó de portero y delantero, por lo tanto tiene más rubros cubiertos. García se queja de que como hay topes por rubro, los últimos siete goles ya no le dan puntos. Hay tensión, ya nadie le pasa la pelota a nadie, se pelean por hacer los saques de banda, que dan entre dos y cuatro puntos. Los pumas se van a la segunda división —el hombre de la voz engolada seguía emocionado su discurso, hasta que alguien le dice:
 
—¡Ya párale!, ¿a poco crees que el doctor Sarukhán va a ser capaz de implementar medidas tan absurdas y va a destruir a la UNAM?
 
Nota tomada del El Financiero, viernes 28 de junio de 1991.
 
articulos
 _____________________________________________________________
 
 
 
Grupo Pandora
(José E. Marquina, Raúl W. Gómez, Vivienne Marquina,
Rosalía Ridaura, Ma. Luisa Marquina) 
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
 
 
 _____________________________________________________________
 
 
 
cómo citar este artículo
Grupo Pandora. 1991. Pumas estimulados. Ciencias núm. 24, octubre-diciembre, pp. 67-68. [En línea]
 
 
 
 
 
R24Articulo04
  menu2
   
   
Raúl Rechtman      
               
               
Los autómatas celulares son sistemas dinámicos discretos
que se definen de una manera sencilla y poseen una gran complejidad, aparte de muchas otras bondades. Nos interesa presentar su calidad de instrumento relativamente sencillo para modelar sistemas complejos como gases fuera de equilibrio, ferromagnetos, reacciones químicas, sistemas inmunológicos, interacción entre genes biológicos, y ácidos nucleicos. Como veremos, un autómata celular es esencialmente una regla de evolución temporal sobre un conjunto discreto, es decir, dado un punto de este conjunto, presentamos una regla que le asocia otro punto del conjunto. El estudio de sistemas cuya construcción es sencilla pero cuyo comportamiento resulta extremadamente complicado ha llevado a una nueva disciplina de estudio llamada teoría de sistemas complejos, en la cual los métodos computacionales juegan un papel central. Partiendo de algunos ejemplos sencillos, queremos presentar una breve introducción a esta disciplina.
 
 figura24A04 01
Figura 1. Los primeros cuatro renglones del juego.
 
Para definir un autómata celular empezamos un juego sencillo. Tomamos una hoja de papel cuadriculado y en el primer renglón de arriba para abajo, pintamos o marcamos el cuadrito de en medio. Ésta es la condición inicial del juego cuya regla es la siguiente: pasa al siguiente renglón y marea los cuadritos que estén inmediatamente abajo y a la derecha o a la izquierda de un cuadrito ya marcado. El “0” de la regla debe entenderse como una disyunción exclusiva: a la derecha o la izquierda, pero no ambos. La misma regla se aplica a los siguientes renglones sucesivamente. La primera dificultad a la que nos enfrentamos es que el primer cuadrito del segundo renglón no tiene un cuadrito arriba a la izquierda y el último cuadrito del mismo renglón no tiene un cuadrito arriba a la derecha. Una solución posible consiste en juntar los dos extremos de la hoja para que quede como un cilindro. Así el cuadrito arriba a la izquierda del primer cuadrito del segundo renglón es el último cuadrito del primer renglón, y el cuadrito arriba a la derecha del último cuadrito del segundo renglón es el primer cuadrito del primer renglón. Esta solución se conoce en la literatura respectiva como condiciones periódicas a la frontera. En la figura mostramos el dibujo que se obtiene al aplicar la regla en los primeros cuatro renglones.
 
Extendiendo un poco el lenguaje, podemos decir que la condición inicial ocurre en el instante de tiempo t = 0, el primer renglón en t = 1 y así sucesivamente. Si continuamos con el juego, no muy divertido al principio pero tal vez útil para presentar una introducción a los autómatas celulares, vemos la aparición de un cierto orden sobre la hoja cuadriculada. Por ejemplo, si continúan rellenando renglones, encontrarán un parecido entre el renglón en t = 3 y t = 7, pues tienen una sección en la que se alternan cuadritos negros con blancos. Con un poco de paciencia y perseverancia empezarán a ver una estructura de triángulos dentro de otros triángulos. Una alternativa para jugar el juego es pedirle a una computadora que lo haga por nosotros. En la figura 2 mostramos la evolución del juego después de 256 generaciones. Con una lupa, nos damos cuenta que el renglón en t = 31 y en t = 63 son parecidos a los renglones en t = 3 y t = 7. Esto quiere decir que la estructura crece exponencialmente pues todos estos números (sumando 1) resultan ser potencias de 2.
 
 figura24A04 02
Figura 2. La evolución del juego de t = 0 a t = 255.
 
En este juego podemos hablar de una estructura espacio temporal, pues el espacio es unidimensional en la dirección horizontal y el tiempo corre en la dirección vertical. El dibujo de la figura 2 nos plantea varias preguntas:
 
1. ¿Qué podemos decir de la estructura espacio-temporal?
2. ¿Se puede cambiar la regla?
3. ¿Qué quiere decir “cambiar la regla”?
4. ¿Depende la estructura espacio-temporal de la condición inicial?
 
En lo que sigue intentaremos contestar estas preguntas (aunque no necesariamente en orden) y otras que vayan presentándose en el camino. Empezamos con un poco de notación: a cada cuadrito del primer renglón le llamamos un sitio y los numeramos con un índice i que va de 1 al n. A cada sitio i le asociamos un estado que denotamos por σ(i) que puede ser 0 en caso de que el sitio no esté marcado y 1 en caso de que si lo esté. También podemos pensar en σ como una variable booleana que toma el valor falso cuando el cuadrito no está marcado y el valor verdadero cuando el cuadrito está marcado. Una tercera interpretación es pensar que en cada sitio hay un “individuo” que puede estar muerto (cuando el estado es 0) o vivo (cuando el estado es 1). Entonces la regla con la que hemos estado jugando se puede escribir como
 
σ(i, t + 1) = σ(i - 1, t) ! σ(i + 1, t), i = 1,…, n
 
donde el símbolo ! significa la disyunción exclusiva que mencionamos al principio. Esto puede entenderse mejor con la tabla de verdad que sigue:
 
 σ(i - 1, t)  σ(i + 1, t) σ(i, t + 1)
 0  0
 0 1  1
1 0   1 
1 1  0
 
La tabla de verdad se explica sola, en cada renglón aparecen distintos valores de los argumentos de la regla, seguidos del valor que asigna la regla al sitio para dichos valores.
 
Otra manera de escribir la regla es
 
σ(i, t + 1) = [σ(i - 1, t) + σ(i + 1, t)] mod 2
 
donde mod 2 indica el residuo de dividir el valor numérico que se encuentra dentro del paréntesis cuadrado entre dos. Por ello, a la regla con la que hemos estado jugando se le conoce como la regla “módulo 2”.
 
figura24A04 03
Figura 3. Los primeros ocho renglones del triángulo de Pascal. 
 
Con la nueva notación, las condiciones periódicas a la frontera nos indican que el sitio a la izquierda del sitio 1 es el sitio n y el sitio a la derecha del sitio n es el sitio 1.
 
Ahora regresamos a la primera pregunta. La estructura espacio-temporal de la figura 2 está hecha de triángulos de distintos tamaños, la cual veremos está relacionada con los famosos triángulos de Pascal y de Sierpinski. El primero es una construcción sencilla que nos permite conocer los coeficientes de la expansión de la expresión (a + b)n. Comenzamos con un 1 en el cuadrito del centro del primer renglón de una hoja cuadriculada, el segundo renglón se obtiene sumando los valores de los cuadritos que se encuentran arriba a la izquierda y a la derecha, y así se continúa para construir los renglones siguientes. El enésimo renglón del triángulo contiene los coeficientes de la expansión que buscamos. En la figura 3 mostramos los primeros ocho renglones del triángulo. Si ahora tomamos cada número del triángulo módulo 2, obtenemos los primeros renglones del dibujo de la figura 2.
 
El triángulo de Sierpinski es un poco menos conocido, pues es una construcción geométrica usada para ilustrar un fractal. Se comienza con un triángulo (figura 4 (a)) al cual se le quita un triángulo pequeño del centro de manera que queden tres triángulos iguales (figura 4 (b)). Se repite el procedimiento para obtener el objeto de la figura 4 (c). Las figuras 4 (d) a (f) muestran la aplicación sucesiva de este procedimiento. En el límite, cuando se aplica este procedimiento un número infinito de veces, se obtiene un objeto que tiene agujeros de todos tamaños y que es auto-similar. Esto significa que una parte del objeto magnificada por un factor adecuado es igual al todo. Además, el objeto no llena el espacio en el que se encuentra; decimos que el objeto es un fractal con dimensión fractal df dada por
 
 df = ln(3)/ln(2) = 1.58
 
Hay una gran similitud entre la figura 2 y la figura 4 (f). Si jugamos el juego con la regla módulo 2 durante un tiempo infinito, obtendremos una estructura espacio-temporal que es un triángulo de Sierpinski. A partir de una regla sencilla podemos construir objetos sorprendentes.
 
figura24A04 04
Figura 4. Construcción del triángulo de Sierpinski.
 
Pasamos ahora a tratar de responder las preguntas 2 y 3 relacionadas con la posibilidad de cambiar la regla del juego. En el juego que hemos jugado hasta ahora, el estado en el sitio i al tiempo t + 1, σ(i, t + 1), depende del estado en el sitio i - 1, al tiempo t y el estado en el sitio i + 1 al tiempo t. Para hacer las cosas un poco más interesantes, podemos decir que la regla de evolución del juego depende de los estados en los sitios i - 1, i, i + 1 al tiempo t. Si F denota una regla cualquiera escribimos
 
σ(i, t + 1) = F(σ(i - r, t), σ(i, t), σ(i + 1, t)) (1)
 
y decimos que la regla depende de los estados en una vecindad que incluye al sitio mismo y a los sitios que se encuentran inmediatamente a la izquierda y a la derecha. Podríamos tomar vecindades mayores que incluyeran r sitios a la derecha y r sitios a la izquierda del sitio i y plantearnos las mismas preguntas.
 
Como vimos arriba, una regla puede especificarse de varias maneras; una de ellas es una tabla de verdad, sólo que ahora, dado que hay más variables, ésta será un poco más larga, como puede verse en la tabla 1. Puesto que la vecindad de la cual depende el estado del sitio a t + 1 contiene tres sitios, la tabla de verdad estará formada por 23 = 8 renglones, en los cuales aparecen todas las posibles combinaciones de los estados en los tres sitios. La tabla 1 no es más que otra manera de escribir la regla módulo 2.
 
Tabla 1. La regla módulo 2
 σ(i - 1, t)   σ(i, t)   σ(i + 1, t)   σ(i, t + 1) 
0 0 0 0
 
La primera observación es que podemos construir tantas reglas diferentes como tablas de verdad diferentes haya. Para cada renglón σ(i, t + 1), se puede tomar el valor 0 o el valor 1, por lo que en la última columna de la tabla de verdad, el primer renglón puede llenarse de dos maneras diferentes, el segundo también y así hasta llegar al octavo renglón. El número total de maneras de llenar la última columna es entonces 2 x 2 x … x 2 = 28 = 223 = 256, que es el número de reglas posibles cuando el estado o en un sitio puede tomar sólo dos valores y la vecindad que define la regla de evolución contiene sólo tres sitios.
 
Wolfram numeró las 256 reglas de una manera sencilla. Cada regla tiene una tabla de verdad distinta y el número asociado a la regla es la expresión en base diez del número binario que forma la última columna de la tabla (de arriba a abajo). Así a la regla módulo 2 de la tabla 1 se le asocia el número (01011010)2 = 90.
 
Dado que la regla módulo 2 no depende del estado en el sitio central, las reglas número (00010010)2 = 18, (10010010)2 = 146 y (11010010)2 = 210, generan la misma estructura espacio-temporal que la regla 90 que mostramos en la figura 2. ¿De las 256 reglas, cuántas generan patrones interesantes? La regla 0 y la regla 255 son poco interesantes, pero la respuesta a la pregunta anterior requiere la simulación de cada una de las reglas. Un subconjunto interesante son las reglas llamadas legales por Wolfram, que son simétricas y F(0, 0, 0) = 0. Una regla F es simétrica si F(1, 0, 0) = F(0, 0, 1) y F(1, 1, 0) = F(0, 1, 1). Es claro que sólo hay 32 reglas simétricas pues las tablas de verdad que las definen tienen cinco renglones. En la figura 5 mostramos las 16 reglas legales que generan estructuras espacio-temporales interesantes a partir de la condición inicial en la que el estado del sitio central es 1 y en todos los otros sitios es 0. Vemos que la regla 150 posee una estructura fractal distinta de la de la regla 90.
 
figura24A04 05A
figura24A04 05B
figura24A04 05C
figura24A04 05D
Figura 5. Evolución de las 16 reglas legales interesantes a partir de una configuración inicial en la que el estado del sitio central es 1 y en los demás es cero. Se muestran cuarenta pasos temporales.
 
En efecto, tiene una dimensión fractal df = 1.69…
 
Ahora pasamos a tratar de responder a la pregunta 4, ¿depende la estructura espacio-temporal de la configuración inicial? Empezamos definiendo la densidad ρ como el cociente de sitios vivos respecto al número total de sitios de la red. En la figura 6 mostramos la evolución de la regla 22 partiendo de una configuración inicial aleatoria con ρ0 = 0.5. Es difícil responder a la pregunta anterior viendo la figura, podemos imaginar que la estructura que se genera es un fractal y tratar de encontrar su dimensión fractal.
 
Podemos también ver cómo cambia la densidad con el tiempo y encontramos que para tiempos largos ésta alcanza el valor de ρ = 0.35, para cualquier valor de ρ0 entre 0.1 y 0.9. Las reglas 90 y 126 tienen un comportamiento similar pero para tiempos largos ρ = 0.5 mientras que para la regla 18 ρ = 0.25 y para la regla 182 ρ = 0.75. Estas densidades finales no dependen de la densidad inicial si ésta no es demasiado pequeña o demasiado grande. ¿Cuáles reglas alcanzan una densidad constante para tiempos largos? ¿Depende esa densidad asintótica del tamaño de la red y de la densidad inicial? ¿Qué otras cantidades se pueden medir que caractericen la evolución temporal del autómata? ¿Qué explicación podemos dar para los valores observados de ρ? Las respuestas (a veces sólo parciales) requieren de experimentos en la computadora. Para algunas reglas existe una explicación de por qué llegan a una densidad constante a tiempos largos, para otras se puede establecer una teoría sencilla similar a la teoría de campo medio usada en mecánica estadística para estimar la densidad asintótica.
 
figura24A04 6
Figura 6. Evolución temporal de la regla 22 para 640 sitios partiendo de una configuración inicial con densidad 0.5 durante 480 pasos temporales.
     
Podríamos considerar autómatas celulares unidimensionales donde la vecindad que define la evolución es un poco mayor, digamos que contiene al sitio mismo y a r sitios a la derecha y r sitios a la izquierda. En tal caso el numero total de reglas que se pueden construir es 22(2r + 1). Si r = 2, tenemos más de 4,290,000.000 reglas. Otra posibilidad es la de aumentar el número de estados por sitio, digamos que el estado en cada sitio puede tomar los valores 0, 1, 2,…, k. Entonces el número de reglas posibles es kk(2r + 1). No sólo aumenta el número de reglas, la complejidad de las estructuras espacio-temporales cambia cualitativamente.
 
Una regla particular genera estructuras asintóticas (tiempos largos) similares para distintas condiciones iniciales al azar y distintas reglas generan distintas estructuras asintóticas. Sin embargo, los autómatas celulares unidimensionales elementales (con k = 2 y r = 1) presentan uno de los comportamientos genéricos siguientes:
 
1) evolucionan a un estado homogéneo;
2) evolucionan a una estructura estable o periódica;
3) evolucionan a una estructura caótica aperiódica.
Los autómatas con k > 1 ó r > 1 (y también los autómatas bidimensionales mencionados más adelante) pueden presentar alguno de los comportamientos anteriores o pueden:
4) evolucionar a estructuras localizadas complejas que pueden propagarse.
 
La clasificación anterior se debe también a Wolfram. Los autómatas de la clase 1 evolucionan a una configuración final análoga a un punto limite para un sistema dinámico continuo. Los autómatas de la clase 2 evolucionan a un conjunto límite que contiene unas cuantas configuraciones, mientras que los autómatas de clase 3 evolucionan a conjuntos límites aperiódicos, análogos a los atractores extraños de sistemas dinámicos continuos. Respecto a la clase 4 se conoce poco y no está claro que esté bien definida, pues existen problemas para decidir si un autómata pertenece a esta clase o no, y para decidir qué tienen en común los autómatas que pertenecen a esta clase. Con estas reservas, presentamos en la figura 7 dos autómatas celulares con k = 2 y r = 2 que pertenecen a esta clase.
 
figura24A04 7
Figura 7. Evolución temporal de las reglas 20 y 52 con k = 1 y r = 2 de la clase 4 (la numeración de las reglas no es la misma que la usada anteriormente).
 
¿Por qué limitarse a un espacio unidimensional? En dos dimensiones se puede jugar en cualquier espacio discreto, digamos una red cuadrada. Las vecindades más usadas son la de von Neumann y la de Moore que mostramos en la figura 8. Dado que la vecindad de Moore contiene nueve sitios, el número de reglas posibles es 229 ≡ 1.34 x 10154, si k = 1.
 
figura24A04 8
Figura 8. a) Vecindad de von Neumann, b) vecindad de Moore
 
Los autómatas bidimensionales también caen en las cuatro clases mencionadas anteriormente, y el Juego de la Vida, que discutiremos a continuación, pertenece a la clase 4. Un subconjunto de reglas que se cree posee toda la riqueza del conjunto de reglas definidas en una vecindad de Moore es el conjunto de las reglas totalísticas externas. Una regla totalística externa depende del estado del sitio central y de la suma de los ocho estados de la vecindad. Hay sólo 210 = 1024 reglas totalísticas externas y el Juego de la Vida es la más famosa de ellas. Este autómata, creado por J. Conway y popularizado por M. Gardner se juega con las reglas:
 
a) un sitio que está vivo al tiempo t estará vivo al tiempo t + 1, si tiene 2 o 3 vecinos vivos, en caso contrario morirá;
b) un sitio que está muerto al tiempo t estará vivo al tiempo t + 1 si tiene exactamente 3 vecinos vivos.
    
La condición a) indica que un individuo continúa vivo si tiene con quién platicar, pero si hay mucha gente a su alrededor muere de asfixia y si hay poca de aburrimiento. La condición b) indica, contrariamente a lo natural, que son necesarios 3 individuos para la procreación. Podemos plantearnos muchas de las preguntas anteriores para este juego.
                     
La simplicidad de la regla oculta un comportamiento complejo que justifica su nombre. Aquí nos interesan algunas de las propiedades estadísticas del juego. Partiendo de una configuración al azar, la evolución temporal simula la auto- organización presente en los organismos vivos. Lo que queda a tiempos largos son islas de vida estáticas o periódicas con una simetría bien definida que mostramos en la figura 9.
 
figura24A04 9
Figura 9. El Juego de la Vida en una red de 64 x 57 sitios a t = 910. En este caso ρ0 = 0.3 y ρ = 0.028.
 
Para una configuración inicial aleatoria con densidad inicial entre 0.1 y 0.7 se alcanza siempre una densidad final ρ = 0.029. La evolución temporal puede dividirse en tres partes. La primera está dominada por la ausencia de correlaciones y sigue las predicciones que se pueden hacer con una teoría de campo medio. La segunda parte muestra un decaimiento de la densidad que va como una potencia del tiempo, resultado de las fuertes correlaciones que se van generando. Sin embargo, este comportamiento se pierde a tc ≈ 2000 - 3000, para dar lugar a un nuevo tipo de comportamiento de evolución más lenta y que conjeturamos continúa por siempre en una red de tamaño infinito, pero que en redes de tamaño finito termina en una configuración de la red, en la cual la densidad toma el valor mencionado anteriormente. Vemos que una regla relativamente sencilla da lugar a un comportamiento espacio-temporal extremadamente complejo.
 
Del análisis del comportamiento de los autómatas celulares esperamos, por una parte, poder desarrollar modelos para sistemas particulares, y por otra, buscar principios generales aplicables a una gran variedad de sistemas complejos. Dada la gran cantidad de autómatas celulares, no es de extrañar que alguno modele el sistema en el cual estemos interesados, que puede ser un fluido, un ácido nucleico o cualquiera de los otros sistemas mencionados en la introducción. Lo que si es de extrañar es que alguien haya encontrado el autómata adecuado para el sistema bajo estudio. Por ejemplo, si se modifica un poco la regla del Juego de la Vida, se pierde toda la riqueza del comportamiento espacio-temporal original.
 
El estudio de los autómatas celulares requiere del uso intensivo de computadoras. Se selecciona una regla y una configuración inicial y se sigue la evolución temporal en lo que llamamos un experimento computacional. La clasificación de Wolfram en cuatro clases no es aún definitiva y requiere de mayor estudio. La bibliografía que aparece enseguida contiene los resultados que hemos discutido y puede servir para iniciar el estudio de los autómatas celulares.
 articulos
Referencias Bibliográficas
 
Bagnoli, F., R. Rechtman, S. Ruffo, 1991, Some facts of life, Physica A.
Gardner, M., 1983 Wheels, life and other mathematical amusements, Freeman, San Francisco.
Grassberger, P., 1986, Long range effects in an elementary cellular automaton, J. Stat. Phys. 45:27.
Kaufmann, S.A., 1969, J. Theor. Biol. 22:437.
Packard, N., S. Wolfram, 1985, Two dimensional cellular automata, J. Stat. Phys. 38:901.
Stauffer, D. 1991, J. Phys. A 24:909.
Wolfram, S. 1983, Statistical mechanics of cellular automata, Rev. Mod. Phys. 55:601.
Wolfram, S., 1984, Universality and complexity in cellular automata, Physica 10D:1.
Wolfram, S., 1984, Cellular automata as models of complexity, Nature 311:419.
Wolfram, S. (comp.), 1986, Theory and Applications of Cellular Automata, World Scientific Publications, Singapore.
     
____________________________________________________________
     
Raúl Rechtman
Departamento de Física, Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
____________________________________________________________      
cómo citar este artículo
Rechtman, Raúl. 1991. Una introducción a autómatas celulares. Ciencias núm. 24, octubre-diciembre, pp. 23-29. [En línea]
     

 

 

Você está aqui: Inicio Búsqueda Titulo revistas revista ciencias 24