revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
del herbario             menu2
           
R010B04 
La piña
Patricia Magaña Rueda   
   
   
     
                     

La historia de la piña se inicia en 1493 cuando Cristóbal
Colón en su segundo viaje al Nuevo Mundo descubrió la planta creciendo en la isla de Guadalupe. Era la época en que para los exploradores no sólo era importante encontrar nuevas rutas comerciales o metales preciosos, sino en general todos los productos de valor, como las plantas. Y la piña no fue una excepción, siendo ya cultivada por los indios caribes a la cual daban el nombre guaraní de “anana”. Tan deliciosa pareció a Colón que decidió llevarla de regreso a la reina Isabel.  

La primera pintura de la piña fue hecha por Oviedo y apareció en su libro La Historia General de las Indias en 1535, pero no fue sino hasta 200 años después que se hizo una descripción teórica mas completa de la misma.     

La planta rápidamente se extendió en su cultivo en varias áreas del trópico en El mundo. En 1549 ya estaba cultivándose en la India y hacia 1700 fue introducida a Inglaterra. Cuando la primera piña se cosechó en ese país y fue presentada al rey Carlos, el hecho se consideró de tal importancia que se hizo una pintura que actualmente se exhibe en un museo de Londres. Hacia 1730, el fruto se encontraba “en casi todo jardín curioso”, de acuerdo a un miembro de la Sociedad de Horticultura inglesa, cuyo libro Los modos distintos de cultivar la piña fue publicado en Londres en 1822.   

Las evidencias indican que la piña del siglo XIII había sido domesticada y su lugar en la agricultura precolombina estaba bien establecido. Para la época en que Colón llegó a las Antillas, ya se había hecho una selección de plantas bastante superiores a la Ananas silvestre que crece en las selvas sudamericanas hoy. Probablemente las primeras variedades cultivadas no tenían semillas y entonces, como ahora, requerían de propagación por cortes.   

Ananas comosus (L.) Merril (la piña), se cree que sea un híbrido natural, pero si este evento se llevó a cabo antes o después de su primer uso por el hombre, esto no se sabe. “Comosus” significa penacho de hojas, que en este caso describe la pequeña roseta que crece encima del fruto, y que es una miniatura de la planta madre y puede ser cortado y sembrado para obtener una nueva planta.  

Por cierto, además del delicioso fruto que produce, de la piña se obtiene un producto llamado bromelaína, que es una mezcla de poderosas enzimas digestivas que han sido usadas como ablandadoras de carne y son la causa de tener cuidado al usar la piña en ensaladas o postres con gelatina, ya que la destruyen y pueden causar un desastre culinario.


  articulos
REFERENCIAS BIBLIOGRÁFICAS

Padilla, V., 1986, Bromeliads, Crown Publishes Inc., New York, pp. 4-5, 30-32.
   Benzing, D. H., 1980, The Biology of Bromeliads, Mad River Press Inc., pp. 1-3, 9-10. 
     
_____________________________________________________________
     

Patricia Magaña Rueda

Facultad de Ciencias,
Universidad Nacional Autonóma de México.

     
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

Problemas y acertijos        
 
  menu2
PDF
           

 
Problemas y acertijos
 
 
 
   
   
     
                     
                                                                               1. Una persona está sumergida en una alberca. ¿Podrá ver el fondo de dicha alberca mirando hacia arriba?

2. Elija un número cualquiera, de preferencia mayor a diez. A ese número réstele la suma de sus dígitos. Por ejemplo, elijamos el 12; la suma de sus dígitos es 2 1 1 5 3. Por lo tanto, la operación requerida es 12 2 3 5 9. El conjunto de números obtenidos de esta forma tiene un divisor común. ¿Puede decir cuál es?

 
3. Un destacamento de soldados tiene que pasar indispensablemente un río. Pero el puente está destruido y el río es profundo. ¿Qué hacer? De pronto el comandante ve a dos niños navegando en una barco no lejos de la orilla. Pero la barca es tan pequeña que en ella pueden cruzar el río al mismo tiempo un soldado o los dos niños y nadie más. No obstante todos los soldados pasaron el río precisamente en dicha barca. ¿Cómo lo consiguieron?

 

4. Supongamos que juegan al dominó cuatro personas en forma individual. El primero y el cuarto jugadores tienen, respectivamente, las siguientes fichas:

Jugador 1: (2,0) (3,5) (2,2) (2,3) (3,6) (1,2) (4,3)
Jugador 4: (0,3) (2,4) (3,3) (6,2) (1,3) (2,5) (5,4)

Diseñe un juego en el que el segundo y tercer jugadores no sacan ninguna ficha. ¿Quién ganará la partida? ¿Con cuantos puntos?

 

 

5. ¿Con qué fuerza hay que tensar una cuerda para que se combe?                                                                                 
PREGUNTA SORPRESA:
¿Existen pingüinos fuera de las regiones polares?

 

1. “Esto sucedió en Magdemburgo…”
La presión atmosférica es tan cotidiana que a veces olvidamos su existencia. Cualquier persona u objeto soportará el peso de la columna de aire situada encima de ella.

La presión engendra fuerzas perpendiculares a la superficie de los cuerpos. Cuando los caballos tiraban de la esfera, su acción era menor a la fuerza originada por la presión. Si la esfera tuviera algún orificio habría sido mucho más sencillo separar los hemisferios. La razón es simple: en tal caso, la presión es la misma adentro y afuera. Luego, la fuerza neta engendrada por la presión es cero.

5. “Un caballo y un mulo…”
El mulo cargaba 7 sacos y el caballo 5. 

6. “Uno de los párrafos del texto…”
Tomemos imaginariamente un corte del tubo a la altura de la superficie del agua en el recipiente. Sobre él estará una columna de agua de 45 pies. Ahora, consideremos una parte cualquiera de la superficie del agua en cuya área sea igual a la del corte del tubo. Sobre ésta habrá una columna de gas que se extiende hasta los límites de la atmósfera. Originalmente la columna del agua era más pesada que la columna de aire. Por este motivo el agua descenderá hasta que los pesos sean iguales.

2. “José vende naranjas…”
El déficit en el dinero no es producto de un robo, más bien es ficticio. Imaginemos que al vender 5 naranjas, 3 corresponden a Juan y 2 a José. Al cabo de que los clientes hayan adquirido 50 naranjas, Juan habrá terminado su mercancía, pero a José le quedan 10. Hasta ese momento el monto de las ventas era el previsto. Sin embargo, las naranjas restantes —pertenecientes a José— se venderá a 5 3 20 y no a 4 3 20 (2 3 10), que es el precio original. He ahí la diferencia.
3. “Sembremos una semilla…”
En condiciones normales la raíz de una planta se orienta en sentido de la fuerza de la gravedad. Sin embargo, cuando una semilla germina en una rueda giratoria aparece otro factor, a saber, la “fuerza centrífuga”. Si la rueda gira rápidamente, la raíz estará orientada en dirección radial. (ver figura).
7. “Rodolfo tiene cinco manzanas…”
La respuesta es bastante simple: debe darle a un niño una canasta con una manzana adentro. 
4. “Tome una hoja…”
Supóngase que usamos una hoja cuyo grosor es 0.1 mm. En el primer corte salieron 2 5 2 pedazos; en el segundo resultaron 2 5 4. Al final tendremos en total dos pedazos. Luego, la altura de la pila de papel h 5 2 3 0.1 mm 5 8 3 10 Km.
  articulos  
       
_____________________________________________________________
     
       
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

 

 

 

nota        
 
  menu2
PDF
           

 
El cerebro igualitario
 
 
Georgina Ferry
   
   
     
                     

Los neurólogos han pensado durante mucho tiempo que el cerebro está organizado de manera jerárquica. Pero ahora parece que realmente trabaja en forma democrática e interactiva.

Para un extraterrestre, un juego de “cricket” o futbol   americano resultaría completamente ininteligible sin el conocimiento de ciertas reglas básicas, sobre las cuales están organizados estos juegos. De igual manera, nosotros los humanos quedamos perplejos al analizar nuestros cerebros. Si bien, las acciones del cerebro —como el pensamiento, la conducta o la regulación de las funciones corporales— pueden ser examinadas, las reglas de su organización no están ni con mucho dispuestas de manera comprensible. Los mismos científicos tienen que inferir tales reglas a través de la observación de los efectos de sus incursiones sucesivas dentro del dominio del cerebro, o de los “ataques terroristas” en forma de daño o disfunción neurológicos. La tarea no es nada fácil. Pero la investigación reciente está desplazando la noción de un cerebro organizado en jerarquías por una nueva visión de un cerebro “interactivo”.      

El primer neurólogo que construyó una teoría comprensible acerca de cómo está organizado el sistema nervioso (SN) fue John Hughlings Jackson (o Hughlings-Jackson, como él prefería que lo llamaran), quién nació en 1835. Fuertemente influenciado por la filosofía evolutiva contemporánea y la sociología, optó por los principios jerárquicos que reflejaban las ideas de evolución de las especies y el desarrollo de la civilización. Sus observaciones clínicas le condujeron a ver el SN como una serie progresiva de unidades de menos a más organizadas, de las más simples a las más complejas de las más automáticas a las más voluntarias.       

Para cada función del cerebro —movimiento, habla, conciencia, etc.— estableció una jerarquía de tres niveles, cada uno de los cuales controlaban al inferior. Si una unidad de nivel superior estaba inactiva, las funciones del nivel inferior —normalmente controladas— quedarían libres. La evolución —proponía él— agregó progresivamente niveles superiores de control, ya fuese a través de la historia de las especies o durante la vida de un individuo. El proceso opuesto, “disolución”, se manifestaba por la pérdida de los niveles superiores durante la enfermedad.    

Estas ideas de control y liberación llevaron a Jackson a clasificar los síntomas neurológicos en “positivos” y “negativos”, una distinción que aún se hace en la siquiatría y neurología modernas. Los síntomas negativos, tales como la incapacidad de hablar después de un golpe fuerte, se supo surgían por la ausencia de las unidades que normalmente regulaban la función afectada (el habla, en este ejemplo). Los síntomas positivos, tales como las respuestas reflejas exageradas, se daban por actividad patológica de unidades en los niveles inferiores que perdieron sus influencias reguladoras.    

Jackson basó completamente sus teorías en sus observaciones de pacientes del London Hospital en Whitechapel y de algunas otros lugares. Consideraban la enfermedad neurológica como un “experimento natural” en el cerebro y nunca realizó ningún experimento en el laboratorio.   

¿Qué tanto han permanecido esas ideas hasta los trabajos de los neuro-científicos modernos? La imagen de una jerarquía de tres niveles tiene todavía su atractivo. El cerebro mismo posee tres grandes subdivisiones: cerebro posterior o tallo cerebral, que contiene los sistemas de regulación autónoma como la respiración, la circulación y temperatura corporales; el cerebro anterior, asiento de la consciencia y decisiones voluntarias; y el cerebro medio que inicia el procesamiento de la información sensorial.

Superficialmente, las vías del SN que controlan el movimiento también parecen conformarse al ideal Jacksoniano. Podemos hacer movimientos finos sólo si una secuencia de centros neuronales se activa. La médula espinal por sí sola, como Jackson lo sabía, puede dar inició sólo a movimientos reflejos. Hans Kuypers y sus colegas en el Departamento de Anatomía de la Universidad de Cambridge mostraron que las vías descendientes del tallo cerebral a la médula controlan los movimientos relativamente burdos de las extremidades y posibilitan que una persona consiga un blanco. Las vías descendientes de “cerebros superiores” de la corteza motora a la médula espinal, refinan estos movimientos y permiten a una individuo controlar separadamente sus dedos con precisión. El cerebelo, es la estructura profusamente convulsionada que se extiende alrededor del tallo cerebral, media entre los varios niveles. Pero las relaciones entre estos niveles no son jerárquicas, operan en paralelo y no en serie.         

Algunos tipos de enfermedades cerebrales acarrean la “disociación” del sistema, en el sentido que usó Jackson. El control fino se pierde primero que los movimientos gruesos de las extremidades o el control de la postura. En el Mal de Parkinson, por ejemplo, están dañados centros cerebrales que inician movimientos planeados. Este daño explica la dificultad del paciente para levantarse de una silla o para iniciar la marcha; pero el tremor y la rigidez característicos son más difíciles de explicar. Peter Mathews, del Departamento de Fisiología de la Universidad de Oxford, ha investigado con detalle la rigidez de la gente con Parkinson, identificando un posible mecanismo para ella. Sugiere que algunos cambios en el cerebro alteran la responsividad de las células en los niveles inferiores del sistema, la médula espinal. El resultado es que estas células híper reaccionan a los mensajes de los músculos, los cuales indican el grado de tensión que tienen y envían instrucciones reflejas para que los músculos se contraigan. Esta explicación se ajusta al esquema de Jackson de “liberación” de la actividad patológica en los centros inferiores, cuando los superiores están dañados.       

Mientras que las descripciones del sistema motor aún contienen elementos jerárquicos, la analogía de una estructura de comando autoritaria comienza a romperse cuando miramos el procesamiento que el SN hace de la información sensorial. Ei problema con una jerarquía es que necesita un ápice, como Jackson lo pensaba, tanto que iniciaba sus conferencias dibujando una pirámide en el pizarrón para representar la jerarquía funcional del cerebro.    

Quizás en la visión, como en ningún otro caso, tal ápice ha resultado terriblemente evasivo. No hay una región maestra en el cerebro que diga: “Ajá, así que esto es esto” en respuesta a los reportes subordinados de las regiones que analizan características de la imagen visual. Los programes computarizados que se realizaron en los años 50 y 60, se diseñaron para modelar la forma en que el cerebro reconoce patrones, e incluían algo así como un centro maestro de toma de decisiones. El cerebro se ha negado sistemáticamente a mostrar la existencia de un análogo neuronal. Aún en términos sociológicos, tal acción de toma de decisiones existe.    

Los teóricos computarizados ofrecieron, sin embargo, otros puntos de vista respecto a la organización de la información sensorial que ha resultado más provechosa. Introdujeron el concepto de procesamiento paralelo, por oposición al procesamiento en serie, tanto de los ciclos de retroalimentación positiva y negativa como de los sistemas interactivos. La aplicación de estos conceptos al sistema visual parece compensar las defectos de las nociones jerárquicas.    

Las técnicas que permiten el registro de células aisladas en las cerebros de animales y el hombre, han hecho posible mapear con detalle la forma en que el cerebro reconstruye su entorno visual.        

En las años 60 y 70 David Hubel y Torsten Weisel en la Universidad de Harvard, estudiaran las células de la corteza visual que responden progresivamente a patrones visuales más complejos: un punto de luz, una barra, una barra en movimiento, etc. Además, mostraron áreas visuales sucesivas, aparentemente especializadas en el análisis de aspectos particulares de la escena (designados como áreas V1 y V5). Las células en V1 reciben señales de la retina vía una estación de relevo que codifica la posición de los objetos en su espacio visual, y por sí mismas son sensibles a la localización de líneas simples y bordes. Las células V4 son sensibles a la longitud de onda y las V5 al movimiento. La proposición de una jerarquía Jacksoniana de lo simple a lo complejo parecía excelente para áreas visuales que pasan el mismo conjunto de datos de una a otra y determinan el análisis continuado.       

Pera las nuevas técnicas anatómicas revelan que la supuesta autocracia es al menos democrática y posiblemente anárquica, estrictamente en el sentido de no tener soberano. Nadie sugeriría que la corteza cerebral no está altamente organizada.    

Haciendo uso de las técnicas de marcaje que permiten trazar conexiones de un área a otra, Semir Zeki, del University College en Londres, ha encontrado que las relaciones de las áreas visuales no siguen una secuencia lineal. Mientras que las células en V1 envían terminales a V2, también las envían en forma paralela a V3, V4 y V5. Lejos de ser un simple analizador de líneas y bordes, V1 actúa como un centro de distribución donde diferentes aspectos del mundo visual: longitud de onda, movimiento, contraste, etc., son segregados antes de pasar a las áreas que se especializan en tales aspectos.     

¿Cómo se recombinan estos mensajes segregados para dar una imagen reconocible? Aún es un misterio.      

Las áreas visuales se comunican entre sí y con otras partes del cerebro donde se han encontrado células que responde sólo a patrones con características complejas. Vernon Mountcastle, de la John Hopkins University, ha registrado células de la corteza parietal que responden a un punto luminoso en movimiento, ya sea hacia dentro del campo visual o alejándose de él (pero no en ambos) y en cualquier dirección. La explicación más plausible para esto se refiere a que las células están menos interesadas en los movimientos de los objetos per se que en su movimiento aparente relativo al observador.    

Edmundo Rolls de la Universidad de Oxford, registrando las células de la corteza inferotemporal, encontró que algunas responde al estímulo visual sólo si tiene significado para el animal, tal como una asociación con comida, por ejemplo.      

Estas observaciones demuestran que la información visual entra a redes en las que puede asociarse a información de muchas otras fuentes. Pero no hay, hasta donde podemos decir, una vía final común que reúna todos estos análisis parciales y reconstruya un todo significante. Es muy difícil hablar de “áreas visuales” circunscritas, cuando los aspectos de la visión reciben atención de todo el cerebro. Mientras que los neurólogos de la época de Jackson pensaron encontrar facultades particulares localizadas en regiones específicas del cerebro, los neuro-científicos de hoy están encontrando esas localizaciones más distantes y difíciles de lo que imaginaban. En su lugar, ahora se habla de “sistemas distribuidos” o “conjuntos codificadores”; redes de células actúan en concierto para producir una percepción, sensación o pensamiento.    

¿Pero cómo es que la actividad de estos sistemas distribuidos construye nuestra experiencia del mundo? Con esto regresamos al viejo problema de la relación entre mente y cerebro. Para Jackson era obvio que los estados mental y nervioso tenían relación entre sí, pero no pudo explicar la naturaleza de tal relación (como tampoco pueden los neuro-científicos actuales).     

Se conformaba con proponer su “Doctrina de la Concomitancia”, un conjunto de afirmaciones cuya aparente claridad encubre una idea que es casi imposible de aceptar para el sentido común. Su doctrina afirmaba: primero, que los estados mentales son completamente diferentes de los estados neuronales; y aseveraba también que para el estado mental hay un estado neurológico correlativo sin que nadie conozca la naturaleza de la relación. Concluía que si bien los estados mentales neurológicos ocurren en paralelo, no se interfieren.   

Esta doctrina parece ser una proposición ambigua de la existencia separada de la mente y el cuerpo, aunque retiene cierta noción de interdependencia. Es raro encontrar en nuestros días un neuro-científico que esté preparado para continuar en la dirección de las nociones dualistas del filósofo francés René Descartes. Aquéllos a los que molesta en absoluto considerar el tema, tales como Pat Wall del University College de Londres, prefieren ver al organismo humano como una unidad global, siendo los eventos mentales simples manifestaciones observables de los eventos neuronales.    

Sin embargo, hay una notable excepción en la persona de Sir John Eccles, que ganara el premio Nobel en 1963 por sus estudios sobre la comunicación química entre las células nerviosas, quien en compañía del filósofo Karl Popper ha continuado tenazmente por el camino dualista y contra toda duda. Popper y Eccles hablan en términos de tres mundos de los cuales sólo dos nos conciernen aquí: el mundo 1 se refiere a las realidades físicas y el mundo 2, igualmente real, pero inmaterial, a los estados mentales.  

Mientras Jackson dudaba de que hubiese alguna influencia de los estados mentales sobre los neuronales, Eccles insiste en que tal circunstancia es posible. En su teoría, la mente auto-consciente selecciona información desde la “laison brain” de los eventos en el mundo 1 y provee la continuidad de experiencia en el mundo 2. Pero esto influye en las respuestas del cerebro mismo, según sugiere.   

Como Popper y Eccles reconocen en su libro “El Yo y su cerebro” (Springer, 1977), esta sugerencia viola las leyes fundamentales de la física. No teniendo materia la mente, no puede influir al cerebro material. Eccles, sin embargo, cree que el problema se resuelve ahora con la mecánica cuántica. Al nivel de lo muy pequeño, los cambios en la probabilidad no implican en sí mismos ninguna transferencia de material a energía. En el SN el sitio ideal para tales mecanismos es la sinapsis, la unión entre dos células, donde pequeños paquetes de transmisor químico son liberados en forma probabilística. La mayor parte del pensamiento neurobiológico corriente identifica la sinapsis como el lugar donde tiene sus bases el aprendizaje y la memoria. La mente, concluye Eccles triunfal, ejerce sus efectos incluyendo la probabilidad de que los paquetes de neurotransmisor sean liberados.   

Muchos aún están esperando quedar convencidos y, aunque el problema mente-cerebro ha mantenido ocupados a los filósofos durante siglos y probablemente continué haciéndolo, para la mayoría de los neuro-científicos apenas se trata de un punto a discusión. La mente auto-consciente es un concepto intuitivamente atractivo que condiciona la selección e integración de la experiencia sensorial.   

Al abandonar las jerarquías de Jackson en favor de los sistemas distribuidos se remueve la necesidad de un depositario último, con autoridad dentro y fuera del cerebro. El cerebro se informa sólo así mismo y además se reconstruye a la luz de su existencia. Como una jerarquía sin límites, surge un estado nuevo, igualitario y auto-definido.

  articulos  
 * Traducción de Hortencia González del artículo original publicado en New Scientist, 9 de enero de 1986.      
_____________________________________________________________
     
Georgina Ferry      
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

 

 

 

Cuento        
 
  menu2
PDF
           

 
La revolución roja
 
 
J. García Ramos
   
   
     
                     

(Cualquier semejanza que quisiera encontrarse con sujetes o sucesos reales, será puramente coincidencia).

 

La acción principia en un campo cualquiera del sistema vascular.   

—¡Hola, Espiridión! ¿Cómo te ha ido? Hacía tiempo que no te veía. Digo hace mucho que no estábamos tan próximos como para cambiar algunas palabras. A veces, te había visto pasar raudo, probablemente en una comisión importante. Siempre, desde luego, obligado por los latigazos del “patrón”.    

Quien así hablaba era un glóbulo rojo que, cruzando suavemente por la vena porta, se dirigía a uno de sus compañeros con el que había tenido un origen común en alguna parte de la médula ósea. A quien se refería como patrón era el corazón, a quien muchos de ellos consideraban como el causante de todos sus males, por la presteza con la que los hacía mover cuando regresaban plácidamente de los capilares del pulmón en donde tomaban, para llevar, su carga de oxígeno.   

—Bernabé, me alegro de verte, dijo el interpelado, con estas prisas que uno trae a toda hora, es un descanso encontrar a un amigo con quien conversar un rato. Acércate y vámonos juntos hasta la aurícula derecha. Por ahí te iré contando de mis aventuras.   

—¿Quieres decir que te ha ido mal? replicó Bernabé. No basta con estar trabaja y trabaja sin descanso, sin parar un momento, llevando nuestra carga de oxígeno a todas partes. A los músculos, que dizque trabajan mucho, y sobre todo a esas que les dicen “las neuronas” a quienes uno ve nomás de pasada, al parecer cómodamente sentadas en su oficina, con los pies soba la mesa y con esa su descansada vida sólo recibiendo y enviando mensajes. ¡Qué diferencia con nuestros leucocitos, que se mueven afanosamente por todos lados! He oído decir que a esas neuronas hasta la comida les llevan.    

—Calla, interrumpió Espiridión, precisamente de eso te iba a contar. Hace poco pasé por el hipotálamo, parece que tienen ahí un gran laboratorio. No sé, creo que es algo relacionado con las catecolaminas. El caso es que se traían allí un gran barullo. No supe qué era exactamente, y en mi largo camino de regreso al pulmón ya hasta se me estaba olvidando el asunto. Recogí mi carga como habitualmente, pero al llegar al corazón me di cuenta que algo grave ocurría. El corazón, digo, el patrón, estaba rete-enojado. Sacudía latigazos a diestra y siniestra. Todo el mundo obedecía apurado. Me llevé un gran susto cuando me empujó, con otros muchos camaradas, por la aorta. En un segundo fuimos a parara las suprarrenales. Allí supe que es ese el lugar donde fabrican la adrenalina. Tienen unos hornos imponentes. Todo el mundo estaba como enloquecido. Que las neuronas del hipotálamo no sé que órdenes les habían enviado y tenían que trabajar casi al máximo. Luego luego, mis simpatías se inclinaron por las células de las suprarrenales, esas pobres desgraciadas, como nosotros. Para los que mandan, no significa nada el momento, la situación, ni el estado de ánimo en que uno se encuentra.    

—Tienes mucha razón, Espiridión, dijo Bernabé. Por eso no puede uno más que prestar atención a esa propaganda que anda por ahí. Las fábricas deben ser de quien las trabaja, y los privilegiados, como esas neuronas que tú dices, deben ser exterminadas. Pero sigue, sigue con tu relato.    

—Pues bien, salí de la fábrica, continuó Espiridión. Iban junto a mí unas moléculas de adrenalina. Hicimos el viaje juntos hasta el pulmón. Ellas me contaron que sólo eran mensajeras, pero no logré sacarles más. Al recoger mi carga de oxígeno, temblé al pensar que ya iba a llegar donde el patrón. El trayecto me había parecido, en esta vez, más corto que en otras ocasiones, y me parecía que todo el mundo marchaba más de prisa. Llegué a la aurícula, las moléculas de adrenalina se fueron al patrón, y no sé qué le dijeron. Este se puso furioso. Seguía dando latigazos cada vez más fuertes y más seguidos. Yo recibí un empujón, tan fuerte, que por poco me quedo embarrado en una de las semilunares aórticas. ¡Que impresión tan fuerte! Peto tú, ¿dónde andabas en todo esto?  

—Pues mira, respondió Bernabé, yo me pasé una temporada de descenso en el bazo. Algo había oído hablar de esas situaciones a la gente madura. Precisamente, se dice que un tal Pepe Lenox, anda tratando de crear conciencia en todos nosotros de que somos iguales a los demás, y que sólo debemos luchar por nuestros derechos, sino que somos nosotros los que debemos gobernar este territorio en el que laboramos. A mí me llenan de ilusión esos conceptos.    

—Precisamente en esos momentos pasaba un grupo repartiendo unos volantes en los que se citaba a una “Asamblea General” para decidir la fecha en que se produciría el inicio de la Revolución.    

Unos días más tarde nos encontramos con nuestros amigos en una gran “concentración de masas” en algún sitio del bazo. Un compañera, pequeñín, arengaba a la multitud. Camaradas, decía, ha llegada el momento de implantar la dictadura del proletariado. Estamos hartos de seguir siendo las víctimas de los que todo la tienen y sólo dejan para nosotros el trabajo incesante y los malos tratos. Si todos hemos nacido iguales, es natural que todos tengamos los mismos derechos. No hay razón para que existan privilegiados que gozan de toda clase de comodidades. Nuestro primer movimiento será en contra del patrón. ¡Abajo el Patrón! Gritaron muchos ¡Abajo todos los patrones del mundo! Añadieron los más exaltados. ¡Abajoooo! Gritaron todos a coro.   

Pues bien, siguió diciendo el líder, el plan es el siguiente. Vamos a privar al patrón de su oxígeno, y la forma de realizar este tipo de huelga es así: tengo noticias que en la coronaría descendente anterior, esa avenida que ustedes bien conocen, un grupo de moléculas de colesterol ha empezado a cavar unas trincheras. La idea es que nuestros carros con fibrina pueden descargar allí muy fácilmente y bastarán unos millares de nosotros para ayudar a la formación de un trombo que ocluya la avenida. Cómo vamos a reír cuando, al cortar el aprovisionamiento de oxígeno, el patrón se esté muriendo. Entonces comprenderá que nosotros también tenemos importancia. Después de acabar con el patrón, haremos algo semejante con las neuronas. ¡Que viva el glóbulo rojo universal! ¡Que viva! Corearan todos, a quienes se les veía brillar los ojos ante el gran desquite próximo.    

Una vez terminados nuestros opresores, habremos de luchar por obtener las conquistas a que tenemos derecho. Gozar del producto integro de nuestro trabajo. Disponer de los periodos de descansa que nos han escatimado y tal vez hasta logremos conseguir que nos vuelvan a dar el núcleo que nos quitaron.    

Los acontecimientos que siguieron no pudieron ser realizados exactamente conforme al plan trazado. La oclusión de la coronaria fue sólo parcial. Al parecer, intervino cierta ayuda externa. Los rumores señalaban a “las grandes potencias”. El caso es que de repente flotaba en el ambiente una cosa que alguien identificó como ouabaina y que alguna interferencia tenía con la adenosintrifosfatasa de sus membranas. Aparte de eso, aunque el acarreo de oxígeno de los pulmones estaba reducido, de repente alguien ponía en disposición un oxígeno que parecía más “fuerte” y al que no costaba gran trabajo recoger.   

El líder andaba un poco descorazonado y triste al ver que ya empezaban a lanzarle miradas de desconfianza. Entonces se le ocurrió, para aliviar el desencanto que ya había empezado a ser presa de muchos, que iniciaran la carga contra las neuronas. El plan era semejante al anterior, aunque ahora se realizarla por la oclusión de la meníngea media. No tardaron en ponerlo en marcha y, felizmente, el éxito fue completo. Muchas neuronas murieron luego ¡Y parecían tan resistes las malditas! Además, la actividad de los músculos y de muchas glándulas parecía paralizada. El patrón sufría el golpe de manera especial cada vez incitaba al trabajo con menos fuerza.    

Lo grave es que los alimentos empezaron a escasear. Decidieron que seguramente por ahí existía algún acaparador. La situación se hacía insostenible por momentos. Las buenas noticias eran, cada vez, de menor consuelo. Se decía que el patrón estaba muriendo y, eso sí, la noticia en algo endulzaba la falta de “pan”. Cuando la carencia de alimentos se exageró, ya nada servía de consuelo a los glóbulos rojos.   

Al poco tiempo, el patrón dejó de latir, y entonces comenzó una agonía lenta para los glóbulos rojos. Inmóviles y amontonados iban perdiendo sus fuerzas. Por fortuna (mala fortuna desde luego) empezó a hacer frío, eso reducía el hambre, pero hacía más largo y prolongado el fin que ya todos esperaban. La revolución roja había vencido, pero había tenido que pagar un precia tan alto que nadie había podido gozar de ese triunfo.  

Este cuento tiene una moraleja. Todos los componentes de un grupo organizado son importantes. En toda sociedad organizada, con funciones múltiples, la división del trabajo entre todos sus integrantes tiene que ser lógico y natural. Cada uno desempeña un papel en la compleja maquinaria, según las necesidades del conjunto. Es posible establecer jerarquías entre los distintos grupos de individuos componentes, pero los criterios para ejecutarlo han de ser muy subjetivos. Lo cierta es que todos los grupos integrantes de la sociedad deben considerarse importantes y en conjunto sentir que su labor, cuando es bien hecha, se traducirá en mejoría y bienestar común. Esta reflexión, al ser tenida en cuenta, origina la satisfacción del deber cumplido. EI trabajo no es degradante, y no es una carga cuando pierde su carácter de obligatorio para ser visto como la personal contribución al beneficia colectivo.   

Se podría argüir que las clases que dirigen la marcha de la sociedad pueden equivocarse. De hecho se equivocan a menudo, pero constituye un error la creación de grupos opositores que no se limitan a externar su opinión, sino a oponerse con hechos violentos ante una situación actual determinada, por la decisión de las mayorías. Una sociedad en la que los distintos grupos tiran por su lado porque consideran que cada uno de ellos tiene la razón, sólo puede provocar el retraso o el desquiciamiento y aniquilamiento de esa sociedad.   

Todo mundo tiene derecho a disentir y eso es bueno; pera las libertades individuales deben tener un límite, y éste surge cuando el ejercicio de los derechos del individuo interfiere con el progreso y el bienestar del grupo.

Los derechos de la sociedad deben estar por encima de los de derechos individuales, porque el progreso de esta sociedad asegura en mayor grado el beneficio de todos y cada uno de sus miembros.

  articulos  
       
_____________________________________________________________
     
J. García Ramos                                                                                                         Investigador del CINVESTAV.
     
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

 

 

 

Palabrejas de  computación
 
  menu2
PDF
            R010B06
Bit, Bait, But
 
 
Elisa Viso G.
   
   
     
                     

Esta es la primera de una serie de notas acerca de un tema  muy usual hoy en día: las computadoras. El objetivo de las notas es difundir los conceptos que más comúnmente están siendo utilizados, tanto por expertos como por simples aficionados. El título de estas notas se refiere a tres palabras que continuamente se oyen (escritas fonéticamente).  

Empecemos por describir lo que es un bit, que casualmente se escribe igual que se pronuncia.    

Las computadoras, al igual que sus hermanas menores, las calculadoras, consisten de distintos componentes que utilizan para realizar las operaciones que se les piden. El “cerebro” de la computadora (o la parte que controla y emite las órdenes para que se ejecuten las operaciones) es lo que conocemos como procesador central o simplemente procesador (“Central processing Unit", CPU). Además de eso, la computadora cuenta con una “memoria” (como lo sería una hoja de papel) en la que “anota” resultados intermedios de sus operaciones, “recuerda” qué es lo que tiene qué hacer (su programa) a bien acomoda allí la información con la que piense trabajar. El otro componente importante de la computadora es todo aquel equipo que le permite comunicarse con el “exterior”: le permite que el usuario le dé información, le muestra resultados al usuario, escribe información en formas tales que la pueda leer fácilmente después, etc. A este equipo es a lo que se conoce como equipo periférico o periféricos (pues están en la “periferia” de la máquina). Las impresoras, las pantallas, los teclados, los discos, son todos periféricos.    

Si pensamos en la hoja de papel que mencioné antes y en el uso que podemos darle para anotar allí todo lo que querernos “recordar” de un proceso, al anotar estamos utilizando un cierto “vocabulario” y reglas para combinar a los elementos de ese vocabulario. Por ejemplo, si estarnos utilizando la hoja de papel para escribir números, el vocabulario con el que contamos son los dígitos del cero (“0”) al nueve (“9”), el punto decimal y los signos “1” y “2”. De entre las reglas para combinarlos puedo mencionar, por ejemplo, que un número no puede tener más que un punto decimal o más de un símbolo de signo, pero que puede no tener signo en cuyo caso es positivo el número, que el signo precede al número… Si nuestra hoja de papel es cuadriculada, podemos exigir que no haya más de un símbolo del vocabulario en cada cuadrito. De esta Forma podemos hablar de cuántos símbolos caben en la hoja (la capacidad de la memoria).   

La computadora tiene una memoria electrónica “cuadriculada”, pero en cada cuadrito sólo puedo poner uno de dos símbolos pues el cuadrito puede estar en uno de dos estados: magnetizado-no magnetizado, prendido­apagado, vivo-muerto. Por ser dos estados posibles se acostumbra hablar de cero-uno. A cada uno de estos “cuadritos” es a lo que se le conoce como un bit (binary digit). Volviendo a la similitud con la escritura de números en la hoja de papel, el dígito (o símbolo) es binario porque al tener sólo dos símbolos posibles se tiene un sistema numérico base 2 o binario (en el caso de la notación decimal, dado que el sistema es base 10, tiene 10 símbolos distintos: 0, 1, 2, … , 9). 

Para poder representar números, letras o, en general, cualquier cosa, se “codifican” como lo hacíamos en primaria para mandar mensajes secretos: simplemente hacemos una lista en la que anotamos que “1100111” representa a una “a” “0001110” a un punto, etc. El único problema que persiste es que no contamos con el blanco para separar símbolos, por la que es necesario ponerse de acuerdo cuántos bits tomar para decidir a qué símbolo representa esa sucesión particular. Los fabricantes de computadoras tardaron en ponerse de acuerdo (por razones que expondremos en otro momento), IBM decidió agrupar a los bits de ocho en ocho y a estos grupos les llamó bytes (ésta es la ortografía correcta de bait). Al escuchar la palabra “byte” fácilmente la traducimos por “mordida” (aunque no se escriba así en inglés) y éste resulta ser una traducción adecuada: estamos hablando de una “mordida” de bits (esta palabra fue acuñada por IBM). Como mencionamos brevemente arriba, es importante saber cuál es la capacidad de la memoria de una computadora. Esta capacidad se mide, en las microcomputadoras, en bytes. Pero para que el asunto no sea tan sencillo, en lugar de decirse simplemente el numero de bytes que tiene tal o cual computadora, se habla en múltiplos de 1024. A cada grupo de 1024 se le denomina 1k de memoria, por lo que si se dice, entonces, que una computadora tiene 256k de memoria, lo que se está diciendo en realidad es que tiene 256 veces 1024 bytes —se eligió el número 1024 porque todo en la computadora se hace en el sistema binario y 1024 es la potencia de dos más cercana a 1000.  

Por último quiero, a reserva de extenderlo en ocasiones posteriores, hablar de lo que es el but (en realidad se escribe boot).   

Cuando la computadora está trabajando realiza determinadas operaciones. Por ejemplo, pide información al teclado o escribe en la pantalla. Sin embargo, para que pueda realizar cualquier serie de acciones, la lista de las operaciones a realizar debe estar en su memoria: todo lo que sabe la máquina es recorrer y obedecer esa lista. Todas las microcomputadoras cuentan hoy en día con un programa muy primitivo, residiendo en la memoria, y que es lo que se ejecuta automáticamente al encenderse la máquina. Este programa consiste, casi siempre, de las instrucciones para que se coloque en memoria un programa un poco más complicado y que se encuentra en un cierto periférico (generalmente un disco). Este segundo programa puede también ser sencillo y que invoque a un tercero un poco más complicado, y así sucesivamente hasta que queda “instalado” en la memoria el administrador (el jefazo) de la computadora, que es quien va a indicarle a la máquina qué hacer y cuándo hacerlo. Este administrador puede ser muy simple o muy complicado y es a lo que se conoce como el Sistema Operativo. Para una misma máquina puede haber distintos Sistemas Operativos, pues cada uno de ellos puede estar enfocado a distintos usos.

El término boot viene del más extenso boot strap. Conozco dos versiones del mismo. La primera es que las botas tienen una correa (boot strap) con la que se ayuda uno a ponérselas. Se acomoda la bota en el pie y después, con la correa, se logra colocar exactamente en su sitio para poder caminar con ella. Esto es similar a la forma en que se instala el Sistema Operativo: primero se “medio acomoda” y después se da el tirón para que quede en su lugar.  

La segunda versión se refiere a la forma en que se colocan las agujetas en una bota. Se coloca la agujeta en el primer juego de orificios. La colocación en el segundo juego “descansa” sobre la colocación en el primero y así sucesivamente. En esta interpretación se enfatiza el hecho de que la instalación final del Sistema Operativo se va haciendo por fases pequeñas y donde cada una de las fases depende de la anterior.   

Cuando se dice (incorrectamente) que se le va a dar el boot a la máquina (o aún más feo, “bootear”) lo que se quiere decir es que se va a instalar algún Sistema Operativo particular para que la computadora sea administrada por él.

  articulos  
       
_____________________________________________________________
     
Elisa Viso G.                                                                                                                         Profesor del Departamento de Matemáticas, Facultad de Ciencias, UNAM.      
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

 

 

 

nota        
 
  menu2
PDF
            R010B05
Biofísica: integración de una disciplina en desarrollo
 
 
Jesus Cervantes S.
   
   
     
                     


Un área de trabajo interdisciplinaria

El desarrollo de la biología ha estado condicionado hasta nuestros días, por una constante relación con la física y en ciertos momentos incluso, también por una decisiva influencia, no sólo ante el aspecto de la inevitable presencia de parámetros o factores físicos en diversos niveles de los fenómenos biológicos, sino por la influencia que el determinismo físico y sus consecuencias propagan en el terreno epistemológico. Sin embargo, el impacto que en las últimas décadas está la biología ejerciendo sobre el conocimiento, introduce nuevos elementos que transforman su relación con la física y orientan, en consecuencia, los conceptos de causa, interacción y azar hacia nuevas perspectivas, contribuyendo así a la tendencia actual en el conocimiento científico y en la propia física, al efectuar amplios y profundos cuestionamientos internos en todos los planos; sobre el aspecto del determinismo y las leyes que pretenden explicar los fenómenos complejos con ciertos grados de organización y donde participan múltiples cuerpos y otras estructuras o componentes materiales.

Debido a la incipiente pero activa investigación y nuevos enfoques de los fenómenos físicos cooperativos (lásers, inestabilidades hidrodinámicas, etc.), entre subsistemas y de las mismas interrogantes abiertas con las formulaciones de la mecánica cuántica (recuérdese la polémica —si bien con un carácter especulativo— sobre la idea de la voluntad del electrón y sus proyecciones sobre el libre albedrío y el cerebro propuestas por Eddington, que de alguna forma se concretan con el concepto de vitalidad tan caro a la biología), la física aborda la descripción estocástica de los efectos cooperativos, arrojando nuevas respuestas sobre el carácter determinista de las leyes y parámetros en la naturaleza. En los fenómenos de la biología claramente se reconoce la interacción compleja y cooperativa de distintos agregados, desde el nivel molecular hasta el ecológico, que por una parte, guardan una estrecha relación con los modelos físicos cooperativos y por otra, aportan ideas no únicamente en lo que concierne a su área, sino también al conocimiento de fenómenos de orden social o del individuo; conviene señalar que esta nueva actitud tiende a trasladar, a semejanza de como la física ha hecho con la propia biología, causando deformaciones y excesos a estos aspectos de la naturaleza a través de la llamada socio biología por ejemplo.   

 
El grado do complejidad de los fenómenos biológicos es enorme. Ciencias como la física aporten día a día nuevos elementos que permiten explicar estos fenómenos.

Tradicionalmente, la biofísica es considerada como el área donde se pretenden unir ambas disciplinas para llegar a convertirse en una disciplina propia; sin embargo, su difusión, enseñanza y desarrollo usualmente presenta dificultades de precisión con respecto a sus límites y campo de trabajo, en parte debido a la cambiante y polémica relación mencionada arriba. Esta exposición intenta hacer un resumen y clasificación breve de los distintos niveles que abarca el estudio e investigación de la biofísica, con la importante aclaración de que estos niveles guardan una estrecha relación entre sí y su distinción es formal, ya que se entrelazan en  el análisis específico de cualquier fenómeno biológico.      

 
Los eternos cuestionamientos entre el determinismo de las leyes y la explicación de los fenómenos complejos que ocurren en la naturaleza, continúan transformando las relaciones entre las ciencias.

 

El nivel del conocimiento de los parámetros y factores propiamente básicos en los fenómenos biológicos. A partir de los componentes y estructuras físico-químicas que se presentan desde la biología molecular hasta el individuo (en temas como la fisiología general o la físico-química), se investigan los mecanismos específicos que participan y definen el comportamiento biológico. Los aspectos electroquímicos o mecánicos en los cuales las propiedades coloidales y de tensiones eléctrica o mecánicas de la vida juegan un papel central, constituyen una constante referencia básica al funcionamiento y desarrollo de las estructuras biológicas (desde los tejidos más sencillos hasta los más complejos en  el cerebro). Sus bases están orientadas principalmente a producir resultados técnicos-experimentales o bien medico-instrumentales. A nivel de la ecología, el desarrollo de nuevos conceptos e ideas a través de una base de mediciones físicas, comienza a adquirir terreno en temas como la geobioquímica o geomicrobiología.      

A partir de la evolución y de nuevos enfoques de la teoría matemática (sistemas dinámicos, procesos estocásticos, etc.) y las experiencias acumuladas en la conceptualización de la naturaleza por medio de modelos, así como el enfoque ingenieril de la teoría de sistemas, hacen de la simulación de fenómenos biológicos una actividad cada vez más amplia. Así es como el funcionamiento integral del sistema circulatorio, respiratorio, nervioso, etc. y los fenómenos de la morfogénesis, metabolismo, homeostasis se busca representarlos por ecuaciones diferenciales ordinarias y/o parciales acopladas a partir de elementos mecánicos, hidrodinámicos o de reacciones químicas moleculares. Muy ligado a lo anterior, se hallan los fenómenos de oscilaciones biológicas fuera del equilibrio (aunque no son los únicos detectados, pues existen lejos del equilibrio, oscilaciones termoquímicas, electroquímicas de otros tipos, todas ellas susceptibles de representarse por ecuaciones de conservación en términos de las densidades promedio de las concentraciones o energías internas y los flujos de difusión y calor) cuya explicación depende: de la formulación de sistemas dinámicos acoplados en varias posibles formas de variable biomoleculares, nerviosas, de población, etc.; de la existencia y comportamiento de ciertos límites en estos sistemas y de las características de estabilidad que posean; o bien, en una aproximación más compleja y no determinista, de las formulaciones estocásticas que abordan las fluctuaciones para describir las reacciones biomoleculares, interacciones nerviosas o ecológicas. Ambos procedimientos buscan definir la existencia de relojes biológicos, en particular algunos, en forma de una “mecánica estadística” de sistemas cooperativos acoplados y con características oscilatorias.   

La biotecnología de alimentos, medicinas o materiales depende cada vez más de la modelización de poblaciones en el funcionamiento del biodigestor. Por su parte, la biónica alcanza resultados en el terreno de la ingeniería e incluso del arte o la arquitectura, a través de la simulación de las formas biológicas para las aplicaciones y diseños de estructuras arquitectónicas y/o de maquinarias.   

La termodinámica de los procesos no lineales irreversibles y de la mecánica estadística estocástica se encuentran en un permanente proceso de investigación y revisión, alrededor de aspectos centrales de la biología como son: la autorregulación, autoreproducción, estabilidad y organización. Las nociones de fluctuación y cambios de orden en las estructuras biológicas se cancelan a la definición de las estructuras disipativas y los fenómenos de bifurcación a partir de la evolución universal (dPx/d≤0), que proporciona y determina la información de la termodinámica fuera del equilibrio, bien para estados estacionarios cerca del equilibrio o de los estados lejos del equilibrio, bajo la suposición del equilibrio local de la función de Gibbs.

Entra fórmula 07

Este marco que busca constituirse como la base termodinámica de las formulaciones específicas que se desarrollan en el nivel anterior, está sujeto a cuestionamientos teóricos y también a desarrollos y verificaciones experimentales que terminen por descartarlo o bien modificarlo.

En gran medida, el herramental matemático y las actitudes filosóficas y de corte epistemológico que conforman los desarrollos recientes de los niveles mencionados en la biofísica, se sustentan en el enfoque supuestamente generalizador de la teoría de sistemas y cibernética, dando lugar a una fuerte actitud organicista o biologicista en la reflexión de naturaleza que permea áreas como la sociología, economía, etc. Por su parte y a pesar de que se ha establecido de manera natural e indiscutible, la tajante separación entre la naturaleza animada e inanimada, la física no se encuentra exenta de la influencia de esta actitud que tiende a cuestionar y transformar la tradicional relación de la biología con la física, e ir un poco más allá en problemas conceptuales viejas, pero dinámicamente cambiantes, originadas en la teoría física: la causalidad y el azar en la naturaleza.

Por lo tanto, en nuestra época, para avanzar en las tareas de investigación, difusión y enseñanza de las áreas de la biología y la física, la incorporación de un programa permanente en la disciplina de la biofísica, se presenta como una opción importante.

  articulos  
       
_____________________________________________________________
     
Jesus Cervantes S.                                                                                                         Profesor del Departamento de Física, Facultad de Ciencias, UNAM.
     
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

 

 

 

del herbario             menu2
           
R010B03 

El árbol de ramón, un recurso desaprovechado
Jaime Jiménez R.
   
   
     
                     

El ramón (Brosirmum alicastrum) es un árbol tropical
que forma parte de las selvas altas perennifolias o subperennifolias de México y América Central y tiene usos tradicionales múltiples:

a) El follaje y la semilla sirven como forraje para ganado porcino, caprino, bovino o caballar, incluso en épocas de sequía es el único alimento disponible en muchas regiones tropicales.
b) El látex sirve como sustituto de la leche, pues tiene un gusto semejante.
c) La pulpa del fruto sirve para hacer mermelada.
d) Las semillas asadas se comen a manera de las castañas.
e) El follaje, el látex y la semilla fresca se consideran como galactógenos.
f) La madera sirve para fabricar panales, mangos de herramientas, cajas de empaque, muebles baratos o como elemento combustible.     

Por ello se han hecho estudios preliminares del valor nutritivo de la planta, encontrándose que en proteína cruda posee un porcentaje superior al huevo entero, el sorgo, el maíz y la leche entera.   

En el caso de los aminoácidos esenciales tiene más triptófano que el huevo, la leche, el sorgo, maíz y trigo. Aminoácido deficitario en una población que se alimenta esencialmente de maíz.   

El INIREB realizó algunas experiencias de conversión animal, y es importante señalar que es un alimento comparable o ligeramente superior a los forrajes tradicionales. Así, teóricamente en el estado de Veracruz sería posible alimentar con semillas de ramón a 96167 novillos durante seis meses, sin eliminar un solo metro de selva tropical.    

Considerando estos resultados, tal vez entendamos por qué la Academia Nacional de Estados Unidos (1975) tomó al árbol cono una de las especies subexplotadas de mayor potencialidad económica. Aunque pueda pensarse que están descubriendo el hilo negro, ya los mayas lo utilizaron desde hace cientos de años y es posible que haya sido una de las bases productivas de su civilización.

Nota
Resumido de: Pardo-Tejeda, E., C. Sánchez M., 1977, Bromosium alicastrum (Ramon, capomo, ojite, ojoche). Recurso silvestre tropical desaprovechado, INIREB, Xalapa.

  articulos
 _____________________________________________________________      
Jaime Jiménez R.
Facultad de Ciencias,
Universidad Nacional Autónoa de México.
     
_____________________________________________________________      
como citar este artículo
[En línea]
     

     
nota             menu2
            R010B02
La mujer, Biología y Sociedad
(1a. parte)
Eréndira Álvarez y
Ma. Cristina Hernández
   
   
     
                     

Mucho se ha hablado del papel que ha tenido la mujer* a
lo
largo
de la historia y cómo se ha desarrollado la condición social de su sexo. En torno a esta discusión algunos biólogos han realizado trabajos que denotan claramente una visión parcial del problema ya que sólo han considerado las hormonas, los genes, la adecuación y se han olvidado de la historia, la ideología, la cultura, la economía, los prejuicios, etc., creaciones específicamente humanas que han determinado el significado de ser mujer y de ser hombre.**

Es comúnmente aceptado que son las diferencias constitutivas del hombre y la mujer las que explican y hacen irremediable el establecimiento de los roles sexuales que conllevan a una desigual condición de los sexos en la sociedad.              

Esta idea es reforzada por las explicaciones de algunos biólogos como Charles Darwin, E. O. Wilson, D. Morris y D. Barash que con el título de “cientificidad” formulan planteamientos sexistas. Dichas explicaciones dan por hecho la existencia de conductas “naturales”, del hombre (como la poligamia, por ejemplo), y “naturales” de la mujer (como la monogamia y la mayor inversión de su tiempo destinado al cuidado de los hijos y el hogar). Estas ideas son manejadas a nivel popular, y cuando aparecen “teorías científicas” que las refuerzan, tienen la posibilidad de ser aceptadas como una verdad que explica perfectamente la estructura familiar y la sociedad patriarcal en su conjunto. Dado que existe la arraigada creencia de que el conocimiento científico  es objetivo y válido en todo momento, estas propuestas se convierten en una “justificación científica” de la jerarquización de los sexos en la sociedad.      

Parece razonable aceptar que existe un “orden natural” de las cosas que decreta los roles y las tareas femeninas y masculinas, y que existen procesos biológicos que lo explican. Pero, ¿son las características biológicas o es más bien el significado que socialmente se les ha dado a éstas las que han confinado a la mujer y al hombre a sus papeles tradicionales? Particularmente, la condición social de la mujer ¿responde a procesos biológicos? ¿Es parte de sus características constitutivas?  

Para tratar estas preguntas y discutir las explicaciones que han dado al respecto distintos biólogos es necesario considerar muchos aspectos, tantos que no ha sido tarea fácil tratar de contemplarlos en su mayoría, y explicar la relación que entre ellos guardan. Al hacerlo es necesario relacionarse con distintas disciplinas y encontrar los nexos entre sí.  

A lo largo de tres artículos que se publicarán en esta misma revista, se discutirán las explicaciones que han dado Darwin, Wilson, Morris y Barash acerca del papel social de los sexos. Se pretende mostrar que no hay fundamento científico asentado en la Biología para llegar a afirmar la existencia de una base biológica, que haga necesario adjudicar ciertas tareas y conductas a uno y otro sexo. No negamos la influencia de la Biología en la determinación de los papeles socialmente asignados a la mujer y al hombre, pero consideramos que este elemento debe ubicarse dentro de los que conforman y condicionan el papel social de los sexos.    

La discusión que nos ocupa es de tal complejidad que ninguna de las disciplinas (Biología, Psicología, Sociología, etc.) puede explicar desde sus propios métodos ya análisis toda la problemática. Pero las explicaciones que éstas pueden ofrecernos tampoco tienen por qué ser antagónicas y excluyentes.   

Desde nuestra perspectiva, en el individuo en particular y en la sociedad en general, existen interconexiones e interacciones de elementos biológicos y sociales que se encuentran en movimiento, se desarrollan y cambian. Cada uno de estos elementos tiene un carácter particular, los dominios de las diferentes ciencias (a las que nos referimos) se delimitan entendiendo esa particularidad. Es necesario tener presente dos cuestiones fundamentales:        

a) Ambos aspectos “lo biológico” y “lo social” tienen sus propias características, por tanto, no pueden ser tratados de la misma manera. Son elementos cualitativamente diferentes, sus métodos y análisis son también diferentes y nos ofrecen explicaciones de fenómenos distintos.  

b) La condición social de la mujer es un fenómeno muy complejo que comprende aspectos biológicos y sociales, por tanto, para poder abrir y profundizar la discusión es necesario considerar estos dos elementos en su conjunto y no aisladamente, es decir, analizando los vínculos y la jerarquización que ellos tienen y reconociendo la reacción que estos elementos han tenido y tienen en ambos sentidos.   

La contra-argumentación que presentaremos evidentemente parte de una concepción filosófica que se evidencia siempre que pretendemos explicar la organización social y los rasgos conductuales de nuestra especie. Esto es innegable, pero la discusión pretende ir más allá de un mero discurso ideológico. Es claro que muchos de los principios que enunciamos como válidos no encuentran su demostración en la Biología. Por ello es necesario recurrir a la historia, la sociología, etc. Sin embargo, como se dijo anteriormente, estas disciplinas tampoco agotan la discusión, la cual debe ser vista desde una perspectiva de análisis los suficientemente amplia como para entender tanto los marcos generales, económicos, políticos, ideológicos, que la condición social de la mujer comparte con otras problemáticas como las particularidades que le han dado forma y desarrollo.***      

El alcance de este trabajo es señalar cómo la caracterización que han dado sobre los sexos los distintos autores que se tratarán posteriormente, parten de un planteamiento inadecuado del problema, no tienen las bases reales que la comprueben e involucran una serie de prejuicios por lo que sus aportes impiden un conocimiento global de esta cuestión.  

La discusión en torno a la condición social de la mujer requiere análisis que rebasen explicaciones parciales, las cuales, si bien pueden no ser falsas, son insuficientes.    

Si contemplamos los diferentes aspectos y advertimos los niveles en que se encuentran, “lo biológico” deja de ser irremediable, deja de ser la limitante insalvable, se transforma en un elemento, entre otros, que conforman una realidad transformable.

  articulos

Notas

* Resumen de la tesis “Discusión de algunos planteamientos biológicos acerca de la condición social de la mujer”, que forma parte de una serie de notas breves que aparecerán en los próximos números.

** Cabe aclarar que aunque aquí se considera principalmente a la mujer, resulta insuficiente hablar sólo de ella. Una propuesta abierta que se desprende de este trabajo es continuar la discusión contemplando la problemática de ambos sexos.

*** Somos conscientes de que aunque existen aspectos unificadores, las mujeres no somos un grupo homogéneo, la problemática de la mujer depende de la clase social a la que pertenece y el momento histórico en que se encuentre. Cada vez que hablemos de la mujer debemos tener presente esto.

     
_____________________________________________________________
     
Eréndira Alvárez y Ma. Cristina Hernández      
_____________________________________________________________
     
como citar este artículo
 [En línea]


     
reportaje             menu2
             
Los anticonceptivos, ¿necesarios?, ¿obligatorios?, ¿perjudiciales?
 
 
   
   
     
                     

 No sólo una opción individual. Su desarrollo y
uso tienen repercusiones muy amplias.

 

En El Salvador las mujeres se niegan a ser esterilizadas
y en Rumania es política oficial el elevar la tasa de natalidad con restricción de acceso a los anticonceptivos. En Bangladesh reciben un pago por dejarse esterilizar y en nuestro país de cada dos concepciones una es abortada. Una hojeada a las noticias respectivas muestra que el problema no es el mismo para todos los pueblos y ni siquiera para todas las clases sociales. Según una compilación realizada en Colombia, la situación en algunos países es la siguiente:

Bangladesh: en este país se pagan 147 takas (esta cantidad es equivalente a un décimo del ingreso anual per cápita) a quien se deje esterilizar. La cantidad de operaciones se eleva en el periodo anterior a la cosecha, cuando las familias que no poseen tierra pasan hambre. Los médicos encargadas de estas programas deben cumplir una cuota de esterilizaciones mensuales; en caso de no hacerlo son despedidos y si destacan, reciben premios y bonificaciones. Parte de los fondos para este programa provienen de la Agencia internacional para el Desarrollo de los Estados Unidas.     

Francia: este país propuso al Parlamento Europeo un programa para aumentar el número de nacimientos en ese continente, ya que según estudios históricos, el surgimiento y caída de las grandes civilizaciones dependería del tamaño de la población; la solicitud fue rechazada.    

El Salvador: el gobierno norteamericano aportó —al parecer en 1984, el reporte no tiene fecha— aproximadamente 1.8 millones de dólares para control natal, contra 1.5 millones para apoyar la agricultura. También existen cuotas mensuales propuestas que provocan situaciones dramáticas, como la de una mujer que fue amenazada de separarla de su bebé recién nacido si no se operaba.     

Singapur: el gobierno lleva adelante un programa para alentar la maternidad de las clases altas y esterilizar a las mujeres pobres que ya tengan dos hijos.    

Pero el derecho a la sexualidad y el control de la fertilidad es una reivindicación que se abre paso cada vez más en diversos países y que trae nuevamente a discusión el problema de la anticoncepción.    

Se han generado diversos medios para la regulación de los embarazos —recursos diseñados en su mayoría para ser usados por mujeres—; espumas, diafragmas, preservativos, dispositivos intrauterinos, píldoras, inyecciones, etc. Se están estudiante otros métodos, tales como anillos vaginales e implantes subcutáneos. Es importante señalar que los más utilizados —a base de hormonas— producen efectos secundarios que según un estudio de la revista “Ms.” norteamericana van desde dolores de cabeza hasta suicidios por depresión aguda, pasando por inapetencia sexual, aumento de peso, etc. Esto impulsa a investigar métodos cada vez más efectivos y menos molestos.       

El diseño del anticonceptivo con base en el control hormonal femenino debe tomar en cuenta su ciclo natural, el cual posee una serie de interacciones complejas, principalmente entre la hipófisis y los ovarios, que involucran la producción de hormonas cuya cantidad se regula rítmicamente y que al decir de algunos estudios, se trata de una verdadera sinfonía de hormonas.      

Como la mayoría de nosotros sabemos, el ciclo femenino tiene un promedio de 28 días, en el curso de los cuales se dan —entre otros fenómenos— la maduración del óvulo, la ovulación, la luteinización y la menstruación, en caso de no haber embarazo.        

De manera esquemática podemos explicar esta sinfonía con ayuda de los diagramas de la figura 1. En el esquema A hemos intentado hacerlo enfatizando las relaciones hipófisis-ovarios. Partiendo del momento inmediato a la menstruación tendríamos la producción de la hormona folículo-estimulante que provoca el crecimiento del folículo, su maduración y su rotura con la subsecuente expulsión del óvulo. Durante este proceso, el folículo genera cantidades crecientes de estrógeno, que además de otros efectos actúa sobre la hipófisis para disminuir la emisión de folículo estimulante e impulsar la producción de la hormona luteinizante. Esta hormona colabora en la liberación del óvulo y convierte al folículo en el cuerpo lúteo, el cual genera cantidades crecientes de progesterona, que a su vez prepara a la matriz para la implantación del óvulo fecundado, da las condiciones para facilitar el embarazo e inhibe la producción de la hormona luteinizante. Si no hay fecundación, el cuerpo lúteo degenera, cae la producción de progesterona produciéndose la menstruación y se reinicia el ciclo con la producción de folículo estimulante.       

En el esquema B hemos querido representar el mismo ciclo resaltando el papel del estrógeno y en el esquema C, el de la progesterona. Nótese los efectos inhibitorios de ambas hormonas.    

La figura 2 representa las distintas concentraciones de hormonas como función del tiempo.    

La anticoncepción por píldoras o inyecciones funciona introduciendo al organismos estrógenos y progesteronas, que impiden la ovulación debido a sus efectos inhibitorios a nivel de hipófisis. Como podemos ver, se actúa sobre un sistema complejo donde la cantidad de las diferentes sustancias evoluciona con el tiempo, esto vuelve a la dosificación un problema muy delicado. Si el sistema es oral se deben considerar los distintos niveles de asimilación digestiva y hasta el olvido incurrido, por la usuaria, de tomar algún día la píldora. En el caso de las inyecciones —que eliminarían el problema de los olvidos— la concentración inicial podría ser muy alta.     

Debemos también considerar que estas sustancias sufrirán en el organismo una serie de procesos de degradación, que en su curso pueden producir, a manera de metabolitos, algunas hormonas que tengan acción en órganos muy distintos; proceso que podría explicar los efectos secundarios de estos fármacos. Esto último nos lleva nuevamente al estudio de la dosificación y a la búsqueda de fórmulas químicas más adecuadas.   

En nuestro país este problema recibe atención, como comprobamos al platicar con el Dr. Josué Garza Flores, investigador del Departamento de Biología de la Reproducción del Instituto Nacional de Nutrición “Salvador Zubirán”. En este departamento se ha ideado una técnica de dosificación muy novedosa que puede implicar avances no sólo en relación a anticonceptivos, sino referente a la dosificación de otros medicamentos, problema que —dicho sea de paso— recibe atención creciente. Esta técnica consiste en cristalizar los esteroides que se utilizarán e inyectarlos; la absorción dependería de la velocidad de disolución de los cristales en los fluidos orgánicos, la cual podría ser controlada dando a la sustancia una estructura cristalina adecuada.  

 Esta propuesta puede presentar ventajas con respecto a las inyecciones usuales, pues haría más uniforme el proceso de absorción, y en cuanto a los implantes también, porque no introduciría agentes externos. 

Pensamos que desde el punto de vista cristalográfico esta investigación es difícil, dado que los cristales serían de alto peso molecular y no debe ser simple plantear los diagramas de fases de la hormona que indicarían, desde el aspecto teórico, la estructura cristalina que se disolvería a la velocidad adecuada.  

Esto ha sido subsanado por un cuidadoso trabajo experimental en el que se están realizando rigurosamente las distintas fases de investigación farmacológica y que ya se encuentra considerablemente avanzada.

Regresando al plano general, la mayoría de los gobiernos del mundo realizan actualmente algún tipo de política de control natal, que en los países del llamado Tercer Mundo se estructura bajo la idea: “una menor población implica mejor situación económica”. Esta concepción no es nueva, después de la Segunda Guerra Mundial la corriente Neomalthusiana planteó que el control natal debería ser aplicado sobre toda a los países con mayor índice de crecimiento poblacional, en su mayoría pertenecientes al Tercer Mundo. Esto ha demostrado ser claramente erróneo, ya que existen países pobres que han conseguido bajar su tasa de natalidad y sus condiciones económicas no han mejorado; a pesar de ello los programas de esterilización masiva se han incrementado haciendo real la frase de Lyndon Johnson que decía: “cinco dólares invertidos contra el crecimiento de la población son más eficaces que cien dólares invertidos en crecimiento económico”.  

La otra vertiente importante del problema se trata de aquella ligada al movimiento de liberación femenina, que coloca en un plano central la discusión del papel social de la mujer que, entre otras cosas, involucra su decisión y por ende, su propia responsabilidad para elegir el momento adecuado de ser madres.

  articulos
 _____________________________________________________________      
 Nota de los editores      
       
como citar este artículo

 [En línea]
     

     
R10Articulos5   menu2 índice 10
siguiente
anterior
PDF
   
   
Raúl Alcaraz      
               
               

Alternativa tecnológica ante la crisis energética.

 

I. Introducción

La tierra y su atmósfera son bañadas permanentemente por
una radiación solar de 173 millones de gigawatts, equivalentes a 173 millones de centrales eléctricas como la de Infiernillo. Esa enorme energía es igual a 50 mil veces la energía eléctrica que la tierra consumirá en el año 2025 de seguir la evolución del consumo de los últimos años.

En los Estados Unidos, el país que más energía consume en el mundo, bastaría cubrir 1% de su territorio con celdas solares para satisfacer su consumo energético para el año 2000. Nuestro país recibe mucha más energía solar por metro cuadrado que los E.U. y, cubriendo con celdas solares un milésimo del territorio, podríamos satisfacer las necesidades previstas para el año 2000.

La manera más práctica y promisoria para captar la energía solar, y la que ha demostrado ampliamente su factibilidad y confiabilidad, es la transformación directa de la luz solar a energía eléctrica por medio de celdas fotovoltaicas llamadas comúnmente celdas solares.

Dichos dispositivos, cuyo desarrollo fue acelerado por los programas espaciales, han disminuido su costo en 100 veces en los últimos 20 años y así, en los siete años próximos pasados, su producción ha aumentado 100 veces, pasando de 100Kw en 1974 a 10Mw en 1981, duplicándose cada año su producción en los E.U.

Actualmente, la generación eléctrica con celdas solares es más económica en el caso de estaciones repetidoras, radiofaros, bombas de agua aisladas, casas habitación aisladas y pequeñas poblaciones, que por los medios tradicionales.

Los planes de desarrollo de países como Japón, Francia o los E.U. consideran que las celdas solares serán competitivas para la producción masiva de electricidad entre 1985 y 1987.

En este documento se analizarán primordialmente las celdas solares construidas en base a silicio y sulfuro de cadmio por ser las más promisorias, tanto por el desarrollo que han tenido como por la disponibilidad de materias primas.

La cantidad de silicio necesaria para construir con la tecnología usual las celdas solares suficientes que produzcan la totalidad de la energía eléctrica demandada que, según cálculos a priori, será para el año 2000 entre 20 y 30 x 1012 Kw-h,1 es de aproximadamente 70 millones de toneladas,2 lo que representa menos de dos meses de la producción mundial, hay que recordar que el silicio es el segundo elemento más abundante sobre la corteza terrestre (después del oxígeno) pues representa el 27% de ésta. Si se utilizara la última tecnología disponible (silicio amorfo) se necesitarían cinco millones de toneladas.

En el caso de sulfuro de cadmio, se necesitarían 80 millones de toneladas de cadmio o sea unos cuantos días de la producción mundial, y 20 millones en azufre, cifra despreciable en relación a los recursos existentes y, en cobre, cuatro millones de toneladas, menos de un año de producción.

II. Desarrollo de la tecnología solar

A mediados del siglo pasado Becquerel descubrió el efecto fotovoltaico, fenómeno que produce la luz al incidir sobré un semiconductor compuesto de una capa rica en cargas negativas y una rica en cargas positivas, haciendo que al producirse una diferencia de voltaje entre las dos capas, los electrones (cargas negativas) producidas por la absorción de la energía solar, puedan circular y producir trabajo.

Desde su descubrimiento en 1839 hasta 1954, las celdas solares presentaban rendimientos sumamente bajos (del orden de 1 milésimo) y costos elevados en relación a la potencia producida.

En 1954 fue descubierto el efecto fotovoltaico en dos materiales: el sulfuro de cadmio y el silicio. La utilización de estos materiales hizo posible un aumento de cien veces en el rendimiento de conversión, llegando en ese entonces a un 4% en él sulfuro dé cadmio y a más del 10% en el silicio.

A partir de 1957, los programas espaciales impulsaron fuertemente el desarrollo de ambos tipos de celdas, aumentando su rendimiento y abatiendo su costo año con año, aunque no con la velocidad suficiente para que se pudiera contemplar su producción masiva para competir con las fuentes tradicionales de energía.

Las celdas de sulfuro de cadmio (producidas por la evaporación, al alto vació, de sus materiales constitutivos sobre soportes de vidrio, metal o plástico, y por lo tanto parcialmente reproducibles a bajo precio con sistemas automáticos), presentaban serios problemas de degradación los cuales las inutilizaban en menos de un año.

Las celdas de silicio, cuya duración sobrepasa fácilmente a los 20 años, son reproducibles sin problema y tienen altos rendimientos (13-16%). Estas son construidas a partir de barras sintéticas de silicio monocristalino.

La barra monocristalina de un diámetro de 2 cm hace 10 años y de hasta 12 en la actualidad logra aumentarse poco a poco sobre un crisol con silicio fundido, a razón de 10 cm por hora, obteniéndose hoy en día barras monocristalinas de hasta 1 m de largo.

De esta barra monocristalina se recortan tajadas circuladas de medio milímetro de espesor y sobre una de la caras se forma una capa de características eléctricas adecuadas (exceso o falta de electrones) para que al incidir la luz se produzca  un voltaje de operación. Del lado que incide la luz se coloca una reja que forma uno de los electrodos y el otro electrodo se coloca en la otra cara.

En celdas de uso espacial los electrodos son generalmente de oro, recortándose además las celdas en rectángulos para ocupar la menor área posible y disminuir el peso.

En las celdas de uso terrestre, éstas son circulares y los electrodos son, por lo general, de estaño o aluminio.

Esa es, a grandes rasgos, la técnica que desde casi 1954 se ha seguid para fabricar celdas solares, y en la cual —a pesar de haberse refinado grandemente— es difícil disminuir el precio radicalmente.

Dicha tecnología es intensiva en material y mano de obra. En material debido a que durante el corte de las celdas el desperdicio es significativo (de 50 a 75%), empleando además un material proveniente de la industria electrónica, con un precio de 80 dólares el Kg y de pureza excesiva para la manufactura de celdas solares.3

A pesar de eso, el precio del Watt ha disminuido de 1000 dólares en 1960 a 7.5 en 1982; diversos estudios demuestran que al utilizar esta técnica convencional, refinando procesos y automatizando otros, se puede llegara a un precio de cinco dólares por Watt.4 Pero que ése sería el límite inferior de la tecnología ortodoxa.

Debido a lo anterior, siempre se pensó que una manera de abatir costos y aumentar las cantidades productivas era la de fabricar de manera continua silicio monocristalino en forma de listones, para evitar pérdidas de material y poder automatizar los procesos.

Desde 1958, en Holanda, se estudiaron diversos métodos. Pero fue en los E.U. que se logró en 1971 producir listones monocristalinos de silicio por los investigadores La Belle y Mlavsky.5

El listón se gorma sumergiendo un bloque de grafito de silicio fundido, el cual sube por capilaridad por una ranura de algunas centésimas de mm de espesor y unos cm de ancho, formándose a la salida el listón, a una velocidad de unos tres cm por minuto (en lugar de 10 cm por hora con el proceso tradicional de barras). El proceso permite además eliminar, casi totalmente, las pérdidas de material. La importancia principal de dicho salto tecnológico radica quizá en que se obtuvo tras una larga espera, durante la cual no se había logrado desarrollar ningún proceso tecnológico que permitiera pensar en la producción económica de energía eléctrica por celdas solares.

Después de tal avance, el desarrollo se ha acelerado lográndose obtener listones por diversos métodos6 y asimismo perfeccionar constantemente el proceso. Ello ha provocado que, a pesar de que se podrían comercializar celdas solares hechas a partir de los listones actuales a precios menores —a unos dólares el Watt—, no se inicie la producción industrial por la rapidez con la que aumenta el rendimiento de conversión y se reduce el costo de producción. Sin embargo, en Japón se ha formado una compañía con el nombre de Japan Solar Power que en 1978 empezó a producir listones para evaluación, por empresas productoras de celdas.

La compañía es propiedad de la Kyoto Ceramic Co., Sharp Electric Co., Matsushita Electric Industrial Co., la Mobil Oil Corp., y Tyco Laboratories de los E.U.

A pesar de los serios problemas que las celdas de sulfuro de cadmio presentaban, la potencialidad de su fabricación con sistemas automáticos a costos muy bajos, hizo que el esfuerzo por desarrollarlas continuara, lográndose entonces encontrar sistemas que evitan la degradación. Este problema fue resuelto en Francia por la Société Anonyme de Télécommunications (SAT) y tal parece que ha sido resuelto también en los E.U. por la Universidad de Delaware y por la empresa Boeing.

Otros avances tecnológicos que permitirán obtener celdas a un precio de venta inferior a los 70¢ de dólar el Watt, o sea el mismo que una planta convencional de petróleo son:

— La obtención por deposición de películas delgadas de silicio amorfo con eficiencia de conversión superiores al 8%.

— La utilización de silicio grado metalúrgico con postpurificación, lo que permite el empleo de una materia prima 10 veces más barata que la usual de grado electrónico.8

— La obtención del tratamiento para conferir las características eléctricas de las capas semiconductoras de silicio amorgo, directamente durante la deposición (proceso que se suponía imposible), logrado por un grupo de investigadores de la Universidad de Dundee bajo la dirección de W. Spear y P. Q. Le Comber.9

— La puesta a punto de concentrados bi-parabólicos, o de espiral logarítmica que permitirán bajar el precio del conjunto en un factor de 3 como mínimo y de 8 como máximo.

— La obtención, primero en Inglaterra y posteriormente en los E.U. de celdas a base de Arseniuro de Galio con rendimientos hasta de 23%, capaces de resistir concentraciones de luz del orden de 2000 veces la incidencia solar, lo cual permite reducir en unas 1000 veces el costo por Watt de dichas celdas (500 dólares) o sea a 50¢/W. Esto ya es dentro de las metas que el ERDA tenía para 1979, y se ha logrado con dos años de anticipación.

— La obtención de celdas de sulfuro de cadmio con una eficiencia del 10%, y de un espesor de sólo 25 micras.

— La obtención de un rendimiento de 28.5% utilizando dos tipos de celdas simultáneamente.

— La obtención de listones de silicio que permiten producir celdas económicas y de rendimiento hasta 15%.

— La obtención de celdas policristalinas hechas a partir de silicio grado metalúrgico con rendimiento del 12%.

III. Programas de investigación de países desarrollados

URSS

Se sabe que en la Unión Soviética existe un gran programa de investigación y que se han logrado avances tecnológicos importantes; empero no se conocen en detalle las metas propuestas. No hay que olvidar que fueron ellos los que empezaron a trabajar en silicio amorfo desde 1959 y son poseedores de algunos de los mejores especialistas. Se sabe que se tiene en construcción una ciudad entera alimentada por energía solar.

ESTADOS UNIDOS

 a) Gobierno

La investigación se ha seguido impulsando, después del enorme desarrollo logrado con el programa espacial. No obstante, tal impulso se redujo desde finales de los años 60 hasta 1972, porque la crisis energética, así como los problemas de contaminación térmica y seguridad que provocaría la proliferación de reactores nucleares, hizo que la política energética fuera modificada sustancialmente a favor de fuentes menos contaminantes y seguras, en especial la energía solar. 

A principios de 1973 la NSF (National Science Foundation) estableció un programa de metas a alcanzar. Este programa se proponía lo siguiente:5

 

1975. Recolección de datos de incidencia solar en los E.U
 1976. Prueba de desempeño de paneles solares en los E.U. Determinación de los precios.
 1977. Diseño de sistemas de baja potencia. La tecnología para producir celdas a cinco dólares el Watt se ha alcanzado.
 1979. Instalación de sistemas de baja potencia. Se demuestra la tecnología para producir celdas a 0.5 dólares/Watt.
1981. Se establece una fábrica piloto para producir paneles utilizando celdas de 0.5/Watt.
1982. Se producen paneles solares hasta 10KW para casas y hasta 1MW para escuelas, pequeñas industrias.
1985. Producción de plantas medianas (10MW) para pequeñas comunidades e industrias grandes.
1986. Se termina una fábrica para producir paneles solares a 30¢ de dólar el Watt.
1990. Se empieza la producción en masa de celdas solares para plantas de 100MW y alimentación de grandes ciudades.

Estas estimaciones son a precios de 1973, lo que ha provocado que en la actualidad la meta para 1986 sea de 50¢ el Watt. 

Por otro lado, el DOE (Department of Energy) ha fomentado fuertemente la investigación. En 1974 se destinaron a las celdas solares un millón de dólares, 8 millones en 1975, 29.6 millones en 1976 y 312 millones de dólares en 1978. Estos fondos sólo representan los que el gobierno está invirtiendo y no incluye el caudal que está invirtiendo la empresa privada. 

El programa del DOE se propone además multiplicar anualmente la producción de celdas por un factor de 2.7 a 3, para pasar a 100kW producidos en 1974, de 500000 a 1000000 de kW (500-1000MW) en 1985. Los E.U. según el plan deberían cubrir en el año 2000 el 26% de sus necesidades energéticas con energía solar. 

El Plan Gubernamental de Producción de Celdas hasta el año 2000 sería:5

1981    1 MW
1983    10 MW
1985    1000 MW
1990    5000 MW
1995    10000 MW
2000    20000 a 50000 MW

Habiendo acumulado 100000 MW en el año 2000.

El DOE ha dedicado parte de su presupuesto a la compra de paneles solares para prueba, y para fomentar la producción.

b) Empresas

Los norteamericanos fueron los primeros en comercializar las celdas solares. Al principio sólo participaron en la producción para uso terrestre pequeñas empresas como Solarex, Senson Technology, etc., investigando el abaratamiento que se podría lograr mejorando los sistemas convencionales. 

En 1971 fue un laboratorio privado, la Tyco Laboratories que, adaptando un sistema desarrollado para producir listones y tubos monocristalinos de rubí, zafiro y otros óxidos de aluminio, logró producir los primeros listones de silicio monocristalino.

Desde fines de los años 60, las grandes compañías petroleras y de teléfonos habían estado adquiriendo celdas solares para alimentación confiable y sin mantenimiento de sus plataformas de perforación en el Golfo de México y de sus estaciones repetidoras. El mercado llegó a ser lo suficientemente importante y la potencialidad tan grande que tanto la Exxon como la Mobil Oil y la Shell decidieron establecer laboratorios de investigación en energía solar.

La Exxon fundó una compañía productora de celdas de silicio (Solar Power Corp.) la Mobil Oil adquirió los laboratorios de Tyco (los inventores del listón de silicio), y ha continuado en dichos laboratorios el desarrollo de los listones, invirtiendo 30 millones de dólares.

La compañía Shell Oil ha promovido el desarrollo de celdas de sulfuro de cadmio, patrocinando a la Universidad de Delaware.

En relación al silicio amorfo, la SOHIO ha dado a la ECD 84 millones de dólares para una planta productora de celdas de silicio amorfo, que produciría unos 20MW de celdas al año. Esta puede ser la primera vez que se produzcan celdas de este tipo en cantidad realmente comercial.

Recientemente el interés de los grandes productores de componentes electrónicos como Texas Instruments, I.B.M., Westinghouse, Dow, Union Carbide, Honeywell, ha aumentado al punto de que todos ellos ya tienen programas de desarrollo, en especial de diferentes métodos de producción continua de listones de silicio y métodos para automatizar la producción de celdas solares.

Down Corning y Westinghouse trabajan activamente con un contrato del DOE para desarrollar métodos de producción tendientes a disminuir el precio del silicio utilizando como materia prima, de los 60 dólares el Kg actuales a 10, basados en la utilización de hornos de arco. Texas Instruments, Union Carbide y Battelle Columbus Laboratories investigan otros procesos.7

Una de las maneras más rápidas de disminuir el costo de las celdas en el desarrollo de rejas de contacto más baratas. La Solar Technology International de Chatsworth, Cal., ha desarrollado un sistema que permite hacerlo y desde enero de 1976 produce celdas solares con este proceso. El método de producción tiene un costo directo de mano de obra (en cuanto a la reja se refiere) de 35¢ de dólar por Watt, lo que permite disminuir el costo de celdas en 30%.

Empero, la Sanyo, con ayuda de la Universidad de Osaka, Japón, ha logrado producir celdas solares de silicio amorfo sin reja.

La Mobil Tyco, dueña del sistema de elaboración de listones más avanzado, ha formado, junto con algunas compañías japoneses, una empresa que comenzará a producir listones para su evaluación por empresas productoras, puesto que actualmente ya es posible construir celdas con características semejantes a las construidas por métodos ortodoxos.

JAPÓN

A pesar de haber comenzado la investigación sobre celdas solares mucho más tarde que países como la URSS, E.U., Francia e Inglaterra, los japoneses, tanto por programas gubernamentales como privados, han acelerado sus investigaciones hasta el grado de igualar a los países de Europa Occidental.

Japón estableció en 1973 un ambicioso programa para el desarrollo de fuentes de energía limpias, llamado “Sol Brillante”. Destinará a este programa la enorme cantidad de un billón de yens (unos 4 mil millones de dólares) que serán gastados entre ese año y el año 2000.

El programa es considerado en Japón tan importante para la nación como lo pudo ser el espacial para los E.U.6 Contempla la fabricación de plantas de 10MW en 1986 y de 100MW en 1991, considerando que no necesitarán mayores por la presencia de sol en todo el territorio, lo que permitirá alimentar localmente las grandes industrias con sistemas mínimos de distribución. 

Empresas japonesas

El esfuerzo actual para la investigación de celdas solares en las empresas japonesas es sumamente importante, aunque algunos programas se encuentran apoyados por fondos gubernamentales.  

La Tokyo Shibaura Electric Co., está desarrollando la fabricación de listones monocristalinos de silicio por jalado vertical, y la Toyo Silicon Co., hace lo mismo por jalado horizontal.  

Por otra parte, la Nippon Electric Co. y Hitachi Ltd, trabajan en un sistema equivalente al listón, que consiste en formar películas de silicio depositándolo iónicamente sobre sustratos de alúmina.    

Matshuita estudia la fabricación de celdas de sulfuro de cadmio y la Sharp está enfocada junto con la Kyoto Ceramic Co. y Matsushita a la fabricación de listones de silicio con licencia y participación de la Mobil Tyco de los E.U. Sin embargo, es en silicio amorfo que el Japón ha avanzado más rápidamente, y tanto Sanyo como Fuji producen celdas solares de silicio amorfo en serie, aplicadas a diversos usos comerciales.

FRANCIA

Este país es el que ha invertido más esfuerzos en el desarrollo de la energía solar en Europa. Al principio, y desde los años 50, Francia propició una gran expansión principalmente de las aplicaciones térmicas de la energía solar. Es famoso el horno de Odeillo en los Pirineos, con el cual alcanzan temperaturas hasta 3500°C, y en este año ya está instalada una planta térmica de energía solar de 3 mega-watts.   

A partir de 1970 el impulso se ha dirigido cada vez más al desarrollo de celdas solares, principalmente de sulfuro de cadmio, para el equipamiento de satélites de comunicación.  

Recientemente se ha impulsado también el desarrollo de las celdas de silicio avanzadas, en especial la obtención de películas amorfas o listones continuos.  

La agencia que se dedica a impulsar en Francia la investigación solar es el “Commissariat de l‘Energie Solaire”, el cual dedica poco más de 115 millones de dólares al año, para el desenvolvimiento de la energía solar.  

La Radiotechnique Compelec —probablemente la segunda o tercera productora mundial de celdas solares (165kW de celdas de silicio al año)— es una subsidiaria de ELF y de Phillips; la cual, tanto en sus laboratorios matrices en Holanda como en sus subsidiarias francesas y alemanas, principalmente ha dedicado sus esfuerzos al silicio. Aunque estas empresas ya han comercializado las celdas convencionales a precios similares a los americanos, su principal esfuerzo consiste en la obtención de listones o películas anchas de silicio, así como investigar la producción de otras celdas.

Otros laboratorios franceses que trabajan en la misma meta son los Laboratoires d’Electronique et de la Physique Appliquée (LEP). La SAT labora, como ya se dijo en el capítulo anterior, en el perfeccionamiento de las celdas de sulfuro de cadmio. Francia tiene planeado cubrir para el año 2000, a partir del sol, del 3 al 5% de sus necesidades totales de energía.  

INGLATERRA    

Los laboratorios de investigación ingleses han logrado importantes avances. Fueron los primeros en obtener las celdas de arseniuro de Galio, capaces de resistir concentraciones de luz equivalentes a dos mil soles. A pesar de que dichas celdas cuestan alrededor de 500 dólares/Watt, sin el empleo de concentración solar, al concentrar 2000 veces es posible pasar a precios cercanos o inferiores a los 50¢ de dólar el Watt.  

Ferranti, la empresa inglesa que fabrica celdas de silicio comercial, actualmente trabaja en poner en marcha sistemas capaces de producir listones monocristalinos de silicio.    

ALEMANIA    

El gobierno alemán dedica hoy en día ocho millones de dólares anuales para el crecimiento tecnológico de las celdas solares, a través de las grandes empresas electrónicas como Siemens y AEG-Telefunken.    

La Wacker Chemitronic ha construido celdas policristalinas de silicio con un costo potencial sumamente bajo. El proceso fue adquirido por AEG-Telefunken, que había perfeccionado el sistema de producción para lanzarlo comercialmente en 1979.  

También Leybold, en Alemania, ha impulsado la obtención de silicio barato y sistemas para la producción en masa de celdas de sulfuro de cadmio.

IV. Aprovechamiento actual de la tecnología solar 

1. Producción

La producción principal de celdas solares es a base de silicio, a partir de rebanadas obtenidas de barras monocristalinas de dicho material.   

Las celdas de silicio comerciales tienen un rendimiento promedio de conversión de energía solar a energía eléctrica del 14% (hace dos años era del 11%) y a su costo por Watt ha bajado de 20 a 10 dólares en los últimos años.   

Es difícil saber el volumen actual de producción en el mundo. Tal parece que, fuera de los países socialistas, la producción es de unos 10000 kW (la ARCO de los E.U. produjo en 1981 más de 2000 kW duplicándose su producción anualmente). 

Hasta fines de 1976 no se fabricaban comercialmente celdas de sulfuro de cadmio para usos terrestres, aunque la SAT francesa las hace en serie para usos espaciales. Sin embargo, tal parece que la Shell Oil Co. Boeing de los E.U., ya ha iniciado la producción en serie de dichas celdas. 

En los E.U. existen aproximadamente 15 compañías con producción comercial de celdas solares sin contar las que iniciarán sus operaciones este año, entre las más importantes podemos citar:  

— Solar Technology International, Solar Power Corp. (Exxon) Solarex Corp., Spectrolab Inc., Sensor Technology Inc., M7 International, Motorola, ARCO, E.C.P.  

En el resto del mundo las principales compañías productoras de celdas solares son:  

— La Radiotechnique Compélec (subsidiaria de ELF y de Holanda) Ferranti, en Inglaterra y Sharp Nippon Electric, Sanyo y Fuji en Japón, Ansaldo, Agip, ACE en Italia. AEG Telefunken en Alemania la cual hace celdas de silicio policristalino.  

2. Costos de producción y venta  

Generalmente cuando se comparan los proyectos de costos de la energía solar con los de las fuentes convencionales, no se toma en consideración el enorme egreso por mantenimiento y la inversión que representan las líneas y subestaciones de distribución de las plantas generadoras de electricidad al sitio de consumo.  

Estos costos son muy elevados, por cada kW instalado para generación, hay que instalar a su vez 4 a 5 kW en transformadores para su transmisión y distribución a los distintos usos.  

Otro costo que se olvida en estos cálculos es el de las tierras utilizadas por el paso de las líneas de transmisión, las cuales representan en general franjas de tierra de 50 m de ancho por cientos y a veces miles de km de largo. Además, tales franjas representan, en las zonas montañosas, focos de erosión acelerada.  

Cabe señalar que para 1997 la C.F.E. invirtió 10186 millones de pesos para el aumento de potencia y 7782 millones de pesos en sub-estaciones, ampliación de redes, electrificación rural y mantenimiento. La distribución representa por lo tanto un 77% adicional a la inversión de generación.   

Lo anterior nos lleva a considerar que las celdas solares necesitarían sistemas mínimos de distribución en unos casos, y la casi ausencia de ellos en otros (puesto que generarán la electricidad in situ) pueden competir ventajosamente con las plantas convencionales, aún gravando varias veces más, y conforme se abarata su costo podrán aplicarse en usos masivos, probablemente antes de 1988.     

Un programa para el empleo de celdas solares en nuestro país, debe comenzar por cubrir aquellos casos del uso de celdas solares que son ya, en el presente, más económicas, en lugar de hacer llegar las líneas de transmisión hasta el sitio de consumo.      

La utilización de las celdas solares ya es rentable en México: en los 83000 poblados menores de 500 habitantes; los miles de cruceros de ferrocarril sin señalización; los miles de bombas de agua y pozos aislados; las centenas de radiobalizadas, estaciones repetidoras, plataformas de perforación petrolera, cargadores de baterías en barcos pesqueros, campamentos, control de corrosión en gasoductos y oleoductos, etc.    

Estas aplicaciones en nuestro país permitirán desde ahora un ahorro sustancial en divisas y combustibles, pues representan en relación al consumo un requerimiento mayor de inversión, y debido a las enormes pérdidas en transmisión de electricidad o transporte de combustibles, se traduce en un consumo injustificado de energéticos. 

V. Pronóstico tecnológico

a) Implicaciones técnicas y de costo para utilizar la tecnología ya disponible

Aparte de la tecnología ortodoxa para la fabricación de celdas solares existen otras nuevas que empiezan a comercializarse y consisten, fundamentalmente, en lo siguiente:  

Celdas de silicio a partir de listón monocristalino  

La evolución técnica para producir este listón ha avanzado a grandes pasos, con inusitada rapidez, tanto en la manera de obtenerlo como en la calidad de las celdas. Se ha pasado de un rendimiento del 4% al 15%, contra 16% de las celdas convencionales. Por informaciones existentes tal parece que dicha tecnología se encuentra en la etapa final de su desenvolvimiento. Los responsables de la Mobil Oil Tyco han comercializado las celdas hechas a partir de listón en 1980 (el plan original de la ERDA era para 1981), sin embargo, comenzaron a construirlo en Japón desde 1977 para su evaluación por los fabricantes de celdas.       

Es evidente que ante la rapidez del cambio tecnológico que está ocurriendo las empresas no deseen hacer las inversiones necesarias para fabricar a gran escala celdas solares, pues las plantas serían obsoletas en sólo unos 3 o 4 años; por ello los productores de celdas, con objeto de bajar los precios y aumentar la capacidad, sólo han introducido aquellos cambios tecnológicos que requieren poca inversión. No obstante, casi todos ellos disponen de pequeñas instalaciones piloto donde se someten a prueba los procesos para la fabricación en masa.    

En cuanto al análisis de costos del proceso para producción del listón que se ha estudiado más: el de la Mobil Oil Tyco, los cálculos muestran que con la tecnología disponible, la suma de mano de obra directa, materiales y administración (sin incluir los costos de desarrollo tecnológico, amortización e intereses y ganancias) resulta ser de 18.72¢ el Watt.11

Considerando todos los costos más los de venta y las ganancias, se llega a un precio de venta algo menor de 50¢ de dólar en Watt, ello es 500 dólares el kW.11    

Por tanto, la tecnología inventada por la Mobil Oil Tyco respecto al crecimiento de listones, aparece como eminentemente apta de ser desarrollada para producir celdas capaces de competir con los sistemas de producción normales. 

b) Desarrollos técnicos a corto, mediano y largo plazo  

Tal parece que a corto plazo los principales avances se concentrarán en las celdas producidas por métodos convencionales, automatizando algunos pasos y tratando de aumentar el rendimiento hasta un 17 o 18% en las celdas de silicio; ya se han comercializado celdas de silicio policristalino, varios años antes de lo esperado.

La comercialización de las celdas de silicio amorfo para usos terrestres generada por los japoneses ha cambiado profundamente el panorama como se muestra en los siguientes párrafos.        

Lo que ha complicado aún más la situación para los constructores de celdas convencionales y a los desarrollos basados en el silicio monocristalino o policristalino, ha sido la entrada en escena del silicio amorfo.     

Los semiconductores amorfos empezaron a estudiarse en la URSS, por Kolomietz, y posteriormente en Europa y E.U. En Escocia el grupo Spear logró en 1975 envenenar el material. Desde entonces el avance ha sido espectacular y los grupos soviéticos, japoneses (Hamakawa) y norteamericanos (Ovshinsky) han avanzado tan rápidamente que se ha llegado a la comercialización y el diseño de plantas capaces de producir celdas solares en forma semi-masiva. En 1984 acontece el arranque de plantas capaces de producir entre 10 y 20 MW y si el movimiento en silicio amorfo sigue con el impulso actual, bien puede constituirse como el material idóneo a desarrollar masivamente.       

Las ventajas son obvias; un espesor de sólo un micrómetro, posibilidad de producción continua con conexiones integrales eliminando las interconexiones hechas por los obreros o autómatas, empleo de materiales más baratos y en cantidades muy pequeñas, bajo consumo energético durante la fabricación… y la presencia en la tecnología de gigantes como Sanyo, Fuji, Sohio, desligados del negocio nuclear y en especial los japoneses con amplia experiencia en incluir nuevas tecnologías a la producción masiva. Se espera que para 1986 los precios de las celdas de silicio amorfo sean de 60 centavos de dólar por Watt.

La empresa Varian de los E.U., está tratando de obtener paneles económicos con precio por Watt de 0.5 y 1 dólares, concentrado la luz solar sobre celdas de arseniuro de Galio.7 Empero, estos sistemas de alta concentración (2000 soles) tienen la desventaja para operar eficientemente, y además, deben seguir la trayectoria solar.       

A mediano plazo el énfasis está dado en la obtención de silicio barato, es decir, disminuir el precio por Kg de 80 dólares a 10. Esto se logrará principalmente utilizando silicio “grado celda solar” mucho menos puro que el que se usa en la actualidad y es empleado por la industria electrónica.     

Otra meta de mediano plazo es la obtención de listones por métodos similares al de la Mobil Tyco, pero se encuentran en la fase experimental de laboratorio.        

En relación al listón producido por el sistema Tyco, las metas a mediano plazo son: aumentar la velocidad de formación de listón, disminuir el espesor, aumentar el ancho de los listones producidos y (algo que tendría mucho impacto en el costo) aumentar el rendimiento de las celdas hasta alcanzar el de las celdas convencionales.        

Debe recordarse que la meta del DOE a mediano plazo (1986) es llegar a un precio de venta de 70¢ de dólar el Watt.  

Metas a largo plazo    

A largo plazo, puesto que se espera llegar a un precio por Watt de 20¢ de dólar, o menos, el esfuerzo se centrará sobre celdas de película delgada, principalmente de Teluro de Cadmio-Sulfuro de Cadmio, de Sulfuro de Cadmio, de Silicio policristalino y de silicio amorfo. A dichas celdas se les ha llamado de tercera generación, siendo las de segunda generación las de listón de silicio y las de Sulfuro de Cadmio y constituyendo la primera generación las construidas por el método heredado de los satélites.   

El énfasis dado a largo plazo a las celdas de película delgada obedece a la facilidad con que dicho sistema (evaporación de alto vacío de sus capas constructivas) puede automatizarse y producirse así en grandes cantidades.12    

También se trabaja, en vista a resultado a largo plazo, en la obtención directa de hidrocarburos para fotótosis y en efecto fotogalvánico (carga directa de baterías con luz solar).   

Por otra parte, se labora en la automatización completa del proceso de construcción de celdas y obtener así directamente paneles.      

Esto último se alcanzará alrededor de 1990, época en que los norteamericanos piensan producir 5000 MW de celdas solares al año, para llegar en el año 2000 a 50000 anuales, y cuando los japoneses comercialicen las celdas de silicio amorfo en forma masiva, también programado para esas fechas.      

Mientras tanto, el precio sigue bajando en términos de dólares desde 1980 en un 20% al año y la producción continúa duplicándose anualmente, lo que significa construir en el futuro —año en año— tanto como el total existente en los años anteriores.   

VI. Realizaciones en México    

Tanto la UNAM como el IPN han trabajado desde hace varios años en la fabricación de celdas solares, especializándose el Instituto de Materiales de la UNAM en celdas de Sulfuro de Cadmio y en silicio amorfo, y el Centro de Estudios Avanzados del IPN, en las de silicio monocristalino.      

El Politécnico tiene 18 años de actividades relativas a esta área y ha logrado dominar por completo la tecnología ortodoxa, produciendo celdas de silicio en pequeñas cantidades a partir de monocristales de silicio importados.

A partir de 1973, el Instituto de Investigaciones en Materiales de la UNAM atacó el problema de la elaboración de celdas de Sulfuro de Cadmio, utilizando principalmente el proceso de evaporación en vacío de películas delgadas de dicho semiconductor. En 1974 se obtuvieron las primeras celdas, las cuales mostraron un rendimiento de conversión de 4%. Los problemas de degradación han sido afrontados con éxito y están en vías de solución, creándose un “saber cómo” de fabricación. En 1981 se comenzó el trabajo en silicio amorfo.     

En conjunto los grupos científicos del IPN y la UNAM constituyen una infraestructura lista para emprender un programa de fabricación en serie, a pequeña escala, de celdas solares que podrían utilizarse en las aplicaciones ad hoc para las cuales estos dispositivos ya son económicos. Este grupo de científicos servirá como masa crítica para absorber las tecnologías extranjeras y desarrollar una gran industria fabricante de celdas solares.     

Un programa de fabricación en serie, requeriría el apoyo del Instituto de Física de la UNAM, para dirigir a algunos grupos de físicos adscritos a estado sólido a la especialidad de celdas solares; asimismo, el Instituto y la Facultad de Química para la obtención del sulfuro de cadmio y de silano, fosfina y diborano para investigación y del Instituto Nacional de Astrofísica, Óptica y Electrónica para la elaboración del silicio.      

La capacidad técnica disponible permitiría iniciar un programa piloto a corto plazo que empezaría a producir comercialmente, en un par de años y que requeriría una inversión moderada. Las metas a corto plazo ya se han realizado y fueron:

 1978. Fabricación en vistas a demostración de pequeñas cantidades de fotoceldas con las facilidades actuales.
 1979. Diseño de una planta y pedido de maquinaria para producir celdas solares por método ortodoxo.

 A largo plazo:

1987. Construcción de celdas solares en cantidad superior de 50 Mw/año.
1990. Fabricación de 1000 MW al año.
1995. Fabricación de 2000 MW al año.
2000. Fabricación de 4000 MW al año.

Para lo anterior, será necesario una acción conjunta de las instituciones mexicanas antes citadas, y una promoción enérgica en ellas de la investigación en energía solar, en particular sobre la fabricación de celdas solares.

 El hacer lo anterior, permitirá desarrollar un grupo de científicos altamente calificados en energía solar, y la posibilidad de asimilar y desenvolver fácilmente las ideas internas y externas, y eventualmente desarrollar una tecnología solar propia, cuando menos si no es la tecnología original, sí en “saber cómo”, independientemente de que ensamblemos paneles solares con celdas importadas o establezcamos “joint ventures” con las empresas que, como Solarex y Phillips, ya han manifestado su interés en establecer una fabricación en México.

 articulos
       
Referencias bibliográficas
1. Wireless World, p. 52, octubre, 1976.
2. R. J. Mytton, Solar Energy, Vol. 16, pp. 33-35, 1975.
3. S. N. Rea and G. F. Wakfield, Texas Instruments, ERDA Photovoltaic Semiannual Convention, agosto 3-5, 1976.
4. A. R. Kirkpatric, Simulation Physics, Inc. ERDA Photovoltaic Semiannual Convention, agosto 3-5, 1976.
5. Electronics, pp. 109-110, abril 4, 1974.
6. Electronics, pp. 94-88, noviembre 11, 1976.
7. Electronics, p. 92, noviembre 11, 1976.
8. Ting L. Chu, 33-34, Electronics, Junio 24, 1975.
9. Wireless World, enero 1977, p. 38.
10. La Recherche No. 60, p. 872, octubre, 1975.
11. K. V. Raví y A. I. Milavskg, EFG Growth of Silicon Ribbon for Solar Cells, Third ERDA Semiannual Photovoltaic Convention Review, Meeting, agosto 3-5, 1976.
     
 ____________________________________________________________      
Raúl Alcaraz
Profesor de la Facultad de Ciencias,
Universidad Nacional Autónoma de México.

     

como citar este artículo

     
You are here: Inicio Blog (2) revistas revista ciencias 10