![]() |
![]() |
||||||
José Luis Alonso
|
|||||||
Cuando se enfrenta la tarea de realizar un trabajo histórico sobre algún tópico particular de la ciencia. La primera dificultad que se presenta es la pregunta: ¿sobre qué aspectos se construye una historia de la ciencia?
En la medida que se establece una concepción particular acerca de la ciencia, se justifica la inclusión de ciertos aspectos que pudiesen estar fuera del contexto según otras concepciones. De acuerdo con lo anterior y debido a la gran diversidad de ideas que se tienen respecto a la ciencia, es necesario plantear como premisa principal que se concibe a la ciencia según las características que señala John D. Bernal, a saber “…(1.1) como una institución; (1.2) como un método; (1.3) como una tradición acumulativa de conocimientos; (1.4) como un factor principal en el mantenimiento y el desarrollo de la producción; y (1.5) como una de las influencias más poderosas en la formación de las opiniones y actitudes respecto al universo y al hombre”.1 Esta premisa permitirá presentar una visión más amplia del desarrollo de algunos puntos de interés que ofrece la termodinámica, el cual presentamos no sólo en la forma de relato cronológico, sino que intentaremos hacer evidente la relación entre requerimientos económicos, requerimientos técnicos y generación de conocimientos. Como corolario a la premisa planteada es necesario añadir la no neutralidad de la ciencia y acabar así con el mito de que la ciencia se ha construido y se construye por genialidades casuales e ingenuas. El capitalismo y el surgimiento de la termodinámica Al finalizar la Edad Media en Europa el sistema feudal se enfrentaba ante el elemento revolucionario de esa época, la burguesía. El mejor representante del sistema feudal era la Iglesia católica romana que se extendía por toda Europa occidental y a pesar de que empezaban sus conflictos internos, poseía, por lo menos, la tercera parte de toda la propiedad territorial del mundo católico. Esto implicaba que para que la burguesía conquistara el poder fuera necesario que destruyese esta organización central. Paulatinamente, con la evolución de la burguesía, se requería de una ciencia que impulsara el desarrollo industrial, es decir, una ciencia que investigase las propiedades de los cuerpos físicos y el funcionamiento de las fuerzas naturales. Esto motivó a que la ciencia se rebelara contra la iglesia y traspasara las fronteras establecidas por la fe. La campaña de la burguesía para llegar al poder no sólo incluía los aspectos económicos, filosóficos y científicos, sino también la parte política y social. Esta última se llevó a cabo a través de la actividad bélica. Así pues, durante los siglos XVI, XVII y XVIII se suceden una serie de revoluciones burguesas en países como Francia e Inglaterra, que tratan de abolir los regímenes absolutistas monárquicos y establecer sistemas parlamentarios. Además, surgen conflictos entre naciones (ya que se empiezan a conformar los centros industriales, mercantiles y de consumo) para obtener recursos (litorales, ríos, carbón, etc.) y asegurar su supremacía en el campo económico. Sin embargo, la burguesía no llegó al poder repentinamente, tuvo que hacer una transacción con los grandes feudales. De esta forma los cargos políticos, los grandes sueldos y otros privilegios les fueron respetados a las familias de la aristocracia rural, a condición de que defendiesen cumplidamente los intereses económicos de la clase media financiera, industrial y mercantil. La iglesia no fue destruida sino que fue transformada en un aliado de la nueva clase en el poder. Esta alianza se fortalece cuando aparece el materialismo, doctrina que desenmascara a la burguesía como usurpadora del poder a costa del sacrificio de vidas campesinas. El materialismo no sólo critica a la religión, sino a todas las tradiciones científicas y a todas las instituciones políticas, tratando de demostrar su aplicación universal. El desarrollo del capitalismo tiene un número de etapas caracterizadas por los diferentes niveles de madurez. La etapa de la Revolución industrial es una etapa de transición de una fase primitiva de capitalismo a otra fase que constituye la producción a gran escala. Esta transición se produce bajo las ideas económicas del libre juego de las fuerzas autorregulables del mercado y las constantes innovaciones técnicas. Este periodo de actividad económica está íntimamente relacionada con un periodo de actividad científico-técnica, cuya temática central fue el desarrollo del conocimiento acerca del calor, la energía y el trabajo. Génesis del concepto de energía Las raíces que dieron lugar al concepto de energía son las mismas que permitieron establecer el concepto de cantidad de movimiento y el principio de su conservación, esto es el problema de las variaciones de movimiento que tienen lugar cuando los cuerpos chocan unos con otros. Luego de estudiar este problema, Christian Huygens (1629-1693) propone en 1669, como parte de su solución, la regla de que para un sistema de cuerpos en colisión, la suma de los productos de la masa por el cuadrado de la velocidad de cada uno de ellos permanece constante antes y después del choque de una colisión perfectamente elástica (sin pérdida de energía). A la cantidad mv2 se le dio el nombre de vis viva y fue utilizada como base de la teoría mecánica del filósofo y científico alemán Gottfried Wilhelm Leibnitz y en otros trabajos del propio Huygens publicados alrededor de 1700. Utilicemos un ejemplo concreto para analizar el postulada de Huygens. Dos esferas desiguales y perfectamente rígidas se aproximan una hacia la otra con distintas velocidades, chocan y se separan. Sabemos que el principio de conservación de la cantidad de movimiento exige que:
fórmula (1)
pero Huygens proponía que, a la vez, se cumple la relación
fórmula (2)
Hay que aclarar que la expresión (2) no puede deducirse de la (1), que se trata de una ecuación escalar en la que no intervienen las direcciones del movimiento y que es válida en esta forma, tanto si A choca contra B como si B choca contra A, así la velocidad de A y B se encuentran formando un ángulo cualquiera. La primera ecuación es siempre cierta en todas las colisiones, ya sean elásticas o inelásticas; la segunda es una aproximación casi correcta para cuerpos que chocan con un coeficiente de restitución cercano a la unidad, pero no es aplicable a colisiones inelásticas.
Huygens no puso mucho interés en la vis viva, pero Leibnitz (1646-1716) la retomó y aplicó para atacar la física de Descartes. Leibnitz mantenía que la vis viva era la verdadera medida del movimiento, en contra del punto de vista geométrico de Descartes (15961660). D’Alembert (1717-1783) clarificó el problema apuntando que todo el debate fue sobre palabras. El inició un nuevo tratamiento del principio de conservación de la vis viva a partir de principios mecánicos anteriores. A pesar de que Leibnitz detectó que la vis viva dependía del peso del cuerpo y la distancia recorrida, no identificó el producto del peso por la altura como una cantidad independiente importante. La ingeniería mecánica jugó un papel importante en la formulación del concepto de energía. Su interés en las máquinas y su eficiencia le llevó a relacionar la vis viva con la potencia. La necesidad de medir la eficiencia mecánica conduce desde la noción general de potencia a la formulación del concepto de trabajo mecánico, que será definido matemáticamente como la vis viva gastada por la máquina. La máquina hidráulica fue el modelo básico de máquina durante los siglos XVII y XVIII. En 1767, Borda (1733-1799) desarrolló el problema básico de la eficiencia mecánica de las máquinas hidráulicas, aplicando el concepto de vis viva y relacionándolo con el cambio de altura del fluido de la máquina. Lazare Carnot (1763-1823) realiza un notable avance: relaciona la vis viva con el producto de la distancia vertical por el peso (P X h), al que llama fuerza latente o momento de actividad. Coriolisis fue el primero en usar el término general “trabajo” para designar la integral de la fuerza y la distancia transformando:
fórmula
Algunos años más tarde, J.L. Lagrange, en su Méchanique analitique estableció que para un sistema conservativo . Sin embargo, las fuerzas disipativas de los sistemas no conservativos no cumplían con la afirmación de Lagrange, por lo que era necesario estudiar el efecto de estas fuerzas, es decir, el fenómeno del calor.
Desarrollo de las ideas sobre la naturaleza del calor Queda todavía una extensión final del concepto de energía, la cual tiene que ver con los problemas relacionados con el calor. Fue justamente esta extensión, obtenida a mediados del siglo pasado, la que, en efecto, clarificó y amplió los diversos conceptos separados de la energía. Es, pues, importante mencionar el desarrollo de las ideas sobre la naturaleza del calor antes de discutir los aspectos cuantitativos de las transformaciones entre el calor y otras formas de energía. Aristóteles consideraba al fuego como uno de los cuatro elementos fundamentales cuyo lugar natural se encontraba en las alturas, con lo que gran parte de la conducta observada en los cuerpos calientes podía explicarse en forma cualitativa. Los atomistas griegos explicaron las diferencias de temperatura de los cuerpos imaginando al calor como una sustancia especial, no perceptible directamente, atómica en estructura como las restantes, que se difundían a través de los cuerpos rápidamente y que, posiblemente poseía algún peso. Este concepto es útil en conjunto para explicar la mayor parte de las observaciones casuales, incluyendo el equilibrio de temperaturas que alcanzan dos cuerpos cuando, eventualmente, estén en contacto entre sí. Sin embargo, algunos filósofos científicos del siglo XVII, como Bacon, Galileo, Boyle y Newton, tuvieron sus dudas, desconfiando de la teoría del calor como un fluido y, en su lugar propusieron que el calor podía explicarse directamente como una vibración de los cuerpos calientes. Pero ninguno de ellos pudo desarrollar esta idea de manera convincente. El siglo XVIII presenció una proliferación de teorías basadas en fluidos imponderables. El principio de inflamabilidad, llamado flogisto, era visto como un fluido ganado y perdido por los cuerpos durante una combustión y otras reacciones químicas. Los efectos magnéticos y eléctricos eran descritos en términos de fluidos y efluvios. En este clima general de pensamiento resulta natural concebir al calor como un fluido imponderable y más y esta teoría fue, naturalmente, reforzada fuertemente por la clara y definida demostración de la conservación del calor en los experimentos calorimétricos. No es sorprendente, por tanto, que las especulaciones de los físicos del siglo XVII fueran hechas a un lado; Black, Lavoisier y otros las rechazaron explícitamente. Lavoisier (1743-1794), cuyas investigaciones demolieron finalmente la teoría del flogisto, dio al principio fulídico del calor el nombre de calórico y la teoría de éste fue lanzada a una larga y fructífera historia llegando hasta mediados del siglo XIX, cuando abrió paso al principio de conservación de la energía. Se postuló que el fluido calórico tenía las siguientes propiedades: a) es una sustancia material que no puede ser creada ni destruida; b) el fluido es elástico y sus partículas se repelen entre sí, pero son atraídas por las partículas de otras sustancias, siendo la magnitud de la atracción diferente para distintos materiales; c) el fluido calórico puede ser sensible o latente; en el primer caso se difunde rápidamente entre las partículas atractivas y rodea a cada una con una atmósfera del fluido; en el último caso, el fluido calórico se combina con las partículas atractivas de una manera muy semejante a las de las combinaciones químicas. Con el desarrollo de termómetros confiables, calibrados en forma reproducible, fue posible llevar a cabo experimentos cuantitativos sobre el calentamiento y enfriamiento de diversas sustancias. Black (1728-1799) fue de los que más aportó a la teoría del calórico y respecto al empleo de los termómetros afirmó: “por el uso del termómetro hemos aprendido que si tomamos… diferentes clases de materia, tales como metal, piedras, madera, corcho, plumas, lana, agua y una variedad de otros fluidos, aunque al principio entre todos ellos existen diferencias de temperatura, y si los ponemos juntos en un cuarto, sin fuego y dentro del cual brille el sol, el calor será comunicado del más caliente de estos cuerpos al más frío, durante algunas horas quizás o en el curso del día; al final de este tiempo, si aplicamos un termómetro a todos ellos en sucesión dará precisamente la misma lectura. El calor por tanto se distribuye en este caso hasta que ninguno de estos cuerpos tiene una mayor demanda o atracción por el calor que cualquier otro… El calor es llevado así a un estado de equilibrio… Debemos adoptar, por tanto, como una de las leyes más generales del calor, el principio de que todos los cuerpos que se comunican libremente entre sí y que no están expuestos a desigualdad alguna, debida a acción externa, adquieren la misma temperatura como es indicada por un termómetro”.2 De esta manera, la temperatura queda definida como un número observado en una escala y el calor como algo intercambiado entre los cuerpos, además, se vislumbra lo que será luego la ley cero de la termodinámica. La expansión térmica se explicaba diciendo que las partículas de la sustancia en expansión obedecen a una fuerza gravitacional inversa al cuadrado de la distancia y la atmósfera calórica a una ley logarítmica; el punto donde cruzan las gráficas de ambas propiedades es la distancia entre las partículas. Así, a mayor temperatura la ley logarítmica cruza la gráfica de la fuerza gravitacional a mayor distancia. Se afirmaba además, que la fuerza de atracción gravitacional era menor en los líquidos que en los sólidos y despreciable en los gases, por ello, el coeficiente de expansión de los líquidos es mayor que en los sólidos y en los gases es el mismo. Sin embargo, el comportamiento extraño del agua nunca lo pudieron descubrir bajo estos argumentos. Durante la realización de experimentos con agua a distinta temperatura se construyó el concepto de calor específico; al mezclar masas iguales a distintas temperaturas encontraran que ΔTa= -ΔTb. Por otra parte mediante la combinación de masas distintas de agua a distintas temperaturas se estableció que:
ΔTa/ΔTb = -mb/ma
Y al mezclar con una sustancia diferente se encontró que:
CxmxΔTx = -mAΔTA
donde el factor de proporcionalidad fue definido como el calor específico del material, y donde la cantidad Cxmx era interpretada como la cantidad equivalente de agua; por ejemplo, en el caso del mercurio Cx = 0.033 y mx = 100 g de mercurio cantidades que equivalen a 0.033 X 100 g = 3.3g de agua en relación a la capacidad de absorber calor. Así, se estableció finalmente la relación general para la combinación de n sustancias diferentes a distintas temperaturas:
CAmAΔTA + CBmBΔTB + CCmCΔTC + ... = 0
Por otra parte, las fenómenos de cambios de fase resultaban ser particularmente interesantes. Respecto a la fusión del hielo, Black fue el primero que dio una descripción correcta:
“La fusión había sido universalmente considerada como producida por la adición de una cantidad muy pequeña de calor a un cuerpo sólido, una vez que había calentado hasta su punto de fusión, y el regreso del líquido al estado sólido, como dependiente de una disminución muy pequeña de su cantidad de calor… Se creía que esta pequeña adición de calor durante la fusión era necesaria para producir una pequeña elevación de la temperatura como era indicada por un termómetro”. “La opinión que me formé… es como sigue. Cuando el hielo o cualquier otra sustancia sólida es fundida… una gran cantidad de calor entra en ella… sin hacerla aparentemente más caliente, cuando era medida por (un termómetro)… Yo afirmo que esta gran condición de calor es la causa principal y más inmediata de la licuefacción inducida”.3 Black describe una variedad de experimentos diseñados para demostrar su argumento, entre ellos una demostración de que la temperatura del hielo expuesto en un cuarto caliente no cambia, mientras que la temperatura en una cantidad igual de agua fría se eleva significativamente. Argumenta que tanto el hielo como el agua deben estar absorbiendo el calor del aire aproximadamente en la misma proporción. Otro experimento de carácter cuantitativo le permitió calcular el calor latente de fusión del hielo en 70 cal/g. Además encontró, por analogía, el calor latente de vaporización alrededor de 539 cal/g. A pesar de la aceptación que llegó a tener la teoría del calórico en 1780, había dos hipótesis difíciles de sostener: a) la posibilidad de que tuviera peso, y b) el fluido calórico se conserva en cualquier proceso térmico. Un pequeño número de investigadores no estaba satisfecho con la hipótesis de que este fluido material tuviera tantas propiedades especiales. Uno de estos inconformes fue Benjamín Thomson (1753-1814). El primer punto que atacó fue el peso del calórico y después de fallidos intentos por medirlo escribió en 1799: “Creo que puedo sacar la conclusión, con toda seguridad, de que todos los intentos para descubrir cualquier efecto del calor en el peso aparente de los cuerpos, serán inútiles”.4 Thomson también dedicó su atención al calor producido por fricción y cuando estuvo supervisando la perforación de cañones en los talleres del arsenal militar en Munich hizo la siguiente consideración “la notable circunstancia de que la fuente de calor generada por la fricción en estos experimentos evidentemente parecía inagotable. Difícilmente, es necesario añadir, que cualquier cosa que el cuerpo aislado o sistema de cuerpos pueda continuar suministrando sin limitación no puede, posiblemente, ser una sustancia material; me parece que es extremadamente difícil, si no imposible, formar alguna idea clara de algo capaz de ser excitado y comunicado de manera la cual al calor fue excitado y comunicado en estos experimentos, que no sea movimiento”.5 En 1830 Humphry Davy continuó el ataque de Thomson al calórico. A pesar de las múltiples objeciones la teoría del calórico no fue abandonada inmediatamente, sin embargo, Laplace y Lavoisier, en su Memoria sobre el calor, de 1786, consideraron las hipótesis rivales del calor como movimiento y del calor como fluido calórico y escribieron: “Nosotros no decidiremos en absoluto entre las dos hipótesis anteriores. Varios fenómenos parecen favorables a una, tal como el calor producido por la fricción de dos cuerpos sólidos, por ejemplo; pero existen otros que son explicados en forma más simple por la otra; quizá ambas sean válidas al mismo tiempo… En general, uno puede cambiar la primera hipótesis a la segunda cambiando las palabras calórico libre, calórico combinado y calórico liberado por vis viva, pérdida de vis viva e incremento de vis viva”.6 Hacia 1830 Europa se encontraba en pleno apogeo de la revolución tecnológica. La industria dependía de la máquina de vapor para obtener la potencia mecánica generada por el calor suministrado por los combustibles. Faraday (1791-1867) había descubierto la inducción electromagnética y construido generadores eléctricos primitivos que se estaban usando en experimentos de todas clases. En esta atmósfera, James Prescott Joule (1818-1889), que concibió la idea de una posible relación cuantitativa entre el trabajo y el calor, realizó una larga serie de experimentos cada vez más exactos sobre la producción de calor en el agua por efectos de fricción. En 1850 publicó un extenso resumen de resultados con una aseveración final: “La cantidad de calor producida por la fricción de cuerpos, ya sea en sólidos o líquidos, es siempre proporcional a la cantidad de trabajo gastado. La cantidad de calor capaz de aumentar la temperatura de una libra de agua… en 1°F requiere para su evolución el gasto del trabajo mecánico representado por la caída de 772 lb a través del espacio de un pie”.7 Los experimentos de Joule, junto con el trabajo y el pensamiento de algunos de sus contemporáneos, condujeron a la formulación de la ley de conservación de la energía. Esta síntesis prodigiosamente fértil de la mecánica y la teoría del calor invitaba a retornar al punto de vista inicial del calor, considerándolo como asociado con el movimiento de las partículas constituyentes. Conservación de la energía La generalización y extensión del principio de conservación durante la década inicial en 1840 condujo, finalmente, al abandono de la teoría del calórico. La primera enunciación publicada del principio de la conservación de la energía apareció en un trabajo altamente especulativo, casi metafísico, en Annalen der Chemie und Pharmacie de Justus Liebig en 1842. El autor era Julius Robert Mayer (1814-1878) y el trabajo se titulaba “Comentarios sobre las fuerzas de naturaleza inorgánica”. En él, Mayer establecía lo siguiente: “Las fuerzas (energías) son causas; consecuentemente, podemos, en relación con ellas, hacer una aplicación total del principio causa aequat effectum. Si la causa c tiene el efecto e, entonces c = e, a su vez, e es la causa de un segundo efecto f, tenemos e = f así sucesivamente… Es una cadena de causas y efectos, un término o una parte de un término; nunca puede, como aparece claramente en la naturaleza de una ecuación, volverse igual a nada. Esta primera propiedad de todas las causas la llamamos su indestructibilidad. Si la causa dada c ha producido un efecto e igual a sí misma, en ese mismo acto ha dejado de ser c y se ha vuelto e… Esta capacidad de tomar varias formas es la segunda propiedad esencial de todas las causas. Tomando ambas propiedades juntas, podemos decir, las causas son cuantitativamente indestructibles y cualitativamente objetos convertibles”. “Dos clases de causas ocurren en la naturaleza, las cuales, hasta donde va la experiencia, nunca pasan una a la otra. La primera clase consiste de tales causas que poseen las propiedades de peso e impenetrabilidad, estos son tipos de materia; la otra clase está compuesta de causas que están faltando en las propiedades apenas mencionadas, a saber fuerzas (energías)… Las fuerzas son, por tanto, indestructibles, convertibles, objetos imponderables”.8 Este razonamiento metafísico de dudosa lógica difícilmente iba a encontrar respeto en la comunidad científica a su tiempo. Además, la cuestión de la convertibilidad e indestructibilidad de la energía depende de la prueba experimental por un lado y, por otro, de una definición apropiada del concepto de energía, más bien que de una identificación a priori de la energía basada en nociones vagas de causa y efecto. Sin embargo, Mayer trató de justificar sus afirmaciones y mediante los pocos trabajos experimentales que realizó, encontró una nueva expresión para el trabajo dada por W = PΔV, así como un equivalente mecánico del calor. Pero fue Joule el que más se esforzó por encontrar una equivalencia entre el calor y la energía mecánica. Con su amigo William Thomson llevó a cabo una cuidadosa investigación del comportamiento de los gases, para determinar hasta qué punto la energía potencial podría ser almacenada o liberada durante la expansión, sometiendo el análisis, hecho inicialmente por Mayer, a una prueba más crítica. En una conferencia ofrecida en Manchester en 1847 Joule expresó: “La opinión que más ha prevalecido últimamente, ha sido que (el calor) es una sustancia que posee, como cualquier otra sustancia, impenetrabilidad y extensión. Nosotros hemos demostrado, sin embargo, que el calor puede ser convertido en fuerza viviente (energía cinética) y en atracción a través del espacio (energía potencial). Es perfectamente claro, por tanto, que salvo que la materia puede ser convertida en atracción a través del espacio, que es una idea demasiado absurda para considerarse por un momento, la hipótesis de que el calor debe ser una sustancia debe abandonarse. Por tanto, el calor debe consistir ya sea en fuerza viviente o en atracción a través del espacio… Estoy inclinado a creer que se encontró que ambas hipótesis eran correctas;… se encontrará que el calor sensible consiste en la fuerza viviente de las partículas de los cuerpos en los cuales es inducido; mientras que en otros (casos), particularmente en el caso del calor latente, los fenómenos son producidos por le separación de partícula a partícula, de manera que haga que se atraiga una a otra a través de un espacio mayor”.9 Luego de una aceptación lentamente creciente del principio enunciado por Mayer y Joule, el concepto fue extendido cuantitativamente para que incluyera otros fenómenos mecánicos, tales como propagaciones ondulatorias y flujo de fluidos. El físico alemán Helmholtz (1821-1894) publicó un trabajo en 1847 en el cual dio un tratamiento cuantitativo de la energética de ciertos fenómenos eléctricos, magnéticos y químicos, simples. La conservación de la energía tuvo un importante papel en el desarrollo de una comprensión de la luz y el electromagnetismo; es, por otra parte uno de los pilares fundamentales de la teoría de la relatividad. En un periodo de más de 120 años, los científicos han desarrollado una profunda fe en la validez fundamental de las leyes de la conservación como expresiones de orden en la naturaleza. Es, por tanto, deseable analizar poco más profundamente el estado lógico de estas aseveraciones. ¿Son las leyes de conservación definiciones o convenciones esencialmente convenientes?, como Poincaré implica en algunas de sus discusiones. Si, en algunos casos, la ley de la conservación de la energía pareciera que fallara ¿podremos siempre ser capaces de rehabilitarla inventando una nueva partícula o una nueva forma de energía? Al respecto, Karl Popper, el lógico y filósofo de la ciencia, argumenta que las hipótesis científicas nunca pueden ser conclusivamente verificadas debido a que es imposible probarlas para cada uno de los infinitos casos particulares a los cuales podrían aplicarse, pero señala que las hipótesis científicas podrían, por lo menos, diferenciarse de los sistemas matemáticos o aún metafísicos por el criterio de falsificación; debe ser posible, en principio, refutarlas o demostrar que son falsas recurriendo a la experiencia:… “lo que caracteriza al método empírico es su manera de exponer las falsificaciones, en toda forma concebible, al sistema que va a ser puesto a prueba. Su mira no es salvar las vidas de sistemas insostenibles sino, por el contrario, escoger aquél que por su comparación sea el que más se ajusta, exponiéndolos a todos ellos a la más fiera lucha por la supervivencia".10 El profesor Bridgman argumenta que sus leyes de conservación son realmente infalsificables en este sentido; que están lejos de ser tautologías o convenciones puras: “Un comentario de Poincaré es a menudo citado al efecto de que si alguna vez encontramos que la ley de conservación de la energía pareciera fallar, la recobraríamos inventando una nueva forma de energía. Esto me parece a mí que es una engañosa y parcial caracterización de la situación. Si en cualquier situación específica la ley claramente fallara, indudablemente nosotros trataríamos primero de mantener la ley inventando una nuevas forma de energía, pero cuando la hubiéramos inventado demandaríamos que fuera una función (de números o parámetros, que describen el estado del sistema) y que la ley continuara siendo válida para toda la infinita variedad de combinaciones, en las cuales los nuevos parámetros podrían hacerse intervenir. Que la conservación continuara siendo válida bajo tales condiciones extendidas, podría determinarse solamente por el experimento. El concepto de energía está muy lejos de ser simplemente una convención”.11 |
|||||||
Notas 1. Bernal, John D. La Ciencia en la Historia, ed. Nueva Imagen, México, 1979, p. 40.
2. Citado por Arons, Arnold B. Evolución de los Conceptos de la Física, ed. Trillas, México, 1970, pp. 432-433.
3. Citado en Arons, Arnold B., op. cit., p. 438.
4. Citado en Holton, Gerard y Brush, Stephen G. Introducción a los conceptos y teorías de las Ciencias Físicas, ed. Reverté, México, 1979, p. 386.
5. Idem, p. 446.
6. Citado en Holton, Gerard y Brush, Stephen G., op. cit, p. 443.
7. Idem, p. 446.
8. Idem, p. 458.
9. Idem, p. 458.
10. Idem, p. 451.
11. Ibídem.
|
|||||||
____________________________________________________________
|
|||||||
José Luis Alonso
Estudiante de la carrera de Física Facultad de Ciencias, Universidad Nacional Autónoma de México. cómo citar este artículo →
Alonso, José Luis 1982. “Energía, trabajo y calor: un enfoque histórico”. Ciencias núm. 2, julio-agosto, pp. 26-33. [En línea]
|
![]() |
![]() |
PDF →
|
|||||
Rosaura Ruiz Gutiérrez
|
|||||||
En 1859 Darwin publica El origen de las especies por
medio de la selección natural; o la preservación de las razas favorecidas en la lucha por la existencia. Este libro rompe con la filosofía de la “economía natural” según la cual cada organismo ocupa un lugar en la naturaleza para el que fue especialmente creado, y el cual no puede abandonar; naturaleza que, por otro lado, es regulada por la “policía natural” (Linneo) que preserva la proporción requerida de especie sin riesgo de aniquilamiento de ninguna según esta concepción. El equilibrio está asegurado por relaciones de depredación ya que en ésta no se contemplan relaciones de competencia. Esta idea se encuentra unida a otra, a saber, de la idea de omnipresencia como resultado de la perfección de la adaptación, puesto que cualquier organismo con alguna traba natural sería eliminado en la medida en que tales anomalías harían disminuir las posibilidades de adaptación. De ahí que las especies no cambien; las transformaciones, las salidas del tipo son rechazadas por la naturaleza, eliminadas por la “policía natural”. Así persisten las especies, no hay evolución.
Darwin por el contrario, no cree en la perfección, tampoco en la omnipresencia de la adaptación. Para él existen diferencias individuales en cualquier población, de modo que entre los que sobreviven en la lucha por la existencia unos están mejor adaptados que otros, por ello, la evolución puede llevar al mejoramiento de la adaptación.
Además, dice Darwin, “todo ser orgánico procrea en proporción tan elevada que, sí no se diera la destrucción de sus individuos, el globo terráqueo estaría cubierto por la descendencia de una sola pareja. Por esta razón, produciéndose más individuos que los que pueden sobrevivir, ha de ocurrir en cada caso una lucha por la vida”.1
Puesto que existen variaciones que hacen que ciertos organismos estén mejor adaptados que otros, y en tanto no todos pueden sobrevivir (por falta de espacio, alimentos, etcétera), es necesario hacer una selección que favorezca a los mejor adaptados. “He denominado este principio —escribió Darwin—, por el cual toda variación, no importa lo ligera que aparezca, se conserva si es de utilidad a los individuos, el principio de la Selección Natural”.2
La selección natural no es simplemente un proceso de eliminación azarosa; se trata de una selección de individuos portadores de variaciones que los favorecen en la lucha por la existencia. A diferencia de los sobrevivientes de la lucha por la existencia del Malthus, teoría que no lleva implícito el mejoramiento de la población.3 Sino solamente el equilibrio entre las poblaciones, la selección natural de Darwin fundamenta la idea de la supervivencia del más apto. Esta concepción fue trasladada a la esfera social por los socialdarwinistas,4 en contra de quienes Engels, en una carta a Piotr Lavrov, comenta: “Toda doctrina darwinista de la lucha por la existencia, no es más que la transposición pura y simple, desde el terreno social al de la naturaleza viva, de la doctrina de Hobbes: bellum omnium contra omnes (la guerra de todos contra todos) y de la tesis de la competencia tan del gusto de los economistas burgueses, asociada con la teoría malthusiana de la población. Después de haber realizado este truco de prestidigitación… sobre todo por lo que se refiere a la doctrina de Malthus, se trasladan esas mismas teorías, esta vez de la naturaleza orgánica a la historia humana, pretendiendo entonces que se ha hecho la prueba de su validez en cuanto a leyes eternas de la sociedad humana”.5
Es decir, Darwin, aparentemente toma de doctrinas sociales la idea de la lucha por la vida y, a su vez, los socialdarwinistas retoman la idea ya más desarrollada de sobrevivencia del más apto con el fin de otorgar una justificación pretendidamente científica a la existencia de clases sociales en el capitalismo y, desde luego, para intentar demostrar en el siglo XIX la “necesidad” y la “justeza” de la actividad colonizadora que los países imperialistas impusieron a los países actualmente conocidos con el rubro genérico de Tercer Mundo. “Bien entendido el evolucionismo del siglo XIX —citamos a Canguilhem— no se resume en la ideología spenceriana, esta ideología ha matizado más o menos durablemente las investigaciones de los lingüistas y etnólogos y ha cargado en el sentido durable el concepto de primitivo y, con ello, ha dado buena conciencia a los pueblos colonizadores. La ideología evolucionista funciona como autojustificación, de los intereses de un tipo de sociedad, la sociedad industrial en conflicto con la sociedad tradicional por una parte, y con la reivindicación social por otra, ideología antiteleológica por un lado, antisocial por otro”.6
El concepto de la selección natural
De acuerdo con el concepto darwiniano de selección natural, los más aptos resultan aquellos que por ser de alguna manera superiores tienen más posibilidades de apoderarse de la riqueza dispuesta por la naturaleza. Era de esperarse que apologistas del laisser faire, como Galton y Spencer, afirmaran, a partir de esa idea, que los individuos ocupan posiciones de poder o riqueza en la sociedad a través de un proceso de selección natural que favorece la habilidad mental y lo industrioso del individuo. De ser correcta esta extrapolación del mundo natural a la realidad social, entonces se verificaría que tras un periodo en que la selección natural hubiera orientado la evolución humana en un sentido en que, actualmente o dentro de un cierto tiempo, todos los seres humanos formaríamos parte del grupo favorecido “naturalmente”, es decir, de la burguesía. Es obvio que no es así, algo falló, o bien los socialdarwinistas han estado siempre equivocados.
Según los socialdarwinistas más importantes (Mayr, Simpson, Dobzhansky, Huxley, etc.) lo que falta es la definición de selección natural, o más bien, la del más apto, puesto que, sostiene Mayr, no puede decirse simplemente que el más apto es el que sobrevive, puesto que a la pregunta ¿cuál sobrevive?, tiene que responderse: el más apto, y, si preguntamos ¿cuál es el más apto?, se responde: el que sobrevive, esto representa una tautología.7
Actualmente y desde distintas perspectivas ideológicas, se definen como más aptos, los individuos que dejan una mayor descendencia: sus genes, por tanto, estarán mejor representados en las siguientes generaciones.
El anterior, que es un argumento estrictamente biológico, al ser extrapolado sin más a las poblaciones humanas conduce a visiones distorsionadas de la realidad, como ésta, que sostiene que a los individuos con mayor aptitud darwiniana, es decir los que tienen mayor número de descendientes son los menos dotados intelectualmente. Existen abundantes pruebas, que sostienen teóricos como Mayr, de que en la mayoría de las comunidades las personas cuyas profesiones exigen suma inteligencia, procrean por término medio, familias de menor tamaño y a una edad más avanzada que personas cuyas profesiones no tienen tales exigencias (por ejemplo obreros no calificados).8 “Aunque ésta todavía no la nieguen los identicistas, el peso de las pruebas disponibles apoya completamente la conclusión de que los mejor dotados intelectualmente contribuyen menos, y en verdad mucho menos, al acervo de genes de la siguiente generación que el término medio”.9 A juicio de este autor, cuando se observa la rapidez con que los individuos y las sociedades pueden degradarse no se puede evitar pensar que el hombre necesita recorrer un largo camino en la ruta del perfeccionamiento; sin embargo, no hay ninguna prueba de perfeccionamiento biológico en los últimos 30,000 años.10 Al contrario, dice Huxley, “la naturaleza genética del hombre ha degenerado y todavía lo sigue haciendo”. Por otra parte, opinaba Huxley, se encuentra el hecho de que la civilización industrial moderna favorece la discriminación diferencial de genes relacionados con la inteligencia. Parece ahora descontando que, tanto en la Rusia comunista como en la mayoría de los países capitalistas, las personas con elevada inteligencia por término medio se reproducen en menor medida que las menos inteligentes; y que parte de esta diferencia (en inteligencia) está determinada genéticamente. Las diferencias ligeras pueden multiplicarse rápidamente y producir efectos mayores. “Si este proceso continúa, los resultados serán sumamente graves”,11 sentenciaba Huxley.
He aquí, dice alarmado Mayr, “otro ejemplo de que la selección natural es incapaz de discriminar entre el éxito en la reproducción como tal y el éxito en la reproducción debido a la posesión de características que beneficien la adaptación de la especie como un todo”.12 Grave incapacidad de la selección natural el no advertir que los hombres mejor dotadas son, desgraciadamente, los que tienen menor aptitud darwiniana.
Lo que esto significa para los neodarwinistas es que la selección natural favorece a los individuos inferiores, a los que no han logrado, debida a su inferioridad genética, el éxito social, es decir, obreros, campesinos, etc., en general el proletariado, y puesto que esa inferioridad está determinada genéticamente “la naturaleza humana está degenerando” concluye Huxley; “el aumento del tamaño del cerebro se ha detenido”, agrega Mayr,13 “la inteligencia, va disminuyendo”, afirma Simpson;14 ¡qué horror!, dicen todos al tiempo que recomiendan tomar urgentes medidas eugenésicas, argumentando que al igual que los criadores de animales que han logrado mejorar en su beneficio algunas especies, el hombre puede dirigir su evolución favoreciendo la reproducción de los mejor dotados que, por cierto, agrega Mayr, no sólo son superiores intelectualmente sino que sobrepasan al promedio de la población en salud mental y física, de hecho, agrega, son muy superiores.15
En vista de que medidas tan eficaces y rápidas como un posible banco de esperma pueden ser psicológicamente poco factible.16 Mayr por su parte sugiere “que una persona con un buen registro de resultados en ciertas áreas del pensamiento humano posee una combinación de genes preferibles a la de una persona cuyas obras sean menos espectaculares” por la tanto, concluye, debe favorecerse la reproducción de las primeras, gravándolas con menos impuestos, por ejemplo, ya que, “la persona superior está gravada de diversos modos, por impuestos y otros medios que le hacen más difícil mantener una familia numerosa. Son muchas las reglas administrativas y leyes del gobierno, que van en contra de los miembros mejor dotados de la comunidad.17
La humanidad, agradecida por la oportunidad de mejorar, de aumentar su inteligencia, etcétera, debe premiar la mayor producción de los mejor dotados para que sus genes, o tal vez deberíamos decir supergenes, tengan representación en las siguientes generaciones.
Todos estos planteamientos neodarwinistas, neofuncionalistas y neofascistas están basadas, fundamentalmente, en dos concepciones falsas: 1) la excesiva importancia que se atribuye a la herencia como factor decisivo en la generación de habilidades humanas que hacen posible y en cierta forma aseguran el éxito social; y 2) que las clases sociales están formadas por individuos de habilidades semejantes, de coeficientes de inteligencia similares de manera que, afirma Dobzhansky, no hay clases sociales sino “agrupaciones de habilidades”.
La heredabilidad de las habilidades humanas y el coeficiente intelectual
Según Dozhansky, padre de la genética moderna, “el coeficiente intelectual (CI) es tan heredable como la estatura humana. Su heredabilidad es muy superior a la reproducción del maíz, según el genetista, la heredabilidad de la inteligencia es de un 81%, cifra que apoya la idea de que la producción de caracteres intelectuales en el genoma sería mucho más importante que el medio ambiente.18 Sin embargo, Mayr dice que “aunque la genética posee, en parte, bases estadísticas, no tiene alcance para nuestra argumentación que la heredabilidad sea de un 25% o de un 75%.19
Luego de argumentar sobre genes, inteligencia, distintos tipos de habilidades, etc., Dobzhansky se lanza en contra de algunos descubrimientos de la Genética moderna que contradicen el principio de que los genes no actúan separadamente ya que la mayoría de ellos son pleyotrópicos y que la mayoría de los caracteres son poligenéticos. En suma, en el genoma, los genes no actúan separadamente sino que el genotipo interaccionan todos los genes para producir el fenotipo.
Waddington introduce el término epigenotipo para destacar, que efectivamente, en el genotipo cada gene no actúa en forma aislada. El epigenotipo vendría a ser entonces un sistema de relaciones causales que rige la embriogénesis desde el instante mismo en que el cigoto es fecundado y las sucesivas etapas de desarrollo, hasta convertirse en un adulto completamente desarrollado.20
Por otra parte, sabemos que para la producción de cualquier carácter fenotípico es tan importante el medio como el genotipo, no obstante, en el caso de las funciones cognoscitivas, es el medio un factor determinante. En este sentido argumenta Piaget “la epigénesis de las funciones cognoscitivas supone, como cualquier otra, una colaboración cada vez más estrecha entre los factores del medio y el genoma, los primeros de los cuales aumentan en importancia a medida que se va creciendo… el proceso epigenético que conduce a la construcción de las operaciones intelectuales es comparable, de manera muy estrecha, a la epigénesis embriológica y a la formación orgánica de los fenotipos. Sin duda, el papel que corresponde al medio es mucho más considerable, puesto que, precisamente, los conocimientos tienen como función esencial captar el medio”.21 En otras palabras, para el desarrollo de cualquier carácter es determinante el papel del medio, pero en el caso de los caracteres que hacen posible el conocimiento del medio, el papel de éste es aún más importante.
La idea de la sobreimportancia de la herencia plantea un retorno a la preformación, idea que suscita varias dudas, pues, citamos a Barthelemy Madaule, “parece difícil concebir con el ADN el programa hereditario para siempre; hay algo que choca, a la manera de los homúnculos preformados para siempre, parece difícil admitir que el ADN esté al abrigo de toda modificación venida del citoplasma y, realmente, si es difícil concebir al hombre como si estuviese preformado en el genotipo de una bacteria, no lo es menos interpretar cómo, ontogenéticamente, están contenidos de antemano, en las etapas iniciales de segmentación, las grandes etapas de determinación e inducción y sobre todo, de reintegración funcional final de los órganos diferenciados.22
Piaget por su lado, se muestra partidario de la idea de que en el desarrollo de las operaciones lógico-matemáticas elementales en el niño, el medio juega un papel importante. Esta es, las sucesivas etapas por las que atraviesa la ontogénesis de la inteligencia no necesariamente se manifiestan a edades fijas en todos los niños, sino que son aceleradas o retardadas según las condiciones de ejercicio o de experiencia adquiridas, lo que supone individualmente factores que dependen del medio y no del genotipo. Esto no significa que se deje de considerar la importancia de los factores genéticos, al contrario el hecho de que algunos caracteres hayan pasado a formar parte del acervo genético de la humanidad como un todo (y no) de una clase social, corrobora la validez de conceptos como mutación, selección natural, o asimilación genética. Igual que todos los hombres tienen la capacidad de caminar erectos y de hablar, y otros caracteres adquiridos, todos tienen la capacidad de aprender música o matemáticas; el que unos lo logren y otros no, depende del medio en el que se desarrollen.
Para los neodarwinistas la evolución se basa en dos mecanismos: el de variación (las mutaciones genéticas) y el de la selección natural que preserva las mutaciones favorables para sus portadores; tesis que niega la posibilidad de que el organismo incorpore a su genoma las variaciones adquiridas en la interacción del individuo con el medio. Esta corriente evolucionista otorga, pues, importancia determinante y exclusiva a las estructuras internas del organismo, en la medida que concibe al sistema genético aislado del soma, por un lado, del que sería sin embargo parte orgánica, y del medio, por otro, con el que no mantendría contacto; un sistema más bien fijo, capaz únicamente de cambios azarosos y acumulativos que a través del tiempo y favorecidos por la selección natural se conservan en la especie, lo que les permite a su vez sobrevivir.
De lo anterior se desprende que para producir las aptitudes o habilidades que se consideran importantes en nuestra sociedad es imprescindible la interacción entre el genoma y el medio. En la adquisición de este tipo de caracteres el factor ambiental es determinante. Sirva de ilustración un ejemplo: un individuo que se desarrolle en un medio ambiente favorable, es decir, con buena alimentación, vivienda adecuada, libros, familia con cierto nivel cultural, etcétera, tiene amplias posibilidades de desarrollo intelectual puesto que no existe, prácticamente, ningún impedimento que la obligue a compartir su actividad intelectual con otro tipo de actividades (trabajo asalariado) para poder sobrevivir y que frustre su desarrollo intelectual. Ciertamente no es el caso de la mayoría de la población que habita los países capitalistas dependientes como México, donde los hijos de los obreros y campesinos difícilmente llegan a concluir sus estudios de primaria, ya que es indispensable que a edades muy tempranas los hijos se incorporen a la producción del ingreso familiar, que proporciona apenas una vida de carencias, en la que, necesariamente, la preocupación primaria es cómo sobrevivir, sin dejar lugar a otro tipo de necesidades culturales o intelectuales puesto que como dice Marx, “tal y como los individuos manifiesten su vida, así son”. Lo que son coincide, por consiguiente, con la producción tanto con lo que producen como con el modo como producen.
Lo que los individuos son, depende, por tanto, de las condiciones materiales de su producción.23 Los hombres son los productores de sus representaciones, de sus ideas, etcétera, pero los hombres reales actuales tal y como se hallan condicionados por un determinado desarrollo de sus fuerzas productivas, y por el intercambio que a él corresponde, hasta llegar a sus formaciones más amplias. La conciencia no puede ser nunca otra cosa que el ser consciente, y el ser de los hombres es un proceso de vida real y si en toda la ideología de los hombres y sus relaciones aparecen invertidos como en una cámara oscura, este fenómeno responde a su proceso histórico de vida, como la inversión de los objetos al proyectarse sobre la retina corresponde a su proceso de vida directamente física”.24 “No es la conciencia la que determina la vida, sino la vida la que determina la conciencia”.25
Los neodarwinistas sufren del fenómeno de inversión ideológica cuando hacen aparecer las capacidades intelectuales de los hombres como las determinantes de su posición en la estructura social. Aún más, ellos no admiten la existencia de clases sociales, a cambio proponen “agrupaciones de habilidades”.
Por eso Marx define los instrumentos de producción, por cuya constitución y utilización los hombres se diferencian esencialmente de los animales, como “órganos corporales prolongados” (El capital, tomo I). Como los animales, también los hombres pueden adaptarse a su ambiente; “el hombre cerebral, la inteligencia humana, es suficientemente consistente como para constituir una época regular de la historia de la Tierra. La especie humana, incluidas sus máquinas, productos químicos, fuerzas organizativas. ¿Por qué estas cosas no deberían incluirse en ella como los dientes en el oso, puesto que sirven a la misma finalidad y sólo funcionan mejor? Es en esta época el dernier cri de la adaptación. (Horkhermer y Adorno).26
Neodarwinismo y clases sociales
Dobzhansky, representante del neodarwinismo, tras admitir que el coeficiente intelectual es heredable, sostiene que “las clases sociales no sólo son grupos sociales económicos sino, también, grupos reproductivos separados en mayor grado de otras poblaciones”. Si ello es así, este autor se pregunta ¿en que medida el nivel socioeconómico es función de la constitución genética?, y argumenta:
Las sociedades abiertas (como la de los blancos en Estados Unidos) permiten e incluso fomentan la movilidad social entre las clases. La gente pasa a formar parte de otra clase de acuerdo a sus capacidades y merecimientos. A este principio, Dobzhansky lo denomina “meritocracia” y precisa: “la clase no se determina por el nacimiento, sino por las cualidades personales”. La movilidad social se debe a que genes de diferentes habilidades se encuentran en todas las clases sociales pero con diferentes frecuencias en cada una de ellas.27 Lo mismo ocurre entre los individuos de una clase; el hecho de que los genes para las características tales como un CI mayor o menor, vista aguda, o aptitud para la música, sean más corrientes en la clase de casta A que en la B, no significa que todas las personas de la A y ningún individuo de la B los poseen. No se trata entonces de una cuestión de todo o nada sino de las diferencias en las frecuencias de los genes.28 De lo anterior, Dobzhansky define que, si por azar aparece un individuo con genes de aptitud musical entre la clase obrera, la movilidad social en las “sociedades abiertas” garantizan que este obrero o hijo de obrero llegue a ser un gran músico ya que, apunta el genetista, “la situación socioeconómica de una persona se establece en función de los propios méritos y capacidades”. Como se imaginará, en una meritocracia, las aptitudes intelectuales y los resultados académicos se encuentran entre los determinantes más importantes de la movilidad social, a cuyo servicio se encuentran las escuelas y universidades, en calidad de peldaños para el ascenso socioeconómico. En la medida en que los resultados obtenidos están genéticamente condicionados, la movilidad social es a la vez un proceso genético y económico.29
Dobzhansky toma esta idea de movilidad social de Galton, quien admitía la existencia de una estructura en la cual los individuos se elevan y descienden en estatus, pero acaso no constituya más que el quimérico ideal de la sociedad burguesa.
Nada, pues, tan natural como los privilegios económicos por intermedio del “éxito académico”, el cual, a su vez, esté en función de las aptitudes (y del deseo decidido de ejercitarlas) y éstas se encuentran, por lo menos en parte, genéticamente determinadas. Como la educación y la posición socioeconómica coexisten en estrecha correlación, el rango social y las retribuciones materiales resultan estar genéticamente condicionadas de una forma “indirecta”; Hernstein lo expresa de modo tajante: “además de otras cosas un alto CI supone su dinero”.30 De este modo se ha llegado a que los privilegios sociales y económicos están, también determinados genéticamente.
Si los niños de una misma clase tienden a disminuir sus diferencias genéticas mientras que éstas aumentan respecto a otras clases es, precisamente, porque las clases sociales están formadas por individuos genéticamente parecidos que, a su vez se diferencian genéticamente de las personas de otras clases sociales.
Por lo tanto, concluye Dobzhansky, las clases sociales son agrupaciones de habilidades, ya que los individuos de capacidades genéticas parecidas se irán agrupando y formando propiamente una clase social.
Pero el alegato de Dobzhansky no se agota ahí, tiene como trasfondo la visión de una sociedad ideal, cuyos estratos o clases, se establecerían de acuerdo con los recursos de pruebas de inteligencia; razonamiento que pone al descubierto la importancia que para los ideólogos burgueses posee el concepto de inteligencia.
A propósito de este término, Binet31, creador de las escalas de inteligencia y pruebas de coeficiente intelectual, señala que la inteligencia se mide a través del nivel de adaptación posible de los individuos al medio ambiente. Por lo que toca a los individuos en sociedad, estos son inteligentes en la medida en que acepten los papeles sociales que se espera de ellos. Así, dice Dobzhansky, los grupos de habilidades formarán una ordenación racional de elementos armónicos cada uno con obligaciones y derechos mutuos.
Por otro lado, el concepto de inteligencia como elemento de la ideología dominante se ha modificado de acuerdo con los intereses de la burguesía. Del concepto de Galton y Spencer, entendido como “habilidad mental”, aunada a lo “industrioso” y a la “capacidad de trabajo” del individuo, —que en el capitalismo de libre comercio explica, para ellos, que un hombre con tales características logrará destacar en la sociedad—, se ha pasado al de Dewey en el que sólo cabe una pequeña cantidad de hombres poseedores de una capacidad intelectual superior; ellos deben ser los lideres, a decir de Dewey, mientras que aquellos con menor capacidad para la acción inteligente deben ser los seguidores, idea que rima con esa otra de Binet, según la cual la inteligencia señala la posibilidad de ajuste de roles que corresponden a un individuo en la sociedad, de acuerdo con sus aptitudes.
Proponer, como lo hacen los neodarwinistas, que las clases sociales deben formarse de acuerdo con los resultados de pruebas que sospechosamente miden el coeficiente intelectual, es simplemente proponer que se perpetúen los privilegios de clase. En el fondo, lo que miden estas pruebas son, los privilegios de las clases instruidas, en contra de la clase que históricamente, bajo el capitalismo, ha sido confinada a recibir una educación inferior: el proletariado.
Las nociones de lucha por la existencia, competencia social, supervivencia del más apto, sostenidas por los ideólogos del capitalismo de libre comercio, han sido sustituidas por la idea de la cooperación entre clases, las cuales estarán formadas por individuos con diferentes capacidades y que, por ello mismo, necesitarían unos de otros, tesis más afín a la ideología del capitalismo monopolista en donde no hay libre competencia, ni libre comercio, como consecuencia de la centralización del capital.
A la misma ideología sirve el planteamiento de las diferencias genéticas responsables de las distintas capacidades, a unos para trabajo pesado, a otros, pero pensar, dirigir o hacer ciencia. Todos, sin embargo, tenemos que cooperar con nuestras pobres o grandiosas aptitudes genéticas. Y, puesto que el hombre no puede cambiar las leyes naturales, no queda sino resignarse cada quien al papel que le corresponda desarrollar en la sociedad, nada de protestas inútiles que sólo suponen gasto de energía.
Tales razonamientos pertenecen por entero a los socialdarwinistas, quienes tratan de demostrar que todo está bien como está, no hay necesidad de cambiar nada puesto que las clases sociales son producto de la naturaleza genética humana y como tal, producto de leyes naturales. He aquí una forma en que algunos científicos se transforman en intelectuales orgánicos de la clase dominante.32
Durante el siglo XIX se desarrolló el positivismo, corriente filosófica cuyo fundador y padre oficial de la Sociología, Auguste Comte, hablaba ya de una física social, en la que los hechos sociales se concebían a la manera de cosas; las leyes sociales serían entonces las naturales.
Sostenía que para hacer ciencia, social o natural, hay que tener una actitud libre de perjuicios y presuposiciones, una actitud de imparcialidad ante los hechos o fenómenos observados; “entiendo por física social la ciencia que tiene como objeto el estudio de los fenómenos sociales, considerados con el mismo espíritu que los fenómenos astronómicos, físicos y fisiológicos, es decir, sujetos a leyes naturales invariables cuyo descubrimiento es el fin especial de sus investigaciones”.33
Para Durkheim, ferviente servidor de las ideas de Comte, el hecho social consiste en maneras de actuar, de pensar y de sentir que son exteriores al individuo. Es decir, el hecho social trasciende a los individuos, es un fenómeno colectivo, un estado del grupo, que se repite en los individuos porque se les impone. Para él, los fenómenos sociales siguen siendo cosas y las leyes sociales como las naturales; de aquí que sean inmodificables, lo que equivale a afirmar que la situación actual es el resultado de un proceso natural.34
Spencer, otro positivista, entendía a la sociedad como un sistema que presenta las mismas tendencias evolutivas que los organismos; tendencia el aumento de tamaño, a la complejidad de organización, a la diferenciación progresiva de funciones y estructuras, etcétera. Consideraba también que la evolución social es dirigida por un mecanismo idéntico al que rige la evolución biológica, a saber, la selección natural que en lo social favorece a los individuos más inteligentes y más sanos, los “más aptos” en la visión de Spencer.
La necesidad cada vez más urgente de la burguesía de justificarse científicamente, llevó a sus teóricos a elaborar teorías de la sociedad, concibiéndola como una entidad homogénea sin clases sociales, donde el individuo o los estratos o estatus sociales son las células de la sociedad; donde los conflictos sociales son meras enfermedades del organismo social; donde cada individuo cumple un rol necesario; y donde, finalmente, todos los hombres tienen las mismas oportunidades y por lo tanto la explotación no existe puesto que hay una completa libertad.
Con tales argumentos intentaron rechazar las tesis del marxismo, tesis que nos demuestra lo utópico de las consignas de la Revolución francesa (igualdad, fraternidad y libertad) mientras no exista una igualdad económica, existan clases sociales y las relaciones sociales sean relaciones de explotación.
Actualmente no son solamente los investigadores sociales los únicos que trasladan concepciones, categorías o tesis biológicas, para explicar y justificar la estructura de clases. Son los mismos biológos, etólogos, ecólogos y evolucionistas, que jugando su papel de intelectuales orgánicos de la burguesía y apoyados en sus descubrimientos, invaden el campo social con sus conceptos biológicistas, extrapolando los resultados que obtienen en el estudio de las poblaciones animales, a las sociedades humanas.
Participan, pues, en lo que Canguilhem denomina la ideología científica, la cual no se agota en una falsa conciencia, sino que contiene una ambición de ser ciencia, a imitación de algún modelo ofrecido por una ciencia ya constituida. Por otra parte, la existencia simultánea de varias ideologías científicas implica la presencia, paralela y previa, de discursos científicos en los que se intentan fundamentar.35
El neodarwinismo, como ideología científica, se basa en un discurso científico previo como podría ser la genética, la paleontología o la teoría sintética de la evolución; con tales discursos pretenden demostrar el derecho natural de la burguesía a dominar, como resultado de un proceso natural de selección.
Muchos de los etólogos, y en general, de los neodarwinistas, que gustan de hacer extrapolaciones al campo social, ignoran ciertas exigencias metodológicas propias de las ciencias sociales y que impiden extrapolar sin más el estudio del comportamiento animal a la conducta humana.
Cuando por ejemplo, Konrad Lorenz36 señala que la carrera espacial entre Estados Unidos y la Unión Soviética es una forma de lucha ritualizada que desvía la posibilidad de una guerra atómica, y propone que deben fomentarse las competencias deportivas, también, como un tipo de luchar ritualizada, o cuando Ardrey declara como causa fundamental de las guerras internacionales el instinto de territorialidad e iguala las fronteras entre las naciones con las marcas de orina con que los felinos y otros animales marcan su territorio,37 no podemos considerar que se mantengan fieles a las reglas del método científico experimental que ellos mismos han postulado. Esto parte de un supuesto metodológico de los diferentes dominios, sociedad y naturaleza, y en consecuencia, de las ciencias que los toman por objeto “La extensión de la mecánica, de la embriología epigenetista, de la biología transformista fuera del campo de cada una de esas ciencias no puede autorizarse”,38 sostiene Canguilhem.
En la actualidad, la teoría de la evolución ha sido desarrollada y modificada por varias corrientes, pero también ha dado origen a diversas interpretaciones, entre ellas al neodarwinismo que en pleno siglo XX plantea tesis similares a las del socialdarwinismo spenceriano, apoyándose en los avances de la biología moderna, en especial, de la genética, la etología y la ecología. Trasladar, sin más, los descubrimientos que estas ciencias logran en sus respectivos campos a la sociedad humana, puede parecer un caso de integración de las ciencias, pero acaso no responda más que a la explotación de una clase por otra.
|
|||||||
Notas
1. Darwin, Ch., El origen de las especies, p. 117.
2. Idem, p. 114.
3. Ver Limoges 1977. La selección natural. Siglo XXI.
4. Destaca entre ellos Spencer por ser quien más desarrolló las analogías entre los organismos y la sociedad humana.
5. Engels, F., Dialéctica de la naturaleza. Grijalbo, México.
6. Canguilhem, G., 1977, Ideologie et rationalite. Libraire Philoso.
7. Mayr, E., 1969, Especies animales y evolución. Universidad de Chile.
8. Mayr, op. cit., p. 669.
9. Idem.
10. Idem.
11. Huxley, J. 1956, Evolution in action, Harper, New York.
12. Mayr, op. cit., p. 670.
13. Idem, p. 671.
14. Simpson, G. G., “Man’s evolutionary future”, Zool. Jahrb. (Syst) 88:124-134.
15. Mayr, op. cit., p. 671.
16. Idem.
17. Idem, p. 672.
18. Dobzhansky, T., 1969, Evolución humana. Universidad de Chile.
19. Mayr, op. cit., p. 669.
20. Waddington, 1953, Endeavor I: 18-20.
21. Piaget, J., 1973, Biología y conocimiento. Siglo XXI, México, p. 23.
22. Barthelemy Madule, M., 1973: Lamarck ou le mythe du precürseur. Sevil, París.
23. Marx, K., La ideología alemana. Grijalbo.
24. Idem.
25. Idem.
26. Citado por Schmitd en El concepto de naturaleza en Marx. Siglo XXI.
27. Dobzhanzky, 1973, Diversidad genética e igualdad humana. Labor, 1908, p. 33.
28. Idem, p. 34.
29. Idem, p. 48.
30. ldem.
31. González, G., “El desarrollo histórico del concepto de inteligencia”, Crítica No. I, 132-152.
32. Gramasci define a los intelectuales orgánicos de una clase como: “grupo social que tiene la capacidad de operar no en el nivel económico, sino en el superestructural, es decir, tienen como función la vinculación orgánica entre esos dos niveles. Los intelectuales son los funcionarios de la superestructura al servicio de la clase que representan y con la cual mantienen muy estrecha vinculación”.
33. Comte, Positive politics, vol. IV, Alianza Editorial.
34. Durkheim, E., 1973, Las reglas del método sociológico. Schapire, Uruguay.
35. Canguilhem, op. cit., p. 39-45.
36. Lorenz, K., Sobre la agresión el pretendido mal. Siglo XXI, p. 315.
37. Ardrey, R. The territorial imperative.
38. Canguilhem, op. cit.
|
|||||||
____________________________________________________________
|
|||||||
Rosaura Ruíz Gutiérrez
Profesora del Departamento de Biología y miembro del Programa de Ciencia y Sociedad Facultad de Ciencias, Universidad Nacional Autónoma de México.
cómo citar este artículo →
Ruiz Gutiérrez, Rosaura. 1982. “Neodarwinismo y sociobiología”. Ciencias núm 2, julio-agosto, pp. 16-25. [En línea]
|
![]() |
![]() |
|||||||||||||||||||||||||||||||||||
Rodolfo P. Martínez y Romero
|
||||||||||||||||||||||||||||||||||||
Existen en la naturaleza cuatro tipos diferentes de interacciones entre la materia que son responsables de todos los
fenómenos físicos observados hasta ahora. Dicho de otra manera, dos trozos cualesquiera de materia sólo pueden interaccionar a lo más de cuatro formas distintas, ya que existen ciertas partículas materiales, como el neutrino, por ejemplo, que les está prohibida alguna o algunas de estas interacciones.
Este conocimiento representa en sí una de las mayores síntesis intelectuales logradas por la humanidad, y su origen podría rastrearse hasta la Grecia antigua, puesto que con sólo cuatro principios se intenta explicar toda la fenomenología hasta ahora observada. Evidentemente esto no quiere decir que todo fenómeno, por ejemplo, el estado de enamoramiento se puede explicar mediante estas cuatro interacciones, ya que van apareciendo nuevas categorías de pensamiento que no son contempladas por la física. Ahora bien, ¿Cuáles son estas cuatro interacciones? Las dos más conocidas son la interacción gravitacional, responsable del peso de los cuerpos; y la interacción electromagnética, responsable no sólo —como podría creerse— de fenómenos eléctricos como el rayo o el funcionamiento de una computadora, sino también del comportamiento de los electrones en un átomo y por consecuencia (al menos en gran parte) del comportamiento químico y biológico. El hecho de que nos sean familiares es debido a que se trata de interacciones, que en este caso se manifiestan como “fuerzas” de largo alcance, infinito en realidad, ya que su intensidad es proporcional al inverso del cuadrado de la distancia. Pero las otras dos son diferentes: son en primer lugar interacciones de muy corto alcance y por eso son muy poco familiares. Además, no se manifiestan simplemente como “fuerzas” sino que implican un cambio en la naturaleza de la materia que sufre tales interacciones, es decir, ¡la materia se transforma cualitativamente! Estas interacciones son las llamadas interacción fuerte e interacción débil. La primera, como su nombre lo indica, es muy fuerte: a corta distancia equilibra la repulsión electrostática y permite mantener unidos a los protones del núcleo atómico. Estas características de la interacción fuerte son “explotadas” en la bomba atómica. La interacción restante, la débil, es mucho menos intensa que la fuerte o la electromagnética, de ahí su nombre, pero es 1035 veces más intensa que la gravitacional. El fenómeno más conocido en que interviene es probablemente la radioactividad B (emisión de un electrón por el núcleo de un átomo). Figura 1. Sólo para la interacción electromagnética tenemos una teoría coherente, por lo que, razonablemente se trata de construir teorías para las otras tres siguiendo un enfoque similar al del electromagnetismo. Esta teoría constituye un ejemplo de lo que los físicos llaman teoría de norma1 de simetría local (en este caso teoría abeliana), y existen fuertes razones para suponer que las otras tres interacciones son tratables por teorías similares. Las simetrías en física parecen jugar un papel importante y es sorprendente cómo el conocer las simetrías de un fenómeno físico nos permite también conocer la teoría del fenómeno. Las simetrías más familiares son las geométricas. Por ejemplo, si se gira una esfera alrededor de un eje que pasa por su centro, se obtiene una situación indistinguible de la original, sea cual sea el ángulo de rotación. Sin embargo, existen simetrías que no son de naturaleza geométrica, por ejemplo la simetría CPT (conjugación de carga, paridad e inversión en el tiempo). Si se pudiera cambiar en el universo la materia por su antimateria e invertir la marcha del tiempo, se obtendría el mismo universo que antes. Ésta es una simetría del universo. En este caso la transformación es la misma en cada punto del universo y por esto se llama global. Otro ejemplo de simetría global lo constituye el llamado spin isotópico o isospin, que es una propiedad que concierne al protón, al neutrón y muchas otras partículas similares llamadas hadrones. Está basado en el hecho de que —excepto por la carga— el protón y el neutrón son partículas muy similares: ambas tienen interacciones fuertes, el mismo spin, prácticamente la misma masa (diferente sólo en 10%) y si uno pudiese cambiar un protón por un neutrón y viceversa. las interacciones fuertes en el núcleo del átomo prácticamente no cambiarían. Todo esto sugiere la existencia de una simetría, la simetría de isospin, que permite cambiar protones en neutrones y viceversa2 y que debe ser una simetría de la teoría de interacciones fuertes. Dicho de otra manera, las interacciones fuertes deben ser invariantes bajo transformaciones globales de isospin. Esto obliga la teoría a tomar una forma particular impuesta por esta simetría. Sin embargo, de la misma manera que la simetría de la esfera en la práctica es sólo aproximada (siempre existe algún defecto, por ejemplo una raspadura, que nos permite conocer que ha tenido lugar una rotación), también la del isospin es sólo una simetría aproximada: un neutrón no es igual a un protón y la presencia de las interacciones electromagnéticas rompe la simetría. Regresando al electromagnetismo, éste también tiene una simetría global: es invariante frente a cambios de fase en la función de onda Ψ. Esta función Ψ (compleja) se introduce en la física moderna para describir el estado de una partícula o un campo y su módulo al cuadrado Ψ2 = ΨΨ* se interpreta como la probabilidad de que la partícula tenga determinada posición, impulso o energía, según sea el argumento de la función. Por ser compleja, la función de onda tiene dos componentes, uno real y otro imaginario; y un cambio de fase en ella puede ser visualizado como una rotación en un espacio de dos dimensiones, con un eje real y otro imaginario, donde la función de onda se representa por un punto, o aún mejor, por un vector en ese espacio. Como esta transformación no depende del punto en el espacio físico en el que se hace; se trata de una transformación global. El electromagnetismo es pues invariante bajo cambios de fase o rotaciones en el espacio arriba mencionado, es decir, que el contenido físico del electromagnetismo no depende de la fase de la función de onda. Las rotaciones en un plano son un ejemplo de transformaciones abelianas3 por ser conmutativas. En efecto, si uno realiza dos rotaciones en un plano, una seguida de otra, el resultado final es independiente del orden en que se efectúan como se ve en la figura 2. De hecho, las rotaciones forman una estructura algebraica conocida probablemente por el lector y que los matemáticos llaman grupo. Cuando los elementos del grupo conmutan bajo la operación definida en él, como en este caso las rotaciones conmutan bajo la operación de composición al grupo se le conoce como grupo Abeliano y los físicos lo denotan como U(1) (el “1” viene del hecho de que sólo es necesario un parámetro, el ángulo de rotación, para caracterizar una rotación en un plano). En tres dimensiones, sin embargo, el grupo de rotaciones no es Abeliano. Teorias de norma El campo eléctrico, tal como se define en las ecuaciones de Maxwell, es invariante bajo la adición de un potencial constante arbitrario al potencial eléctrico. La razón es que el campo eléctrico está definido en términos de diferencias en el potencial y no por el valor absoluto de éste. A esta invariancia de norma y a la adición de una constante al potencial se le conoce como cambio de norma. Por la naturaleza misma del campo eléctrico de este cambio de norma no tiene consecuencias físicas y por lo tanto no se puede medir, es pues en realidad una simetría de la teoría. De hecho esta es la razón por la cual un gato puede caminar sobre un cable sin electrocutarse. Se puede ilustrar la diferencia entre una simetría global y una local con el ejemplo siguiente. Imaginemos un balón de hule donde las características del hule sean las mismas en cualquier punto (grosor, intensidad, etcétera). Al inflarse obtendremos un balón esférico y de hecho un campo de fuerzas de simetría esférica. Pero si el hule cambia localmente, por ejemplo en grosor, al inflarse no se obtendrá un balón esférico sino de otra forma una salchicha o un huevo, etcétera. El campo de fuerza no es ya más de simetría esférica sino que reproduce de alguna manera la estructura y simetría locales. Así las zonas de mayor espesor se encontraran menos estiradas, etc. Esta correlación entre simetría y campo de fuerzas ilustrada aquí es importantísima y es explotada sistemáticamente, como veremos más adelante en el estudio de las cuatro interacciones básicas. (Figura 4) ¿Qué sucedería si el cambio de fase en el electromagnetismo fuese local y no global; es decir, si el ángulo de rotación dependiese de la posición y cambiase de punto a punto del espacio (y posiblemente del tiempo)? Pedir que una teoría sea invariante bajo una transformación local significa pedir que la física descrita por esta teoría sea la misma después de efectuar la transformación, aunque ésta sea distinta de punto a punto. Es posible demostrar que el electromagnetismo no es invariante bajo cambios de fases locales —transformaciones del grupo Abeliano local— a menos que se introduzca una nueva función que compense exactamente las variaciones en la teoría de manera que la nueva teoría, electromagnetismo nueva función, sea invariante. ¿Pero qué representa esta nueva función?4 Se trata del potencial electromagnético o cuadripotencial y representa la interacción entre dos partículas cargadas. Es decir, una teoría libre (sin interacción) no puede ser invariante bajo U(1) local, pero con la presencia de una interacción puede serlo. Cada vez que dos electrones interacciona, es decir, cuando se establece una fuerza entre ellos, la fase de la función de onda que los describe cambia localmente y a su vez, a cada cambio local de la fase le corresponde una interacción. El cuadripotencial mismo debe transformarse de cierta forma para poder mantener la teoría invariante. Este cambio corresponde precisamente a un cambio de norma. Pero hay algo más: pedir que el electromagnetismo sea invariante bajo U(1) local no sólo implica la existencia de una interacción sino que la determina exactamente. Si conocemos la simetría podemos conocer la interacción que corresponde a esta simetría. Esta situación es exactamente la análoga a la del caso del globo: a una simetría dada se le puede asociar a un cierto campo de fuerzas determinado por ella. Es entonces natural aplicar este enfoque para estudiar las otras tres interacciones. Si pudiésemos conocer las simetrías de estas interacciones, entonces automáticamente podríamos conocer las interacciones mismas. Este programa se ha llevado a cabo con éxito parcial. Empieza de hecho con las teorías de C. N. Yang y Robert L. Mills, que trabajaban juntos en el Bookhaven National Laboratory en los E.U. hacia 1954, y R. Shaw, de la Universidad de Cambridge. Actualmente a las teorías de normas con simetría local se les conoce con el nombre de teorías de Yang-Mills en honor a sus dos descubridores. En 1967 Steven Weinberg, de la Universidad de Harvard, e independientemente en 1968 Abdus Salam del Imperial College de Londres y John C. Ward de la Universidad John Hopkins, proponen un modelo que describe los principales aspectos de las interacciones débiles y que al mismo tiempo incorpora al electromagnetismo. Este trabajo les valió a S. Weinberg y A. Salam el premio Nobel de Física de 1979. En cierta medida se trata de una teoría de unificación de las interacciones débiles y las electromagnéticas. La simetría usada la denotan los físicos como SU(2) U(1).5 Esta simetría, o mejor dicho grupo, es en este caso no abeliana y cuenta con tres parámetros independientes más uno, el asociado al grupo U(1), que es la parte asociada al electromagnetismo. En la teoría de los parámetros del grupo se asocian con la existencia de correspondientes partículas o cuantos da energía. En el caso del electromagnetismo el grupo de norma es U(1) un grupo abeliano con un sólo parámetro, por lo tanto, existe una partícula o “cuanto”6 asociada a ese parámetro. De acuerdo con este enfoque la interacción ocurre cuando las partículas se intercambian un cuanto. En el caso del electromagnetismo dos partículas cargadas interaccionan cuando se intercambian un fotón que es el cuanto asociado al electromagnetismo. Además, el alcance de la interacción es proporcional al inverso del cuadrado de la masa dar cuanto. En el caso del fotón la masa es cero y por lo tanto el electromagnetismo es de alcance infinito. De la misma manera, en el caso gravitacional que es una interacción de alcance infinito, el cuanto gravitacional, o “graviton” como se le ha llamado, es de masa cero. Análogamente, entre más pesado el cuanto menor es, el alcance de la interacción, como es el caso en la interacción débil. Dentro del modelo de Winberg Salam hay tres nuevos parámetros que implican la existencia de tres partículas asociadas a ellos. Dos de estas partículas ya eran conocidas desde los tiempos de E. Fermi en los años treintas. Se trata de W+ y W–, dos de los cuantos (cargados) asociados a las interacciones débiles. Pero la teoría predice la existencia de una nueva partícula, un nuevo cuanto neutro, pesado (puesto que, la interacción débil es de muy corto alcance) y de spin cero. El descubrimiento de esta partícula en 1973 en el CERN (Centre Europeen de la Recherche Nucleaire), cerca de Ginebra, en Suiza, representa un gran triunfo de este tipo de modelos. Rompimiento espontáneo de simetría Sin embargo, si las teorías de norma de simetría local, (abelianas como el electromagnetismo o no abelianas como las débiles) eran conocidas desde 1954, ¿por qué necesita llegar hasta 1967 para poder proponer un modelo realista? Una de las principales razones consiste en que estos modelos sólo son compatibles con interacciones de alcance infinito, es decir, con cuantos de masa cero. Pero las interacciones débiles, por ejemplo, son de muy corto alcance y por lo tanto sus cuantos deben tener masa, muy grande de hecho. La presencia de “términos de masa” responsables de las masas de los “cuantos” (bosones de norma), rompe la simetría local y éstos no pueden, consecuentemente, aparecer en la teoría. ¿Cómo se puede entonces conciliar la simetría de la teoría con el hecho de que, en general los bosones de norma sean masivos? La respuesta fue dada hacia el final de la década de los sesentas por F. Englert y Roben H. Brout de la Universidad de Bruselas y por Peter Higgs de la Universidad de Edinburgo, con el método conocido actualmente como mecanismo de Higgs. La idea central es análoga a la de estudiar una ecuación diferencial con una cierta simetría y encontrar soluciones de ella que no tengan tal simetría. Para hacer esto se introducen nuevas funciones, llamadas “campos de Higgs”, con la extraña propiedad de que no desaparece en el vacío. Usualmente se piensa en el vacío como ausencia de materia, pero, en la física moderna es sólo un estado de la naturaleza, definido como aquel estado que minimiza la energía de todas las partículas. Esto se logra usualmente haciendo desaparecer las partículas. Por ejemplo, un conjunto de electrones tiene su mínima energía cuando no hay electrones. Pero los campos de Higgs representan partículas7 totalmente fuera de serie: hacerlas desaparecer cuesta energía y por tanto no desaparecen en el vacío. Es a través de estos campos de Higgs que pueden redefinir —de una cierta manera— las funciones asociadas los bosones de norma para que éstos adquieran masa sin romper la simetría de la teoría (los campos de Higgs tampoco rompen la simetría de la teoría). Este mecanismo de Higgs se conoce también con el misterioso nombre de “rompimiento espontáneo de simetría”. Es necesario señalar el hecho que al redefinir las funciones asociadas a los bosones de norma se están redefiniendo las soluciones, a la teoría, que al adquirir masa pierden de hecho la simetría original, más no ocurre así con la teoría misma. Interacciones fuertes En la actualidad se conocen dos grandes grupos de partículas. Por un lado se tienen los leptones, que son partículas de spin (giro intrínseco) semientero, sin estructura aparente, puntales y que intervienen en interacciones fuertes como por ejemplo el electrón, el muón, el tau y sus neutrinos asociados, y por otro lado están los hadrones, que son el resto de las partículas. Estos usualmente más pesados que los leptones, tienen una estructura interna y actualmente se piensa que se pueden describir en términos de partículas hipotéticas llamadas “quarks” propuestas inicialmente por Murray Gell-Mann del California Institute of Technology en 1963 y por las mismas fechas por Yucal Ne'aman de la Universidad de Tel-Aviv y George Zweig de Cal-Tech.8 Estos quarks son muy semejantes a los leptones, son puntuales de spin semientero, pero con la diferencia de que son capaces de tener interacciones fuertes. Por alguna razón no entendida completamente hasta ahora los quarks no pueden estar solos y se juntan de dos formas exclusivamente: un quarks con un antiquarks formando lo que se conoce con el nombre de mesones (el pion por ejemplo) o tres quarks formando lo que se conoce con el nombre de bariones (Figura 5).
Aunque originalmente se pensaba que sólo había tres quarks, actualmente se piensa que hay seis; “arriba”, “abajo” y “extraño” son los tres primeros y “tope”, “fondo” y “encanto” los otros tres. Los nombres pueden parecer un sin sentido, pero un universalmente son aceptados y existe desgraciadamente la tendencia principalmente en los Estados Unidos de seguir esta política de asignación de nombres. (Cuadro arriba) Cada tipo de quark se presenta en tres formas diferentes, prácticamente indistinguibles los físicos dicen que se presentan en tres “colores” diferentes, “azul”, “rojo” y “verde”. Así es el quark encanto (c), por ejemplo, se presentará como quark encanto rojo o verde, etcétera. Como a cada partícula le corresponde su antipartícula a cada quark de cierto color le corresponde su antiquark de anticolor. Así un quark rojo le corresponde un antiquark antirojo. Que al juntarse producen un sistema de quark-antiquark. Como en el caso de los mesones (denotado q de color “blanco”, ya que la propiedad que los físicos llaman rojo queda aniquilada por su anticolor el antirojo. También los bariones que son la combinación de tres quarks, son “blancos” ya que son la combinación de tres “colores” necesariamente distintos,9 es decir, rojo, azul, verde.10 El blanco en este caso se considera como “ausencia de color” (¿aunque no sería mejor, tal vez, denominarlo negro?) Esta es la razón por la cual la teoría de las interacciones fuertes se les llama “Cromodinámica cuántica", o sea el electromagnetismo moderno. Ahora bien, las interacciones fuertes (que tienen lugar entre hadrones), pueden también ser descritas aunque parcialmente hasta ahora, por una teoría de norma. En este caso la simetría se denota por SUc(3)11 donde “c” significa color. Este grupo está caracterizado por ocho parámetros y hay por lo tanto ocho bosones de norma. Podemos comparar con el electromagnetismo, donde sólo hay uno, y comprender la complejidad de las interacciones fuertes y su reticencia a ser entendidas hasta ahora. Estos bosones de norma son conocidos con el espantoso nombre de “gluones” (del inglés “Glue” pegamento, cola, etc.) por la propiedad que tienen las interacciones fuertes de mantener pegados, por intercambio de gluones, a los quarks. Ahora bien, las interacciones fuertes son de muy corto alcance por lo que los gluones deben ser muy pesados, aunque no tanto como para no poder ser observados cosa que no ha sucedido hasta ahora. Además existen razones para pensar que estos gluones deben ser de masa cero. ¿Qué sucede entonces? Hay que observar que el grupo SUc(3) es no abeliano y que esto trae como consecuencia que los gluones porten también "color" a diferencia del electromagnetismo, donde el grupo de simetría U(1) es abeliano y como consecuencia el fotón carece de carga. Esto a su vez implica que cuando dos quarks interaccionan cambian de color. Por ejemplo, si un quark pasa de verde a rojo —en una interacción fuerte entra dos quarks— el gluón que interviene en la interacción “lleva” los colores “rojo” y “antiverde” de manera que este último anula al verde y el rojo “colorea” al quark dejándolo de color rojo. (Figura 6) Hay evidencias experimentales que señalan que cuando dos quarks están juntos prácticamente interaccionan entre ellos, pero a medida que se alejan, los quarks interaccionan con una nube de sistemas q– y de pares de gluones que rodean a los quarks. Una cosa similar ocurre en el electromagnetismo, donde alrededor de cada electrón existe una nube de pares electrón positrón (anti-electrón) y fotones, cuyo efecto es enmascarar la carga del electrón. Pero en el caso de los quarks si bien los pares q– enmascaran el “color” los gluones también llevan color (a diferencia de los fotones que no llevan carga) y consecuentemente el efecto de éstos es el de incrementar el color neto de los quarks de manera que a medida que los quarks se alejan la interacción crece más y más —indefinidamente parece ser— por lo que se necesita una energía infinita para separar dos quarks. Es este mecanismo que los físicos llaman confinamiento, el responsable del comportamiento tan curioso de las interacciones débiles. Así, según la teoría, no es posible separar dos partículas que tengan “color” solamente los sistemas “blancos” pueden permanecer aislados, los demás estarán siempre ligados a otros con color. Por esto no se observan los gluones aunque sean de masa cero, y por esto aparentemente, las interacciones se manifiestan a corta distancia. En realidad se podrían manifestar a distancia infinita, pero se necesitaría una energía infinita para esto. El hecho de no existir hasta ahora una teoría realista de las interacciones fuertes que explique el confinamiento se ha convenido en una de las más grandes dificultades de la teoría de las interacciones fuertes. Supersimetría Las teorías de normas aquí expuestas sufren de varias dificultades intrínsecas. Las constantes físicas por ejemplo, según su valor modifican enormemente una teoría. Las teorías de norma son compatibles con los valores experimentales de las constantes físicas, pero no explican por qué éstas toman precisamente esos valores. ¿Por qué la carga del electrón es 1.602 X 10 19C? ¿Por qué la interacción fuerte es precisamente tan fuerte? ¿Por qué la masa del electrón es 9.1 X 10 31 kg? ¿Cuántos quarks hay realmente? Estas preguntas y muchas más no pueden ser resueltas por esquemas de este tipo. Tal vez sea necesario buscar nuevos tipos de simetría que engloben las aquí descritas. Tal vez sean de tipo local y se puedan poner las cuatro interacciones en una gran simetría que la unifique, formando una sola teoría. Recientes progresos apuntan un poco en esta dirección. Las nuevas teorías son conocidas con el horrible nombre de supersimetría. Esta nueva simetría permite lo que hasta ahora no era posible: relacionar partículas de spin diferente y tratarlas de igual manera.12 La importancia de esta teoría radica en el hecho de ofrecer con unos cuantos parámetros, una descripción bastante detallada de cientos de partículas, además reconcilia aunque sea parcialmente, la teoría de la gravitación con la teoría de campos cuánticos. Una de las predicciones más importantes de esta teoría es la inestabilidad del protón. Experimentos muy recientes (mayo de 1981) parecen confirmar esta teoría. El protón se desintegra (en un lapso de tiempo verdaderamente gigantesco) en neutrinos y ciertas partículas llamadas D. Si este tipo de teorías permite o no una descripción y finalmente una unificación de las cuatro interacciones básicas sólo el tiempo podrá decirlo. Por el momento el estudio y comprensión de estas interacciones representa probablemente el más grande reto de la física moderna. |
||||||||||||||||||||||||||||||||||||
Notas 1. Este término fue introducido hacia 1920 por Herman Weyl cuando construía una teoría que combinase electromagnetismo y relatividad general. En la teoría había que introducir ciertos patrones de longitud y tiempo para cada punto del espacio tiempo, y Weyl los comparó a los patrones usados por los obreros mecánicos, escribiendo en alemán “Cich In vasianz” que fue primero traducido al inglés como “calibration” invariance y posteriormente como gauge invariante. En México se ha preferido usar el término “norma" (medidor, patrón, etcétera) “Eich Invarianzs”. 2. En realidad, las transformaciones de los espines son trasformaciones continuas, como la rotación de una esfera, y permiten pasar por estados (en el sentido de la mecánica cuántica) intermedios de protón y neutrón, que a veces pueden ser contemplados como protón y a veces como neutrón. 3. En honor a Niels Henrik Abel, matemático noruego que estudió este tipo de transformaciones a principio de siglo. 4. En física moderna el nombre empleado es campo y no función. 5. SU(2): grupo formado por las matrices unitarias 2 X 2 de traza nula. El símbolo o significa tensorial. 6. También conocido con el nombre de “Bosón de norma”. 7. En física moderna a cada función o más concretamente campo, se le asocia una partícula caracterizada por éste. 8. El nombre de “quark” fue propuesto por Gell—Mann a propósito de una lectura de James Joyce: Finnegan´s Wake y aunque dentro del contexto del libro no quiere decir gran cosa, en Siliza (Alemania), es un cierto tipo de queso (requesón). 9. Para los que conocen mecánica cuántica, este es un resultado el principio de exclusión de Pauli que no permite que dos fermiones idénticos ocupen el mismo estado y por esto deben poder distinguirse. 10. Cuando los tres colores básicos se mezclan en una cierta forma, por ejemplo en rueda giratoria, el efecto visual es un color blanco. 11. SU(3): matrices unitarias de traza nula 3 X 3. 12. Para aquellos que conozcan la teoría de grupos, consiste en tener bosones y fermiones, dentro de la misma representación irreductible del grupo de supersimetría. |
||||||||||||||||||||||||||||||||||||
____________________________________________________________
|
||||||||||||||||||||||||||||||||||||
Rodolfo Patricio Martínez y Romero
Profesor de carrera del Departamento de Física Facultad de Ciencias, Universidad Nacional Autónoma de México.
cómo citar este artículo →
Martínez, Rodolfo. 1982. “Simetrías e Interacciones en Física”. Ciencias núm. 2, julio-agosto, pp. 8-15. [En línea]
|