revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.

 

                 112
La metodología de Newton
 
  menu2
   
     
José Marquina
     
               
               
El panorama metodológico al que se enfrenta Newton se
puede caracterizar, a grandes rasgos, señalando la inexistencia de patrones aceptados universalmente para la investigación científica. En su aprendizaje formal en Cambridge, Newton tuvo que empezar su formación en libros como el Physiologiae Peripateticae Libri Sex Cum Commentariis de Johannes Magirus, que como su nombre lo indica, representaba el legado de la filosofía aristotélica, misma que en los medios universitarios gozaba
todavía de gran prestigio. Sin embargo, los estudios autodidactas de Newton lo pusieron en contacto con las dos corrientes que ejercían mayor influencia entre los personajes más relevantes de la época: las herederas intelectuales de Descartes y de Bacon. Mientras que la primera tenía gran importancia en la Europa continental, la segunda gozaba de plena aceptación en Inglaterra y había servido, incluso, como guía para el diseño de la Royal Society.
 
A rasgos muy generales, las corrientes cartesianas se caracterizaban por la construcción a priori de hipótesis que les permitían rechazar la validez de cualquier conclusión contraria, independientemente de su origen, por la simple razón de oponerse al sistema aceptado. Por el otro lado, la Royal Society planteaba una concepción que consistía en rechazar la filosofía natural dogmática, que se basa más en el ingenio que en los hechos (en clara referencia al cartesianismo), predicando un baconismo estrecho y antiteórico que lo único que llegó a producir fueron historias naturales, de las que se encuentran llenos los anales de las Philosophical Transactions. Lo estrecho de esta concepción se refleja en el caso de la Micrographia de Robert Hooke, que para que fuera publicada por la Royal Society se le solicitó al autor que diera “noticia en la dedicatoria de esa obra a la sociedad de que, aunque le hayan dado licencia, con todo ello no abrazan teoría alguna ni se ha de pensar que así sea, y de que las diversas hipótesis y teorías que él enuncia allí no se exponen como certezas, sino como conjeturas, y que no pretende en absoluto imponerlas o exponerlas al mundo como la opinión de la sociedad”.
 
La posición de Hooke, asumida como punto intermedio entre el dogmatismo cartesiano y el escepticismo baconiano, planteaba que la verdad de una teoría podía ser establecida tomando todas las hipótesis existentes, para después, por el método de exhaución, irlas desechando de una en una y así quedarse únicamente con la que hubiese sobrevivido al escrutinio.
 
Al menos ante estas cuatro posturas (aristotélica, cartesiana, baconiana y hookiana), Newton va a pretender entronizar una nueva concepción para la filosofía natural. En este sentido, con respecto a la concepción de Hooke, Newton señala en una carta a Oldenburg (julio de 1672): “Yo no creo que sea efectivo para determinar la verdad, el examinar los caminos diferentes por los cuales los fenómenos deberían ser explicados […] la teoría que yo propongo se me mostró […] no deduciéndola solamente mediante la confrontación de suposiciones contrarias, sino derivándola de los experimentos”, en donde queda claro que para Newton el camino de comparar la bondad de las hipótesis existentes no puede conducir a la certeza, ya que, incluso, no se puede tener la seguridad de que se dispone de todas las hipótesis posibles y siempre existe la posibilidad de construir otra que sea mejor que la aceptada con anterioridad.
 
La crítica a los cartesianos se hace evidente en el Prefacio a la segunda edición de los Principia, en el que Roger Cotes plantea que “algunos se muestran contrarios a esta física celeste porque contradice las opiniones de Descartes y parece difícil de reconciliar con ellas. Dejemos que disfruten con su propia opinión, pero pidamos que hagan ellos lo mismo, sin negarnos a nosotros la libertad que para sí exigen. Puesto que la filosofía newtoniana nos parece verdadera, concédasenos la libertad de abrazarla y retenerla, siguiendo causas probadas por los fenómenos, en vez de causas sólo imaginadas y sin probar todavía”.
 
Para Cotes, y claramente para Newton, aquellos “que parten de hipótesis como primeros principios de sus especulaciones —aunque procedan luego con la mayor precisión a partir de esos principios— pueden desde luego componer una fábula ingeniosa, pero no dejará de ser una fábula”.
 
Esta forma de entender las hipótesis representa para Newton una forma de dogmatismo metodológico que invierte el orden acerca de cómo debe actuarse en el proceso de investigación. La refutación de una teoría legítima, entendida a la manera newtoniana, sólo podrá darse mostrando la insuficiencia de la evidencia experimental a favor o la evidencia experimental que muestre lo contrario.
 
Las funciones válidas que Newton le asigna a las hipótesis son, por un lado, la de permitirnos explicaciones provisionales, sujetas a escrutinio, que no deben de considerarse como necesariamente verdaderas y, por otro, las hipótesis que se plantean no con una finalidad dogmática sino con una finalidad heurística, como guía en la investigación, indicando nuevos caminos y sugiriendo nuevos experimentos.
 
Como es obvio en todo el corpus de su obra, Newton sí hacía hipótesis, por ejemplo la relativa al carácter corpuscular de la luz, pero negaba que dichas hipótesis fueran la base de su constructo óptico, en particular su teoría de los colores; y fue la incomprensión de este hecho por parte de sus colegas (Hooke, Pardies, Huygens), lo que llevó a Newton a las agrias disputas que sostuvo con ellos a raíz del envío a la Royal Society de su tratado sobre la luz y los colores en 1672.
 
El concepto de hipótesis de Newton era tan diferente al de sus contemporáneos que al publicarse la primera edición de los Principia, en el Journal des Sçavans en 1688, apareció una reseña del libro en la que el autor, anónimo, planteaba que se trataba de un libro matemático, hipotético y no de filosofía natural. Es curioso constatar que no obstante la pretensión newtoniana de separar certezas de conjeturas, siempre terminaba siendo acusado de hacer hipótesis (en su acepción peyorativa), con la consecuente minimización por lo realizado. Estas interminables controversias ponen de relevancia que en realidad lo que ocurría era que Newton estaba inaugurando una nueva tradición de investigación que se oponía al resto de las tradiciones imperantes, en particular a la cartesiana, y que la batalla entre ellas se daba en todos los niveles; pero en particular en el metodológico, en el que Newton proponía un conjunto de cánones difíciles de entender y mucho más difíciles de aceptar para los seguidores de otras tradiciones.
 
El método de análisis y síntesis
 
La concepción metodológica newtoniana proviene, como lo dice en su Óptica, de las matemáticas, y constituye el método de análisis que “consiste en realizar experimentos y observaciones, en sacar de ellos conclusiones generales por inducción y en no admitir otras objeciones en contra de esas conclusiones que aquellas salidas de los experimentos u otras verdades ciertas, pues las hipótesis no han de ser tenidas en cuenta en la filosofía experimental”. El análisis posibilita el pasar de “los efectos a las causas y de estas causas particulares a las más generales, hasta que el argumento termina en la más general”.
 
Una vez completado el proceso de análisis se ha de proceder a lo que Newton denomina “el método de composición o síntesis”, que “consiste en suponer las causas descubiertas y establecidas como principios y en explicar con ellos los fenómenos, procediendo a partir de ellas y demostrando las explicaciones”.
 
En este sentido, la síntesis, por un lado, requiere el análisis y, por otro, lo complementa; de forma tal, que partiendo de los fenómenos se encuentren, a partir del análisis, las causas de dichos fenómenos y a partir de dichas causas asumidas como principios se dé razón del resto de los fenómenos. La síntesis tiene una virtud adicional a la de dar cuenta de otros fenómenos, que es la de poner a prueba el potencial explicativo de las causas.
 
En realidad, lo que propone Newton es un procedimiento único de análisis y síntesis, en el cual cada uno de dichos procesos opera independientemente y en momentos sucesivos, sin perder por ello el carácter unitario. Esto es relevante en la medida en que, en este punto, Newton se diferencia de Descartes, ya que para éste análisis y síntesis no son fases sucesivas del mismo método, sino dos caminos alternos para llegar a ideas claras y distintas.
 
El método de análisis y síntesis es planteado por Newton, principalmente, en la cuestión 31 de la Óptica, donde se aclara el significado de la aseveración hecha en los Principia relativa a que de los fenómenos de movimiento se encuentren las fuerzas responsables de los movimientos y a partir de ellas se describa el resto de los fenómenos, lo cual demuestra que es un planteamiento general aplicable tanto en la investigación que avanza por medio de observaciones directas y experimentos, el caso de la Óptica, como en la investigación que plantea explícitamente la matematización de la experiencia, el caso de los Principia.
 
Las diferencias entre el enfoque experimental y el matemático, presentes en la Óptica y los Principia, lleva a preguntarse acerca del carácter de ambos dentro del esquema de análisis y síntesis que Newton recomienda como método para la filosofía natural y que asegura haber seguido en su trabajo sobre ambas ramas del conocimiento.
 
Experimentación y matematización
 
Es precisamente en el Libro I de la Óptica donde puede observarse con mayor claridad la operación del método de análisis y síntesis vinculado con la experimentación. La estructura de la Óptica es peculiar, ya que consta de 3 libros en los que la trama se va debilitando, de tal manera que en el Libro I las proposiciones se demuestran a partir de experimentos, el Libro II consta de observaciones y consideraciones respecto a éstas, así como proposiciones que no son demostradas con el rigor del Libro I, para terminar en el Libro III con un conjunto de observaciones que desembocan en la famosas 31 cuestiones, de forma tal que la Óptica empieza probando con base en experimentos y termina preguntando y basándose en especulaciones.
 
La Parte I del primer libro inicia con una proposición relativa a que “la luz que difiere en color, difiere también en grado de refrangibilidad”, misma que pasa a demostrar experimentalmente a través de dos dispositivos (experimentos 1 y 2) en los que cuenta con obsesivo detalle que tomó “un papel rígido de forma oblonga”, miró “dicho papel a través de un prisma sólido”, giró “hacia arriba el ángulo de refracción del prisma” y así sucesivamente, para concluir que “la luz proveniente de la parte azul y que, tras atravesar el prisma, alcanza el ojo, sufre en semejantes circunstancias una refracción mayor que la luz proveniente de la mitad roja, por lo que es más refrangible”. Una vez hecho esto el experimento dos se concatena con el uno, pues en “torno al antedicho papel enrollé varias veces un hilo sutil de seda negra”, de forma tal que el dispositivo se va complicando y le permite concluir que “a iguales incidencias del rojo y el azul sobre la lente, el azul se refractaba más que el rojo”, por lo que estos “experimentos bastarán por lo que atañe a los colores de los cuerpos naturales, pero, en el caso de los colores producidos por refracción con prismas, se mostrará esta proposición mediante los experimentos que siguen inmediatamente”. Es decir, que lo que ha hecho Newton es plantear una proposición que él ha demostrado, parcialmente, basándose en dos experimentos.
 
A continuación plantea una segunda proposición concatenada con la anterior. Para la demostración de esta proposición y lo que resta de la primera, Newton plantea tres experimentos (números tres, cuatro y cinco). Como se observa, lo que hace Newton es ir avanzando cautelosamente, concatenando experimentos de forma tal que avanza hasta el punto en el que considera que ha llegado a algo seguro y esto le permite plantear nuevos experimentos que van completando paralelamente la demostración de las proposiciones generales. Todos estos experimentos han sido construidos con la finalidad de demostrar el planteamiento newtoniano de que la luz solar es una mezcla heterogénea de diferentes rayos de luz con diversas refrangibilidades. Ésta es una concepción que se opone a las ideas de corte cartesiano, sostenidas, entre otros, por Hooke, relativas a la composición homogénea de la luz, con diferentes versiones que van siendo derrotadas a través de los diversos experimentos pero que, en principio, pueden seguir surgiendo por medio de mecanismos ad hoc.
 
Por esta razón, el experimento seis es planteado por Newton como el experimentum crucis, el cual debe permitir escoger entre las dos únicas causas posibles de que aparezcan colores cuando un rayo de luz solar pasa a través de un prisma, las cuales son que los colores son producidos por el prisma o que se debe a que los colores pertenecen a los rayos de luz desde su origen. Para realizar este experimento, Newton coloca un primer prisma por el que hace pasar un rayo de luz solar dirigiendo la luz hacia otro prisma situado a doce pies de distancia, para concluir que “la luz que, por ser más refractada por el primer prisma, iba a dar al extremo azul de la imagen, volvía a ser más refractada por el segundo prisma que la luz que iba a parar al extremo rojo de la imagen”, lo que implica, como le señala Newton a Hooke, que “rayos de diferentes colores considerados cada uno aparte, a iguales incidencias sufren desiguales refracciones sin haber sido separados, rarificados, o de cualquier manera dilatados”. Ante esta evidencia, Newton está posibilitado para asegurar que el experimentum crucis “demuestra tanto la primera como la segunda proposición”.
 
Como colofón a lo anterior, Newton plantea cuatro experimentos más (números siete, ocho, nueve y diez) para concluir que todo “esto confirma no sólo la primera proposición, sino también la segunda”. Además, en el escolio propone unir dos experimentos para que la conclusión se haga “aún más clara” y sea “manifiesto que la luz del Sol es una mezcla heterogénea de rayos, unos de los cuales son más refrangibles que los otros”.
 
El método expuesto le permite a Newton, a lo largo de todo el Libro I, demostrar catorce proposiciones y resolver ocho problemas, deducidos de 33 experimentos. El Libro I es un excelente ejemplo del método propuesto por Newton, en el que a partir de los fenómenos se encuentran las causas.
 
La Óptica es un libro peculiar, pues aunque es indiscutiblemente una obra maestra de método experimental asume “la forma externa de una obra matemática, en la medida en que empieza con definiciones y axiomas y procede mediante proposiciones. No obstante, es de destacar que las proposiciones de la Óptica no se demuestran en su mayor parte de manera lógica en relación con los axiomas […] Y lo que resulta aún más significativo, las proposiciones no se demuestran mediante la aplicación de técnicas matemáticas”. La pretensión matemática de Newton se ve confirmada por algunas de sus aseveraciones, en las cuales ante los menores vestigios de matematización asegura que “habrá amplias posibilidades de tratar por extenso las cuestiones relativas a esta ciencia de una nueva manera, no sólo por lo que respecta al perfeccionamiento de la visión, sino también a la determinación matemática de todo tipo de fenómenos relacionados con los colores, susceptibles de producirse por refracción”. En este sentido, “la ciencia de los colores se convierte en una teoría tan genuinamente matemática como cualquier otra parte de la óptica”, aunque hay que destacar que el propio Newton parece darse cuenta de lo exagerado de su pretensión matematizadora cuando señala que “todas estas cosas se siguen de las propiedades de la luz por un razonamiento de tipo matemático” pero “su verdad se pone de manifiesto por los experimentos”, en donde Newton reconoce que el poder de sus aseveraciones ópticas recae en las evidencias empíricas y la matemática juega, mayoritariamente, el papel de método de razonamiento.
 
Su método
 
Para entender el origen de esta aparente tensión entre matemáticas y experimentos, de esta ansia matematizadora, es necesario considerar el hecho de que la Óptica es una obra cuya impresión fue retardada por el propio Newton hasta 1704 (una vez muerto Hooke), pero que se remonta a sus escritos de la década de 1670. En el famoso escrito A New theory about light and colors, de 1672 y origen de su famosa controversia con Hooke, Newton afirmaba que “un naturalista difícilmente esperaría ver que la ciencia de ellos [los colores] se tornase matemática y, con todo, me atrevo a afirmar que hay en ella tanta certeza como en cualquier otra parte de la óptica”.
 
Una carta a Oldenburg, en la que Newton pretende dar respuesta a los ataques de Hooke, aclara el papel que asigna tanto a las matemáticas como a los experimentos, cuando señala: “En último lugar, yo voy a dedicarme a una expresión casual que insinúe más certeza de muchas cosas de las que yo he prometido, i.e. la certeza de las proposiciones matemáticas. Yo dije, en verdad, que la ciencia de los colores era matemática, y tan certera como cualquier otra parte de la óptica; pero ¿quién no sabe que la óptica, al igual que otras ciencias matemáticas, depende tanto de las ciencias físicas como de las demostraciones matemáticas? Y la certeza absoluta de una ciencia no puede exceder la certeza de sus principios. Ahora, la evidencia, por medio de la cual yo aseveré las proposiciones de los colores es, desde los experimentos, en las siguientes palabras: que las proposiciones por sí solas no pueden ser estimadas más que como principios físicos de una ciencia. Y estos principios deben ser tales que en ellos un matemático pueda determinar todos los fenómenos de los colores […] Yo supongo que la esencia de los colores va a ser matemática, y tan certera como cualquier otra parte de la óptica. Y tengo buenas razones para creer en ello, pues siempre, desde que me di cuenta de estos principios, los he usado con éxitos constantes para estos propósitos”.
 
De la cita anterior se desprende la forma de operación del método de análisis y síntesis, en el cual los experimentos y las matemáticas no están reñidos, sino que, por el contrario, se conjugan de forma tal que se impone la certeza de las matemáticas pero sin perder el referente empírico. En este sentido, el problema de la Óptica es que es un libro inconcluso, en el cual Newton no logró llevar hasta sus últimas consecuencias su proyecto inicial de matematización.
 
Del proyecto newtoniano de matematizar los estudios ópticos sólo quedó su confesión en la Óptica: “no pretendo explicar mediante hipótesis las propiedades de la luz, sino presentarlas y probarlas mediante la razón y los experimentos”.
 
Donde puede apreciarse con toda claridad el papel que le asignaba Newton a las matemáticas es en los Principia, que desde su título completo, Philosophiae Naturalis Principia Mathematica, explicita el objetivo del libro. En el prefacio a la primera edición, Newton señala que “constituye un título de gloria para la geometría el hecho de que a partir de esos pocos principios, recibidos de otra procedencia, sea  capaz de producir tantas cosas. Por consiguiente, la geometría basada en la práctica mecánica no es sino aquella parte de la mecánica universal que propone y demuestra  con exactitud el arte de medir. Pero como las artes manuales se emplean principalmente en el movimiento de cuerpos, resulta que la geometría se refiere habitualmente a su magnitud, y la mecánica a su movimiento. En este sentido, la mecánica racional será la ciencia de los movimientos resultantes de cualesquiera fuerzas, y de las fuerzas requeridas para producir cualesquiera movimientos, propuestas y demostradas con exactitud […] Pero yo considero la filosofía más que las artes, y no escribo sobre potencias manuales, sino naturales, tomando ante todo en cuenta las cosas que se relacionan con gravedad, levedad, fuerza elástica, resistencia de fluidos y fuerzas semejantes, tanto atractivas como impulsivas; por consiguiente, ofrezco esta obra como principios matemáticos de la filosofía, pues toda la dificultad de la filosofía parece consistir en pasar de los fenómenos de movimiento a la investigación de las fuerzas de la naturaleza, y luego demostrar los otros fenómenos a partir de esas fuerzas”.
 
La cita anterior esboza el proyecto de los Principia, mismo que empieza con un conjunto de definiciones en las que establece conceptos tales como masa, cantidad de movimiento, fuerza impresa, fuerza centrípeta y otras ocho definiciones en total. Enseguida viene un escolio en el que se plantean las ideas relativas al espacio, tiempo y movimiento absolutos, para pasar, con sólo una breve discusión de cada una de ellas, a enunciar de manera axiomática los tres axiomas o leyes de movimiento. Las leyes vienen acompañadas de seis corolarios, de los cuales los dos primeros están dedicados a mostrar la composición de las fuerzas, entendidas éstas en sentido vectorial. Ya desde estos corolarios, Newton empieza a plantear los principios matemáticos necesarios para el quehacer de la filosofía natural, para terminar esta especie de introducción con un escolio. Inmediatamente vienen los tres libros que componen los Principia. Los Libros I y II se proponen tratar aspectos puramente matemáticos, que a decir de Newton posibilitan “fundamentar nuestros razonamientos en asuntos filosóficos”, ilustrando su aplicación “con algunos escolios filosóficos, proporcionando una descripción de aquellas cosas que tienen una naturaleza más general y sobre las que parece apoyarse principalmente la filosofía”.
 
Los Libros I y II representan la construcción de una extraordinaria maquinaria matemática que en el Libro III entrará en funcionamiento, de forma tal, que a partir de los fenómenos celestes se deduzcan las fuerzas de la gravedad, responsables de dichos fenómenos, y a partir de dichas fuerzas se dé razón de otros fenómenos tales como los movimientos de los planetas, los cometas, la Luna y las mareas, lo cual representa el método de análisis y síntesis en su más brillante y completa exposición.
 
La separación entre matemáticas y filosofía natural le permite a Newton explorar las consecuencias matemáticas relativas a posibles condiciones físicas sin tener la obligación de entrar en el análisis de la realidad física de los supuestos. La naturaleza cuasifísica de las matemáticas newtonianas se basa en el hecho de crear contrapartidas matemáticas ideales que fácilmente se pueden poner en relación con las condiciones reales que provienen de la observación, haciendo las acotaciones pertinentes.
 
Al operar de esta manera, Newton pretendía evadir las posibles críticas a sus conclusiones, sin atacar, primeramente, las premisas, pero como éstas eran estrictamente matemáticas, eran inatacables, sin embargo, desafortunadamente para él, fue atacado en sus conclusiones, omitiendo las premisas.
 
Como ejemplo de esta forma de aproximación matemática al mundo físico, baste ver la introducción a la Sección XI del Libro I, en la que Newton aclara que ha “estado exponiendo las atracciones de cuerpos hacia un centro inmóvil, aunque muy probablemente no exista cosa semejante en la naturaleza de las cosas”. Una vez resuelto este problema, que es una primera idealización de lo que ocurre en el mundo real, Newton propone avanzar hacia una situación más compleja en la que “si hay dos cuerpos, ni el atraído ni el atrayente se encuentran verdaderamente en reposo […] si existen más cuerpos que, o bien están atraídos por un cuerpo, atraído a su vez por ellos, o que se atraen todos mutuamente, entre sí, tales cuerpos se moverán de modo tal entre sí que su centro común de gravedad se encontrará o bien en reposo o se moverá uniformemente hacia adelante en línea recta”. Para el planteamiento de esta nueva situación, Newton ha utilizado básicamente la tercera ley (de ahí el carácter cuasi físico al que hice referencia), pero sigue trabajando en un constructo de tipo matemático abstraído de la naturaleza, pero constructo matemático a fin de cuentas, como se esfuerza en dejar claro al señalar que “pasaré ahora a tratar el movimiento de cuerpos que se atraen los unos a los otros, considerando las fuerzas centrípetas como atracciones, aunque en estricto rigor físico, pudieran llamarse más apropiadamente impulsos. Pero estas proposiciones deben considerarse puramente matemáticas: en esta medida, prescindiendo de cualesquiera consideraciones físicas, utilizo un discurso llano para hacerme comprender mejor por un lector matemático”. Los resultados matemáticos que demuestra enseguida, son utilizados en el Libro III, ya que como señala en el escolio a la Sección XI, la forma de avanzar debe ser tal que en “matemáticas hemos de investigar las cantidades de las fuerzas con su proporción consiguiente en cualesquiera condiciones supuestas; luego, cuando descendamos a la física, compararemos esas proporciones con los fenómenos para poder conocer qué condiciones de esas fuerzas responden a las diversas clases de cuerpos atractivos. Partiendo de ello podremos argumentar con mayor seguridad sobre las especies físicas, las causas y las proporciones de las fuerzas”.
 
Como se puede observar, los Principia avanzan con base en constructos idealizados que van complicándose, de forma que las proposiciones demostradas pueden, eventualmente, ser trasladadas al mundo de los fenómenos, aplicándole a éstos las consecuencias derivadas del tratamiento puramente matemático.
 
En el Libro II, Newton empieza a analizar los problemas relativos a los fluidos para, una vez caracterizados éstos, sus movimientos, y en particular el movimiento circular de los mismos en la Sección IX, llegar en la Proposición LII, Teorema XL, al análisis de vórtices, lo cual le permite “investigar las propiedades de los vórtices con el fin de determinar si los fenómenos celestes pueden explicarse recurriendo a ellos”. Evidentemente, todo este edificio conceptual va encaminado no a la validación matemática de una concepción por la vía de los fenómenos, sino, por el contrario, a la refutación de un planteamiento específico, el modelo cosmológico cartesiano.
 
Una vez que, de acuerdo con su metodología, Newton desecha los vórtices cartesianos en tanto que teoría explicativa, el Libro III está dedicado a la construcción y puesta en marcha de la teoría de la gravitación. Ya desde la Proposición II, Teorema II podemos ver en funcionamiento el método de demostración matemática newtoniana, cuando al demostrar dicha proposición señala: “La primera parte de la Proposición se desprende manifiestamente del Fenómeno V y la Proposición II, Libro I; la última del Fenómeno IV y el Corolario VI, Proposición IV del mismo Libro”.
 
Como se puede observar de este ejemplo, la pretensión es demostrar a partir de los fenómenos, utilizando todo el aparato matemático construido con anterioridad.
 
Conclusiones
 
Siguiendo este método de estructuración paulatina, Newton planteará su principio de gravitación universal formulado como gravitación de todos los cuerpos entre sí y de las partes con los todos y las partes con las partes y la que, si no es percibida en los objetos que nos rodean, es porque “la gravitación hacia estos cuerpos es a la gravitación hacia toda la Tierra como estos cuerpos son a toda la Tierra, la gravitación hacia ellos tiene que ser muy inferior a lo que nuestros sentidos pueden observar”.
 
Asimismo, Newton muestra que le es claro que uno es el mundo ideal con simplificaciones y otro el mundo real, en el cual hay que hacer consideraciones en torno a no tomar en cuenta, en el análisis, determinados elementos, siempre y cuando dichos elementos produzcan efectos que pueden despreciarse, pues hay otros casos en los que “la acción de Júpiter sobre Saturno no puede ignorarse” por lo que “el error en su movimiento en torno al Sol […] puede casi evitarse […] situando el foco inferior de su órbita en el centro común de gravedad de Júpiter y el Sol”. De lo anterior se observa que Newton se percata de que al resolver problemas concretos será necesario aceptar el carácter aproximado de los resultados, pues como señala en De Motu (borrador de los Principia), “considerar simultáneamente todas estas causas de movimiento y definir estos movimientos mediante leyes exactas que permitan un cálculo apropiado excede, si no me equivoco, la fuerza de todo el entendimiento humano”. La distinción que traza Newton entre el mundo matemático, en el cual, por ejemplo, las leyes de Kepler son exactas, y el mundo físico, en el cual sólo son aproximaciones, es uno de los caracteres revolucionarios de la dinámica celeste newtoniana.
 
La gravitación le permite a Newton, asumiéndola como principio, explicar el resto de los fenómenos, tales como el comportamiento de la Luna, de las mareas, de la precesión de los equinoccios, así como de los cometas, con lo que completa el proceso de análisis y síntesis que había anunciado en el prefacio a la primera edición.
 
  articulos
 
 
Referencias bibliográficas
 
Newton, I. 1962. Mathematical Principles of Natural Philosophy. University of
California Press. Berkeley.
Newton, I. 1982. Principios Matemáticos de la Filosofía Natural y su Sistema del
Mundo. Editora Nacional, Madrid.
Newton, I. 1977. Óptica. Alfaguara, Madrid.
Hall, A. R. y M. B. Hall. 1978. Unpublished Scientific Papers of Isaac Newton.
Cambridge University Press. Cambridge.
Cohen, I. B. y R. S. Westfall (eds) 1995. Newton. A Norton Critical Edition. W. W.
Norton, Nueva York, Londres.
Cohen, I. B. 1978. Introduction to Newton’s Principia. Harvard University Press,
Cambridge.
Cohen, I. B. 1983. La revolución newtoniana y la transformación de las ideas
científicas. Alianza Universidad, Madrid.
Koyré, A. 1965. Newtonian studies. Harvard University Press, Cambridge.
Westfall, R. 1996. Never at Rest. Cambridge University Press, Cambridge.
Shapiro, A. E. 1984. “Experiment and mathematics in Newton’s theory of color”, en
Physics Today, vol. 37, núm. 9, pp. 34-42.
 
     
_______________________________________________________________
     
 
José Marquina
Facultad de Ciencias, Universidad Nacional Autónoma de México.
 
 
 
como citar este artículo
Marquina Fabrega, José Ernesto. (2003). La metodología de Newton. Ciencias 70, abril-junio, 4-15. [En línea]
     
       

 


112

Los rayos de Newton y la percepción de la realidad
  menu2
   
     
Dennis Sepper
     
               
               
Cualquiera que haya estudiado la física de la luz conoce los
experimentos de Newton con prismas. En una carta enviada a la Royal Society de Londres el 6 de febrero de 1672 explica cómo fue que los inició. En 1666, mientras trabajaba en el diseño y la forma de los lentes, obtuvo un prisma para ver los célebres fenómenos de los colores. Entonces, arregló su cuarto para transformarlo en una cámara oscura; lo cerró a todas las fuentes exteriores de luz y en una de las persianas hizo un pequeño orificio por el cual pudiera pasar un rayo de la luz del Sol. Al refractar esta luz hacia la pared se produjo la conocida imagen a la que llamó spectrum.
 
Newton cuenta que al principio estaba fascinado por los colores, hasta que se dio cuenta de que, sin importar lo que hiciera, la imagen era más larga de lo que predecía la ley de refracción. Empezó a preguntarse si conocía alguna hipótesis que le permitiera explicar este fenómeno. Después de realizar otros experimentos decidió que la respuesta era negativa. Entonces realizó su experimento crucial. En un cuarto oscuro utilizó un primer prisma para refractar la luz hacia una superficie fija, la cual tenía un pequeño orificio por el que sólo podía pasar una porción de la luz refractada; esta porción de luz proseguía hasta una segunda superficie fija a una cierta distancia, la cual también tenía un pequeño orificio, y la luz que pasaba por ella era inmediatamente refractada por un prisma para caer sobre una pantalla o una pared.
 
Al rotar el primer prisma hacia delante y hacia atrás (a lo largo de un eje paralelo a los tres bordes largos del prisma) se puede ajustar la posición de la imagen sobre la primera superficie de modo que cambie la parte que incide sobre la apertura; de esa forma cambia la porción de luz refractada que pasa por el orificio. Es decir, al rotar el primer prisma, la luz que alcanza la apertura de la segunda superficie procede de la parte superior o inferior del primer espectro; al mismo tiempo, se observa un cambio en la posición de la imagen final que se refleja en la pared, misma que en lugar de ser elongada se torna casi circular. Si las dos superficies y el segundo prisma están fijos, el ángulo en el que la luz incide sobre el segundo prisma siempre es el mismo. Así, la conclusión parece inevitable: cualquier diferencia en la posición de la imagen final es el resultado de una diferencia en la predisposición de la luz original a ser refractada. Para usar términos newtonianos, los rayos de luz son distintamente refrangibles y la diferencia corresponde al color. El color violeta es el más refrangible, el rojo es el menos refrangible, y los colores intermedios del espectro se refractan de forma intermedia, correspondientes con su lugar en el espectro. Por lo tanto, la luz blanca del Sol está compuesta de todos los tipos de rayos mezclados de forma indiscriminada; la refracción los separa y los ordena según su refrangibilidad y su color.
 
 
2
 
 
Para los contemporáneos de Newton quedaba claro que la mayoría de los experimentos descritos eran, en efecto, refutaciones de algunas teorías existentes acerca de la luz y el color, aquellas conocidas por los historiadores de la ciencia como teorías modificacionistas. Éstas sostienen que la luz blanca es una entidad simple que se diferencia al encontrarse con una materia. Así, por ejemplo, cuando Newton hizo variar su primer experimento de refracción al colocar el prisma detrás del orificio de la persiana y al hacer pasar la luz a través de distintas partes del prisma, cerca y lejos de su vértice, sin que cambiara significativamente el espectro, estaba descartando las nociones de que la apertura y la cantidad de materia a través de la cual pasa la luz (la longitud del prisma que tiene que atravesar) modifican a ésta de forma fundamental. Cuando, en otro experimento, Newton utiliza un segundo prisma para contrarrestar los efectos del primero, está refutando la idea de que ciertas irregularidades en el prisma pueden causar la elongación y los colores del espectro, ya que dos irregularidades no podrían recomponer las cosas como estaban en un inicio. Además, al sembrar la expectativa en que un segundo prisma debería de contrarrestar los efectos del primero, el experimento crucis, en el que el segundo prisma no contrarresta los efectos del primero, se vuelve aún más significativo.
 
Uno de los logros más importantes que Newton relata en esta carta (también en las clases que impartía en Cambridge y más tarde en su Óptica), es el de montar experimentos que pueden ser leídos de manera casi inmediata. Una excepción es el experimento que presenta en la primera carta, en el que encontró que el espectro era mucho más largo que lo predicho. La ley que Newton cita es la ley del seno, que establece que el seno del ángulo de incidencia del rayo sobre una superficie refringente es una constante proporcional al seno del ángulo de refracción. En las obras escritas acerca de la óptica de Newton se ha dicho que de acuerdo con la ley del seno, se espera una cierta elongación salvo en una posición precisa del prisma, llamada la posición de la mínima desviación, la cual, casualmente, es aquella con la que Newton empieza sus experimentos. Los expertos en óptica hubiesen podido notar esto, pero muy pocos miembros de la Royal Society de Londres eran expertos en óptica. Sin embargo, y como excepción que confirma la regla, una vez que conocemos la posición del prisma y las consecuencias de la ley del seno, la elongación del espectro es una anomalía digna de llamar la atención dentro de la leyes de la óptica conocidas entonces. Una vez que la teoría prepara el camino, podemos “ver” que la longitud del espectro es problemática.
 
El experimento crucis es el mejor ejemplo de la destreza de Newton para preparar experimentos. Primero, al igual que los demás, es básicamente cualitativo y no exactamente cuantitativo. Newton no nos da, ni tampoco espera obtener, mediciones exactas. Sólo quiere que su audiencia se percate de que a pesar de que el ángulo de incidencia es el mismo, sin importar qué parte del espectro pasa a la segunda superficie, el ángulo de refracción cambia.
 
 
3
 
 
En sus investigaciones de óptica, Newton maneja el arte de diseñar experimentos de tal forma que lo único que tiene que hacer la percepción es verificar el resultado. El significado del resultado ya está establecido desde un inicio: el resultado experimental no hace sino confirmar o refutar lo que la teoría o las hipótesis predicen. No cabe duda de que los experimentos de Newton demostraron una propiedad de la luz que, aunque había sido notada con anterioridad, nunca se había investigado de manera sistemática y no se podía explicar por medio de las teorías modificacionistas de la luz. Newton pensó que sus resultados eran decisivos. En su opinión éstos excluían cualquier explicación modificacionista, además de que proveían un fundamento sólido para sostener la naturaleza corpuscular de la luz; mostraban que la luz blanca era compuesta, que la unidad fundamental de la luz era el rayo, que los rayos difieren en su tendencia a ser refractados y que los colores producidos por los rayos difieren de manera estrictamente proporcional a su diferencia en refrangibilidad.
 
Cada uno de estos puntos es debatible, cuando no falso. La teoría de las ondas, misma que para Newton no era más que una versión del modificacionismo, conocería posteriormente sus días de gloria. En 1690 Christian Huygens publicó De la lumière, un tratado acerca de la transmisión de las ondas matemáticamente mucho más sofisticado que el tratado de óptica de Newton. En la teoría de Huygens no existe una porción más pequeña de la luz, así que el término “rayo” no puede significar lo que significa para Newton. A lo sumo indica una perpendicular imaginaria al frente de las ondas cuando éstas avanzan. Así, el rayo es una ficción matemática, no una entidad real, y por tanto, la teoría de ondas relativiza e incluso derriba la teoría de Newton que dice que los rayos son los constituyentes últimos de la luz. Es más, en la teoría ondulatoria la luz se puede entender no como la mezcla de distintas ondas, sino como un pulso original indiferenciado que se diferencia subsecuentemente por refracción, difracción y otros procesos. Este tipo de modificacionismo renaciente amenazaba con derribar cada uno de los aspectos que Newton consideraba como fundamentales y probados.
 
En una ocasión Newton le replicó a uno de sus adversarios que si su teoría fuera una mera hipótesis la habría suprimido en lugar de perder su tiempo en divulgarla. En un párrafo que se suprimió en la versión impresa de la carta del 6 de febrero de 1672, argumentó que su intención no era proponer una ciencia hipotética sino establecer una teoría acerca de la refracción y el color que fuese tan cierta como cualquier parte de la óptica. Con ello se refería a que no seguía el ejemplo de los atomistas, corpuscularistas, mecanicistas y similares, que proponían suposiciones que permitieran explicar los fenómenos, sino (siguiendo el lenguaje de su Óptica) que revelaría las propiedades reales de la luz y del color. Así, sus observaciones no eran una hipótesis sino una teoría. Para Newton teoría significaba la verdadera forma de ver los fenómenos. Él no se basaba en la deducción de principios, sino en la inducción a partir de experimentos que revelaran su significado hasta al más prejuiciado. Los fenómenos, hábilmente presentados y en su mayoría producidos por medio de instrumentos, revelaban verdades acerca de las propiedades básicas de la luz incluso al inexperto. De esta forma los expertos encontrarían las salidas hipotéticas bloqueadas y estarían forzados a admitir las conclusiones que los fenómenos demostraban de manera contundente.
 
 
4
 
 
Una cosa es dibujar los recorridos de la luz en una hoja de papel y otra mostrar que revelan la ontología fundamental de la luz. Pareciera que Newton creía que el rayo de luz se podía reducir hasta aproximarse a que no tuviera ya dimensión alguna, y entre más se aproximaran los experimentos a esta situación, más se acercarían a las predicciones teóricas. Aunque Newton jamás habló de aproximarse experimentalmente a un límite teórico, trató de hacerlo. Si Newton hubiese realizado esa serie de experimentos en el límite hubiese reconocido desde mucho antes el  significado del fenómeno de difracción, es decir, la dispersión de la luz en una sombra geométrica cuando la apertura es muy pequeña. Esto incluso lo hubiese llevado a  reconsiderar elénfasis de su teoría de la luz y la dirección de sus investigaciones.
 
Es conveniente aclarar que no intento afirmar que Newton debía de haber sido un seguidor de la teoría ondulatoria, sino que las investigaciones, teorías y certezas son afectadas por la lógica, el procedimiento y la totalidad de la experiencia y del conocimiento del investigador. Dada la importancia que tuvo la certeza de Newton, no sólo en su carrera sino también en la historia de la óptica y de la ciencia experimental en los siguientes siglos, se puede pensar que si su experiencia hubiera sido distinta, aún siguiendo la lógica de sus propias investigaciones, la progresión y el resultado de sus propias y posteriores investigaciones habrían sido muy distintos de lo que fueron.
 
Claro que Newton se interesó no sólo por la existencia de los rayos. Como ya se ha dicho, quería disipar cualquier duda acerca de la existencia de ciertas propiedades de los rayos; incluso creía que el análisis de esas propiedades le permitiría sembrar los cimientos para después utilizar los rayos como instrumento para estudiar la estructura de la materia y las fuerzas que se le asocian, como lo expone en el segundo y  tercer libro de su Óptica. La luz, o más bien el rayo de luz, se convirtió en un instrumento, en una prueba. Aquí no sólo nos encontramos en presencia de la ciencia moderna, sino que estamos en el momento de la fundación de las técnicas de investigación de la ciencia experimental moderna.
 
Las formas de ver y percibir que Newton consideraba como una forma natural de ver bien orientada se asociaron con una instrumentalización de la teoría (utilizar aperturas, prismas, lentes) y después este dispositivo instrumental se utilizó para descubrir nuevos fenómenos, primero en el mismo ámbito de investigación y posteriormente, más allá de él.
 
5
 
 
A pesar de que lo más revolucionario de la teoría de Newton, al menos en lo que concierne a la percepción natural, es su teoría del color, sólo la he mencionado de paso. Según Newton, los colores se presentan en dos formas: la homogénea, que corresponde a los colores que se producen por la separación de los rayos individuales, y la heterogénea, en la que los colores son el resultado de una combinación de distintos rayos.
 
A diferencia de Descartes y otros pensadores del siglo XVII, Newton no quería insistir en la distinción entre las cualidades sensoriales primarias y secundarias. Al contrario: quería establecer que la ciencia del color era tan matemática como cualquier otra parte de la óptica.
 
A pesar de que Newton se opuso a la tradición Aristotélica, que databa de dos mil años y sostenía que los colores no eran propios a los cuerpos, probablemente su concesión más importante a la distinción primaria y secundaria, y a pesar de que sabía que la combinación de rayos podía reproducir la apariencia de los colores homogéneos, a lo largo de su trabajo empleó los colores como indicadores del tipo de rayos de los que se trataba y como medida indirecta de las dimensiones físicas de la materia con la que se encontraban los rayos. Por ejemplo, en la sección de la Óptica en la que se habla de los anillos, colores de película fina, Newton da tablas en las que se correlaciona la dimensión de la película con los matices de los colores.
 
Aunque la física postnewtoniana no ignora totalmente el matiz, usa otros parámetros, como la longitud de onda, la longitud de frecuencia y la energía fotónica, parámetros que no dependen de la percepción. El color aún se usa para determinar de forma aproximada de qué lugar en el espectro procede un color monocromático, pero cuando se buscan datos precisos se emplean otros parámetros. Newton fácilmente hubiera podido hacer algo similar y especificar un material estándar con el cual crear un índice de refracción para cada tipo de rayo, pero no lo hizo. Parece que en su búsqueda de una ciencia del color, no sólo de los rayos, no quería neutralizar las cualidades percibidas, sino al contrario, buscaba fomentar su papel ontológico y científico. La ironía está en que el estudio de los rayos, donde se neutralizan las cualidades perceptibles y que también se deriva de Newton, es el que ha tenido una influencia más duradera.
 
 
6
 
 
Hace dos décadas Ian Hacking hacía notar que la filosofía de la ciencia se ocupaba preferentemente de dos problemas, el realismo y la inconmensurabilidad. A sus ojos, la importancia que se le da a la inconmensurabilidad es exagerada y esto se debe a que guarda nexos estrechos con otras preocupaciones modernas en epistemología, el lenguaje y la semántica. En cambio, a su parecer, el realismo es mucho más importante. La ciencia experimental moderna provee una sólida matriz para la formulación de un realismo pragmático acerca de las entidades teóricas, ya que emplea representaciones de las entidades y de sus comportamientos para desarrollar nuevas intervenciones.
 
La estructura de las revoluciones científicas de Thomas Kuhn ha sido, desde luego, la fuente más importante sobre el problema de la inconmensurabilidad. Parafraseando a Kuhn, cuando hay un cambio de paradigma existe la posibilidad de que los seguidores de los paradigmas en conflicto no compartan ningún parámetro: no sólo difieren en sus teorías, sino en cómo se deben de aplicar las teorías a los modelos y también en la manera de interpretar las evidencias. Kuhn incluso llegó a decir que los seguidores de dos paradigmas que compiten entre sí viven en dos universos distintos. Si dos personas estudian un mismo objeto, ¿perciben lo mismo? La respuesta de Kuhn es: sólo si comparten el mismo paradigma.
 
Por su parte, Hacking se centra en aquellas ciencias que tienen un fuerte componente experimental. Cuando la teoría se vuelve parte dependiente de los experimentos y del equipo experimental, es imposible separar a las entidades teóricas del equipo o de los instrumentos. Su realidad es instrumental. La televisión y los microscopios electrónicos prueban de forma pragmática que los electrones existen. Una vez que sabes acelerar electrones, tienes que creer que son reales.
 
Se puede decir que tanto Kuhn como Hacking han dañado nuestra confianza en la percepción normal. Sin embargo, tanto la ciencia como la filosofía la han cuestionado varias veces desde el siglo xvii. Para Kuhn, si no hay un paradigma tampoco hay algo que podamos llamar una percepción normal; en el mejor de los casos, la manera en que la gente común y corriente percibe las cosas probablemente forma parte de una teoría anterior que ha pasado a integrarse en el sentido común. Para Hacking, los seres humanos somos representadores por naturaleza. La realidad emergió cuando se empezó a considerar que las representaciones (que en un inicio no eran frases o proposiciones, sino estatuas, dibujos y otros) eran fieles a los originales. Este realismo básico no presentaba ningún problema, pero los humanos empezamos a hacer representaciones más complejas y esto nos llevó a distintos tipos de representaciones, lo cual creó el problema del realismo respecto a las representaciones complejas.
 
Las teorías científicas no son sino representaciones complejas. Pero para Hacking la percepción y las observaciones hechas por los científicos generalmente  están mucho menos cargadas de teoría que para Kuhn. La observación y la percepción son habilidades, y pueden ser aprendidas por alguien que no conozca nada acerca de la teoría. Por ejemplo, Hacking cita el caso de Caroline Herschel, quien podía ver un cometa a simple vista sin que importara si ella aceptaba o no la teoría de su hermano William acerca de los cometas: ella podía percibir los cometas de un solo vistazo. Había adquirido la habilidad de percibir cometas gracias a su larga experiencia en la observación del cielo, a simple ojo o con instrumentos. Este tipo de percepción no se puede atribuir a una interpretación teórica, y tampoco se puede reducir a una percepción común y corriente o a una serie de imágenes en la retina. Por lo tanto, la habilidad de percibir de forma científica es una cuestión compleja, pero a la vez es común, puesto que nuevos científicos pueden adquirir esa habilidad.
 
Tanto para los científicos como para los filósofos de la ciencia, el problema de la percepción consiste en que está sobrecargada de incertidumbres. Entre más estudiamos la percepción y sus objetos, más nos queda claro que no es una forma simple, confiable y neutral de ver aquello que los físicos, químicos y biólogos quieren saber. Aunque los ojos sirvan para ver colores, y en un astrónomo entrenado sirvan para ver cometas, no son buenos detectores de la frecuencia de ondas o de la energía de los fotones. En el mejor de los casos podemos usar los sentidos como detectores de diferencias registradas por medio de instrumentos; por ejemplo, se pueden usar para leer la posición de un indicador, para revisar datos en busca de patrones o para escuchar el ritmo de un oscilador.
 
De esta forma la percepción se normaliza, incluso se neutraliza y se integra dentro de un más amplio marco de referencia de observación mediada e instrumentalizada. Probablemente la única manera de frenar las ciencias sea tratando de encontrar en ellas un lugar para la percepción natural.
 
 
7
 
 
El nacimiento de la óptica de Newton parece ser el ejemplo ideal para la concepción de Kuhn de un cambio de paradigma. En sus primeros cuadernos, Newton describe la refracción de la luz en términos de corpúsculos que viajan por caminos rectos y que le dan “un golpe” al ojo, lo que produce los distintos colores de acuerdo con su tamaño y su velocidad. Si en un momento dado Newton realmente percibió los fenómenos de esta manera, es difícil entender cómo fue que cuestionó las teorías de los modificacionistassi él ya vivía en un universo distinto al de ellos.
 
Esto no implica que Newton no entendiera el objetivo de las teorías alternativas. Al menos en principio, el trabajo central de sus experimentos de óptica no es para afirmar su teoría, sino para invalidar las demás teorías existentes. La noción de anormalidad de Kuhn viene aquí como anillo al dedo: las teorías preexistentes de refracción no predecían la elongación de la imagen de refracción. Después de iniciar con los deliciosos fenómenos de los colores, Newton prosigue en la carta de 1672 a la Royal Society, con la exposición del alargamiento de la imagen, fenómeno que no desaparecía aunque variaran las condiciones experimentales.
 
Para convertirse en un paradigma, la óptica de Newton debía de ser no sólo una simple anormalidad, sino también una forma de percibir, y contar con una teoría hipótesis desarrollada. El que el paradigma debe de ser un ejemplo que funciona, es decir, que debe ser una teoría puesta en práctica, es aún más importante para la noción de paradigma en Kuhn. Precisamente porque se trata de un espécimen de investigación que funciona, se le puede utilizar como molde para otras investigaciones. La óptica de Newton cabe perfectamente dentro de este modelo, pues su técnica para estudiar los rayos de la luz y sus componentes no sólo mostraba un fenómeno sui  generis sino que podía extenderse más allá de la refracción.
 
Hacking nos ofrece al menos una solución parcial al problema de cómo y por qué la práctica puede ser tan efectiva. Para Hacking, la práctica es parte integral de los instrumentos y del equipo, y son justamente el equipo y su uso los que proveen a la ciencia de un sentido básico de la realidad que estudia, además de una estructura profunda de teorías, prácticas y futuros puntos de interés (en este punto podemos ver que Hacking complementa a Kuhn). Desde esta perspectiva es importante recalcar que Newton implícitamente inventó el analizador de rayos, el espectrómetro. Sin embargo, tomó varias generaciones para que el aparato emergiera como un instrumento independiente. El espectrómetro es para los rayos de Newton lo que el microscopio electrónico para los electrones. El instrumento ayudó a estructurar la investigación en torno a la visión, la luz y el color y posteriormente se empleó en campos más remotos, como el análisis de la luz de las estrellas y la determinación de su composición química.
 
Es bastante improbable que Hacking aprecie ser calificado como complementario de Kuhn. Pero estas reflexiones sugieren que las concepciones de Hacking no representan tanto una ruptura con respecto a las ideas de Kuhn como una revisión de ellas. Kuhn podía interpretar el problema de la realidad como la mayoría de la filosofía moderna lo ha hecho, básicamente como una pregunta de orden epistemológico, y de todas maneras concordar con que, desde una perspectiva pragmática e incluso popular, el paradigma de la realidad sufre mutaciones conforme los paradigmas científicos cambian y extienden su influencia.
 
Por último, incluso se puede proponer que hay una relación dialéctica entre la sociología de las prácticas científicas inconmensurables, movida por el paradigma de Kuhn, y el realismo pragmático e instrumental de Hacking. La práctica integra entidades y eventos teóricos al trabajo de un pequeño grupo de científicos; los instrumentos y sus usos se expanden entonces a otros grupos y disciplinas y preparan el camino para la construcción de un trabajo científico cotidiano. Por ejemplo, el tubo de cátodos se interpreta como un emisor de electrones, los investigadores aprenden a dirigir y a regularizar su producción, un investigador se da cuenta de que puede hacer que un tubo de éstos produzca la imagen borrosa de un objeto, y antes de saberlo ya se creó una televisión. De esta manera los rayos catódicos y los electrones se convierten en pobladores familiares del mundo, incluso cuando la mayoría de las personan ignoran las teorías que dan cuenta de ellos, pues aunque no perciban estas cosas directamente, están dispuestos a aceptar su realidad.
 
 
8
 
 
El sabio y poeta alemán Johann Wolfgang von Goethe nos puede proveer de un contexto suficientemente amplio para dar cuenta de todos los aspectos que hemos estado siguiendo. Invocar a Goethe en conexión con Newton puede parecer peligroso, puesto que se conoce la famosa polémica de Goethe en torno a la teoría de los colores de Newton. Sin embargo, Goethe recibe de cuando en cuando una mención honorífica por parte de los historiadores de la ciencia por su trabajo y su influencia en campos como la morfología animal y vegetal y la fisiología de la visión. Mi razón para invocarlo aquí tampoco tiene que ver con los errores en los que haya podido incurrir durante su búsqueda de una ciencia del color.
 
Los comentadores de la ciencia de Goethe, tanto partidarios como críticos, frecuentemente afirman que como poeta se dejaba fascinar fácilmente por la apariencia sensual de las cosas y que ésta es la base de su ciencia. La veracidad de estas afirmaciones es tan poca que se puede tratar como todo lo opuesto a la verdad. En toda su búsqueda científica y también en todo su trabajo poético, Goethe estaba fascinado por la complejidad de las cosas que se abría ante la mirada atenta. Para Goethe su misión científica era mostrar cómo otras investigaciones permitían profundizar en nuestra experiencia y hacerla más compleja, sin dejar a un lado la experiencia cotidiana de los fenómenos. Para este autor, en el nivel cotidiano siempre existe una cierta ingenuidad, o mejor dicho una simplicidad; pero la investigación muestra que esta simplicidad es generalmente más aparente que real.
 
El estudio y la investigación cuidadosos —es decir, hacer ciencia— permiten una sofisticación y una profundización de esta experiencia cotidiana. Goethe descubrió, por medio de su trabajo experimental en óptica, que la manera de diseñar y ejecutar los experimentos es fundamental para volver la ciencia y la naturaleza más comprensibles. Para él los experimentos eran intervenciones humanas que permitían producir fenómenos de una manera controlada. Goethe dividió estas intervenciones en sus componentes instrumentales, conceptuales y prácticos y los correlacionó de forma sistemática con los eventos y los fenómenos percibidos. En particular se dio cuenta de que al variar los componentes del experimento había unidades experimentales que cambiaban pero también había continuidades. Por ejemplo, uno puede variar experimentos sencillos de refracción como los de Newton al emplear una apertura ajustable, al sustituir prismas con ángulos de refracción distintos o de distintos materiales, al acercar o alejar la superficie del prisma y entonces describir las  diferencias que aparecen.
 
El objetivo de Goethe era el de producir un contexto experimental lo más amplio posible. Al tiempo que se familiarizó con la historia de la experimentación y de las teorías y reflexionó acerca de la diversidad del trabajo científico y de las opiniones en cada uno de los ramos, se dio cuenta de que la comprensión era un blanco móvil. Una de las razones de esto es obvia: cada generación agrega los descubrimientos e inventos que produce a lo que ya se ha hecho y dicho anteriormente. Otra razón también se hizo patente a Goethe mientras investigaba el trabajo y los objetivos de los científicos y trataba de darles su contexto histórico: aunque generalmente la gente concuerda en cómo describir los fenómenos y los experimentos, frecuentemente están en desacuerdo en cómo relacionar los distintos tipos de fenómenos, y esto ocurre antes de que se llegue a los detalles de las distintas hipótesis y teorías. Lo cual llevó a Goethe a analizar y realizar esquemas de los distintos Vorstellungsarten, o formas de conceptualizar, mismas que se hacen evidentes en las disputas científicas a lo largo de la historia. Posteriormente trató de entender cómo esas concepciones afectaron el desarrollo de las ciencias. Este trabajo culminó con lo que aquí llamo la política filosófica de la ciencia, que se en la filosofía psicológica de los científicos y de las comunidades científicas. De esta forma Goethe se convierte en un historiador, sociólogo y filósofo de la ciencia del siglo xx.
 
El último énfasis que haré en la metodología de Goethe es en sus aspectos pedagógico y práctico. Goethe tenía una postura pragmática frente a la verdad y la realidad científica, pero también tenía la profunda convicción de que la verdad era fructífera. Goethe esperaba producir un edificio de la experiencia científica que fuese comprensible para los no expertos, para que de esta forma pudieran familiarizarse con los conceptos y experiencias básicos de las ciencias. Esto a su vez les permitiría reconocer cómo la experimentación, por su propia naturaleza, sugiere usos prácticos, técnicos e incluso artísticos. Además, separar experimentos complejos en sus componentes básicos para después analizar cómo los experimentos más sencillos reaparecen en formas más complejas es de gran valor para aquellos maestros que buscan iniciar a sus estudiantes en los aspectos elementales de la práctica y de la teoría de las ciencias.
 
Ninguna persona puede manejar todos los aspectos que componen el edificio de una ciencia; sin embargo, si cada persona trabajara en una porción de éste, el edificio se iría expandiendo y gradualmente emergería una comunidad de científicos en cada una de las disciplinas relevantes de la empresa colectiva.
 
El entendimiento de Goethe acerca de las Vorstellungsarten, o formas de conceptualizar, tiene alguna afinidad con la forma de ver determinada por un paradigma que propone Kuhn. Goethe pensaba que la Vorstellungsart de Newton tendía a ser mecánica y geométrica. Cuando Newton veía colores pensaba en ellos en términos de acciones mecánicas y caminos geométricos, pero eso no lo excluía de ver los colores como los demás y no implicaba que vivía en otro universo. Preferencia no significa necesidad. Sin embargo, el cultivo progresivo de una preferencia puede producir un hábito inveterado de observación. En algún momento de su carrera, Newton se convenció de la existencia de los rayos y de que éstos eran los causantes de los colores. Cuando veía colores, la primera cosa que se le ocurría era pensar en cómo se ajustaban a su teoría. De este modo, los fenómenos pasaron a funcionar como discriminadores de una teoría, es decir, como una evidencia que discrimina entre dos teorías en competencia. Newton también pensaba inmediatamente en los rayos como la causa de los colores y esto inhibió su habilidad para hacerse otro tipo de preguntas.
 
Desde el punto de vista de Goethe, el concepto de los universos distintos que resultan de una visión inducida por un paradigma es exagerado, y el término de inconmesurabilidad tendría que sustituirse por algo así como ocultación. El objetivo de Goethe de presentar los fenómenos en una forma comprensible tiende a construir un mundo común para los científicos que abrazan teorías distintas. En cada una de las épocas, y a veces a lo largo de varias de ellas, se puede encontrar un consenso acerca de cuáles son los experimentos relevantes y qué fenómenos son los que requieren una explicación. Todos los teóricos comparten instrumentos y prácticas. La base común de los fenómenos, instrumentos y prácticas constituye una realidad de primer orden en la que son parte del mismo universo. Pero, a partir de esta base los investigadores pueden construir concepciones de segundo orden que pueden ser incompatibles.
 
Por otro lado, los investigadores forman comunidades sociales, frecuentemente organizadas en torno a teorías y formas de ver las cosas; estas comunidades pueden reforzar la exclusividad y cultivar la creación de universos distintos.
 
Pero Goethe no dudaba que la base común reforzaría el sentimiento de formar parte de una empresa común. Esta base creada a partir de la experimentación, equipo y las prácticas se parece mucho al pragmatismo instrumental de Hacking. Sin embargo, hay una diferencia importante. El objetivo filosófico de Hacking es el de justificar una versión del realismo acerca de las entidades teóricas. A pesar de su iconoclasismo, Hacking aún se encuentra en un debate entre realistas y antirealistas.
 
Tal vez lo que se necesita no es una nueva razón para apoyar el realismo, sino preguntarse acerca de la concepción filosófica que comparten los realistas y los antirealistas. Hacking sugiere una línea de pensamiento que se puede contextualizar con la búsqueda de profundidad y comprensión de la experiencia de Goethe. Para éste, los fenómenos eran reales, al igual que los experimentos, el equipo, los eventos y las cosas de la vida diaria. Nunca excluyó la posibilidad de que las entidades abstractas y teóricas fuesen también reales. Lo que su trabajo sugiere es una familiaridad y un acercamiento de los distintos aspectos del mundo en el que vivimos y, por lo tanto, un sentimiento matizado de la realidad. Si los fenómenos son reales, su realidad no es la misma que la de los instrumentos, que a su vez no es la misma que la del fotón o la de un árbol. Articular todos los niveles de la realidad y nuestro acceso acceso a ellos es más importante que declararse partidario de una escuela de pensamiento.
  articulos
 
Traducción
Nina Hinke
 
 
Referencias bibliográficas
 
Cohen, I. B. (ed.)1978. Isaac Newton’s papers and letters on Natural Philosophy. Cambridge University Press, Cambridge.
Hacking, I. 1983. Representing and intervening: introductory topics in the Philosophy of science. Cambridge University Press, Cambridge.
Kuhn, T. 1968. La estructura de las revoluciones científicas. Fondo de Cultura Económica, México.
Mc Guire, J. E. y M. Tamny. 1983. Certain philosophical questions: Newton’s Trinity notebook. Cambridge University Press, Cambridge.
Turnbull, H. W. et al. 1957-1976. The correspondence of Isaac Newton. Cambridge University Press for the Royal Society, Cambrige.
Sabra, A. I. 1967. Theories of light from Descartes to Newton. Oldbourne, London.
Sepper, D. 1988. Goethe contra Newton: polemics and the project for a new science of color. Cambridge University Press, Cambridge.
Shapiro, A. (ed.) 1984. The optical papers of Isaac Newton. Cambridge University Press, Cambridge.
     
_______________________________________________________________
     
Dennis Sepper
Departamento de Filosofía, Universidad de Dallas.

 

 

como citar este artículo
Sepper, Dennis y (Traducción Hinke, Nina). (2003). Los rayos de Newton y la percepción de la realidad. Ciencias 70, abril-junio, 20-30. [En línea]
     
       

 

112
 
Vialidad y vialidades en la Ciudad de México
 
  menu2
   
     
Javier Delgado, Luis Chías, Mauricio Ricárdez, Anuar Martínez y Tonatiuh Suárez
     
               
               
La estructura urbana de la ciudad di México es altamente
segregada debido a la distribución desigual del ingreso económico de sus habitantes refuerza la polarización social. La geografía social de la ciudad muestra un funcionamiento desfavorable para los sectores mayoritarios, que son tan bien los más pobres. Por ejemplo, los hospitales públicos, privados e incluso los de beneficencia administrados por la iglesia, se concentran en las áreas centrales y del poniente de la ciudad, mientras que la población que requiere esos servicios se aglutina en el oriente y norte, lo cual origina grandes desplazamientos para acudir a la consulta médica.
El transporte es otro ejemplo de le segregación social, y por ello la pertinencia de un proyecto como el del segundo piso debiera ser convincente, pero resulta que el usuario principal del Periférico es un sector minoritario, 17% del total metropolitano, que recibe los ingresos más altos, vive en el sur poniente y trabaja en el norponiente. Mientras que, en el otro extremo, la mayor parte de la población pobre recurre al Metro, 13%, o a las peseras, 55%, mismas que son las más contaminantes y que tantos problemas ocasionan a la circulación (ver tercera de forros).
El transporte urbano metropolitano, sobre todo en los países subdesarrollados, no es sostenible en el largo plazo cuando las fases tecnológicas del transporte han quedado incompletas, tal y como lo sostiene Thomson en un estudio publicado por la Organización de las Naciones Unidas. Por ejemplo, la fase del ferrocarril, que incluye a los tranvías y trenes suburbanos, no se concluyó en todas las ciudades, y en la fase actual el predominio del vehículo automotor privado se asocia a la "ocupación dispersa" (denominada urban sprawl en los textos especializados) y a la proliferación de grandes centros comerciales en el espacio perimetral de las ciudades.
Nunca se consideró que al aumentar el tiempo de recorrido entre lugar de residencia y de trabajo los viajes totales serían cada vez mayores, como sucede actualmente en ciudades como Bogotá, Santiago de Chile, Sao Paulo y Ciudad de México. Ahí, las autoridades han aplicado, con relativo éxito, medidas para restringir la circulación vehicular y disminuir así la emisión de contaminantes, pero no han fomentado el uso del transporte público.
La falta de inversión en el transporte público incita al uso individual del transporte, afecta la movilidad urbana y disminuye la eficacia de los servicios de transporte público. En estas circunstancias el transporte colectivo enfrenta problemas para su capitalización y baja su eficiencia, lo cual afecta sobre todo a los grupos sociales más desfavorecidos.
El tráfico generado es uno de los principales impactos espaciales del transporte, como afirma Litman Todd, especialista del Instituto de Política del Transporte de Victoria en Canadá. Según este criterio, la construcción de nuevas vialidades urbanas sólo soluciona temporalmente el congestionamiento, pues quedan saturadas en un periodo de entre tres y cinco años por los viajes adicionales que resultan de su mejoramiento. El tráfico generado diversifica las posibles rutas y tiempos de viajes que la gente acostumbra a hacer, pero también promueve el tráfico inducido, es decir el incremento adicional de viajes debido a que las nuevas vías abaratan el costo unitario del viaje y persuaden a nuevos usuarios que antes no utilizaban ese trayecto. Ambos factores aumentan los flujos totales, reducen opciones e impactan el uso del suelo. Esto ha sucedido incluso en ciudades de países desarrollados, como en Los Ángeles, en donde la planificación urbana es más eficiente que la nuestra.
Este último es otro elemento central del análisis. Resulta que con el mejoramiento de las vialidades se produce una capitalización o valorización del uso del suelo que está en contacto con las vialidades ampliadas; conforme el tráfico generado incrementa artificialmente la movilidad en la zona, las clases de menores ingresos son alejadas, por la vía del mercado, de las principales rutas de la movilidad urbana. Según el autor, una política urbana viable requiere generar controles entre el transporte y el uso del suelo urbano para contrarrestar las presiones del capital inmobiliario que tenderá a ocupar los nuevos espacios valorizados. Eso se logra mediante la atención a la demanda de algunos sectores sociales para extender los beneficios de esas políticas públicas.
Los efectos del proyecto
Para entender las implicaciones del proyecto del segundo piso en el Viaducto y el Periférico sobre la ciudad, es necesario ubicarlo en el contexto general de la ciudad a escala metropolitana. Este análisis requiere, por lo menos de tres niveles o escalas geográficas: a) la relación de la Ciudad de México a nivel nacional-regional, b) a escala metropolitana y c) al interior de la ciudad.
Desarrollar esos tres niveles de análisis rebasa los alcances de este artículo, por lo que nos concentraremos en el tercero y haremos una reflexión general sobre los dos primeros. Es importante señalar que, en la presenta- ción del proyecto, el gobierno de la ciudad tampoco ha dado ningún argumento para esas dos primeras escalas de análisis, por lo que su inclusión puede enriquecer el debate.
La escala nacional regional
La zona metropolitana del valle de México tiene un papel de primer orden en el contexto de la política macroeconómica de reinserción del país en el mercado mundial a través del Tratado de libre comercio para América del norte. Esta política, llevada a cabo desde los ochentas y continuada en el actual régimen de gobierno, privilegia la reestructuración de los flujos comerciales con Estados Unidos sobre el mercado interno, lo que confiere a la zona metropolitana del valle de México un papel estratégico de articulación nacional de las principales áreas geoeconómicas consolidadas del país: hacia el occidente con Guadalajara como nodo principal, y hacia el noreste con Monterrey en la misma función, mientras que para las áreas menos desarrolladas del sur-sureste, el Plan Puebla-Panamá reserva a Puebla el papel de articulador transregional. En ambos casos, la región central se reafirma como la principal región "bisagra" del país, pero ahora con pretensiones continentales.
En términos de la estructuración territorial, en particular del transporte, esta reinserción de la región enfrenta serios problemas de funcionamiento debido, primero, al mantenimiento del esquema radial de la red troncal en detrimento de posibles y necesarias articulaciones transversales y circunvalares, y segundo, al rezago en los medios de transporte masivo provocado por el predominio del automóvil.
En los últimos años la movilidad de población y de bienes se ha intensificado entre la ciudad de México y las metrópolis regionales que la rodean. Entre 1994 y 1997 el flujo de vehículos en las autopistas que llegan a la ciudad se incrementó en 5% y 6.8% en los caminos federales, sobre todo en los movimientos de carga. Estas entradas a la ciudad son las mismas desde hace mucho tiempo: las carreteras que llegan de Querétaro, Pachuca y Texcoco (un tercio del flujo total en 1997), desde Toluca (otro tercio) y desde Puebla y Cuernavaca con casi la mitad de los flujos (figura 1). Sobre estos ejes se mueven aproximadamente 250 mil pasajeros diarios, 22% del total nacional, de los cuales más de la mitad (62%) son realizados en segunda clase y con paradas continuas, lo que representa un alto costo social para los viajeros.
Por supuesto, esta problemática rebasa las atribuciones del gobierno del Distrito Federal. Lo que es indiscutible es que la problemática del transporte en el Distrito Federal no puede desligarse de una política nacional y regional del transporte. El proyecto de un segundo piso en el Viaducto y el Periférico se inscribe implícitamente en una política nacional que privilegia los modos de transporte privado sobre otros de interés público.
El problema es que estos flujos llegan directa y abruptamente al área metropolitana, lo cual constituye el segundo nivel de análisis.
El ámbito metropolitano
Hasta la década de los cincuentas la ciudad de México se mantuvo dentro de los límites jurídicos y administrativos del Distrito Federal, pero desde entonces la expansión urbana se ha dirigido hacia el norte y oriente de la ciudad, dentro del Estado de México. En la actualidad, población y área ur- bana se reparten más o menos en partes iguales entre una y otra entidad. Sin embargo, en el Distrito Federal se concentran servicios y equipamientos públicos de distintos niveles, así como empleos y calidad del entorno construido. También se concentran aquí las formas de transporte público más eficientes; principalmente el Metro, el servicio de autobuses y la vialidad primaria (figura 2).
¿Dime a qué velocidad te mueves y te diré quién eres? Si no puedes contar más que con tus propios pies para desplazarte, eres un marginado, porque desde años atrás, el vehículo se ha convertido en signo de selección social y en condición para la participación en la vida nacional. Dondequiera que la industria del transporte ha hecho franquear a sus pasajeros una barrera crítica de velocidad, inevitablemente establece nuevos privilegios para la minoría y agobia a la mayoría... Ivan Illich
Más adelante veremos la importancia de esta vialidad primaria. Por el momento, importa resaltar que entre el Estado de México y el Distrito Federal existen muchas incoherencias: las vialidades no continúan, y si lo hacen tienen características distintas. ¿Por qué pasa esto?
Entre 1960 y 1990 la ciudad creció sin una planeación coherente. Al estar dividida, a cada lado de la frontera administrativa se definieron políticas públicas inconexas, pensadas desde una óptica local. Apenas en 1982 se generó un esquema de planificación unificado que, sin embargo, no obligaba en su cumplimiento a ninguna de las dos entidades. Sólo hasta 1998 se aprobó el primer Programa de ordenación territorial, que toma en cuenta los problemas conjuntos. Fue decidido, discutido y aprobado por los titulares del ejecutivo, tanto del Distrito Federal como del Estado de Mé- xico, y publicado en los correspondientes diarios oficiales, así como en el de la Federación. Esto significa que, por lo menos para las vialidades primarias que afectan al área metropolitana (el Periférico es la más importante de ellas) las decisiones se tomen de común acuerdo. En este sentido, la decisión unilateral de construir un segundo piso representa un retroceso en los avances logrados por una planificación concertada.
Ahora bien, la importancia de los municipios conurbados del Estado de México radica en que ahí se generan los principales flujos metropolitanos de la periferia que se suman a los flujos regionales antes señalados. Esas grandes masas de trabajadores no ingresan al Distrito Federal por el Periférico, sino a través de las peseras (el modo más ineficiente y contaminante de todos) y, minoritariamente, el Metro y los autobuses, para distribuirse en el interior de la ciudad en busca de empleos o servicios.
Esta combinación de flujos regionales y metropolitanos ocasiona fuertes conflictos viales percibidos por los viajeros como "cuellos de botella".
De acuerdo con el Fideicomiso de estudios estratégicos sobre estudios de la ciudad, creado durante el gobierno de Cárdenas y eliminado en los primeros meses de la actual administración, los puntos más conflictivos son los siguientes: a) el acceso desde el norte por el Periférico y calzada Valle- jo con 9.7% del total de viajes; b) desde la carretera de Pachuca (17.5%); c) desde la carretera de Puebla, por la de cuota y la federal, (32.6%); d) por el poniente desde Toluca, (28.8%) y e) desde el sur por las carreteras de cuota y federal a Cuernavaca (11.4%) (tabla 1 y figura 3).
Estos flujos entran abruptamente a la estructura vial del Distrito Federal hacia vialidades primarias que no tienen continuidad a lo largo del área urbana ni cuentan con una conexión adecuada con las vías de acceso controlado, el otro elemento clave de la infraestructura vial de la ciudad. Como puede apreciarse en la figura 3, el proyecto de un segundo piso en el Viaducto y el Periférico tiene que ver únicamente con el ramal Viaducto- Periférico. Inexplicablemente, este ramal no está siendo construido, sino el de San Antonio. Una vez dentro de la red vial de la ciudad, el viajero empieza la verdadera travesía, la cual le puede consumir la mayor parte del trayecto: los recorridos intrametropolitanos, la tercera escala.
El concepto de Transmilenio no es nada revolucionario. Ya tiene años funcionando en la ciudad brasileña de Curitiba, aunque en Bogotá ha llegado a perfeccionarse. Se trata de un metro arriba de la superficie, que utiliza carriles especiales para autobuses de gran volumen, 160 pasajeros por unidad. El pasajero paga su boleto (900 pesos locales, lo cual equivale a cuatro pesos mexicanos) y sube la plataforma a través de un torniquete, cuando llega el transporte, las puertas se abren simultáneamente y los pasajeros entran por el costado, sin perder tiempo en una cola para comprar el pasaje.
"La diferencia con Curitiba es que tenemos una central de con- trol, que funciona con localización por satélite (GPS), y que los buses están equipados con radio", cuenta Catalina Navarro, vocera de la empresa. "Así podemos regular la velocidad entre los buses". Aunque la velocidad máxima de Transmilenio es de 60 km por hora, muchas veces los camiones van más rápido, aprovechando el paso libre en el carril casi libre de semáforos.
El contraste con el transporte público tradicional de Bogotá no pudo ser más grande: en la capital colombiana circulan diariamente unas 21 000 busetas o microbuses, las cuales antes de la llegada de Transmilenio movían 72% de los habitantes, con una velocidad promedio de 10 km por hora. Las busetas, en manos privadas, son una causa importante de la congestión vial por la llamada "guerra del centavo", en la cual los choferes, "patanes" les llaman, se cortan el camino unos a otros para ganar un pasaje.
Las busetas, con una edad promedio de 14 años, tienen una pésima reputación en seguridad, pues a diario causan accidentes mortales y son altamente contaminantes: las busetas funcionan con una especie de diesel barato llamado ACPM, el cual hace mala combustión en el altiplano bogotano (2 600 metros de latitud) y cada vez que arrancan mandan un penacho de humo negro hacia el cielo.
"El fin del Transmilenio es reemplazar a las busetas", dice Navarro. "Lo que hicimos es simplemente incorporar las empresas privadas de transporte público al Transmilenio, dándoles la oportunidad de invertir, comprar los buses y entrenar choferes. Con una condición: que por cada adquisición de una unidad de Transmilenio, se debía chatarrizar a tres busetas". Tardó un año para convencer a los dueños, pero ahora son socios y aparentamente el negocio es rentable. Las 35 empresas privadas existentes han comprado las bases de licitiación para las próximas líneas de Transmilenio que están por inaugurarse.
El Transmilenio ha reducido drásticamente el tiempo de viaje para los usuarios, quienes antes perdían un promedio de dos horas y veinte minutos en los buses. Ahora parece que el Transmilenio se ha vuelto indispensable para muchos profesionistas, quienes a toda hora llenan los buses, apretados, pero impecablemente vestidos.
El éxito del Transmilenio, que atrae a curiosos de todo el continente, está cambiando el paradigma del metro como transporte idóneo. Enrique Peñalosa, el alcalde que diseñó el sistema, lo planteó por primera vez en un articulo en El Espectador en 1985: "El problema [del transporte] no se resuelve con el mítico metro, que está por fuera de las posibilidades financieras del país", escribió. Según Peñalosa, quien dejó la alcaldía el año pasado en manos del carismático Antanas Mockus, el Transmilenio cuesta cinco por ciento de lo que se hubiera invertido en la construcción de un metro. Hasta hoy, el Transmilenio, con 600 unidades y sesenta estaciones, ha costado 153 millones de dólares. Se calcula que para el año 2015, Transmilenio contará con seis mil unidades y 22 líneas, transportará cinco millones de personas diariamente y habrá costado dos mil millones de dólares.
"Un sistema arriba es mucho más agradable, ya que la gente puede ver su ciudad". Es claro para el artífice de la nueva capital colombiana que el urbanismo va más allá del ordenamiento del caos vial y pretende revertir paradigmas que han sido aplicados sin mayor debate durante años. "Hemos hecho ciudades para los carros, no para la felicidad de los niños", es uno de sus lemas favoritos. "Hemos estado copiando tontamente modelos que no están funcionando en otras partes".
En concreto, Peñalosa se refiere a las ciudades norteamericanas, telarañas de carreteras y suburbios donde la gente vive atascada en sus carros o enclaustrada en sus casas. "A nosotros los latinos no nos gusta vivir encerrados en suburbios donde nadie se ve en la calle. Tenemos unas posibilidades económicas distintas, un clima distinto". Es claro: para Peñalosa es absurdo sacrificar el espacio público de una ciudad al automóvil particular, un objeto de lujo que nada más está al alcance de diez por ciento de la población.
Peñalosa devolvió el espacio público a la gente. Sacó los coches de las banquetas metiendo bolardos o postes de cemento, creó más de mil parques o estacionamientos y reubicó a miles de vendedores ambulantes que obstaculizaban el paso de los peatones. "Somos animales que caminan, necesitamos caminar, no para sobrevivir sino para ser felices", dice Peñalosa.
Creó unos 240 km de ciclorrutas, o carriles exclusivos para ciclistas, que están ubicados entre la banqueta y la calle. Ya en 1985 Peñalosa abogaba por la bicicleta, un transporte muy eficiente para distancias cortas pero ajeno a la idiosincrasia latinoamericana. Aunque falta mucho para que Bogotá tenga la misma cantidad de ciclistas que las ciudades noreuropeas, hindúes o chinas, el número de usuarios aumenta paulatinamente: "Hemos ido de 0.3% a 4% de usuarios de bicicleta en tres años", dice Andrés Trujillo, encargado de la malla vial en el Instituto de Desarrollo Urbano.
Trujillo admite que también aumentó el número de accidentes, ya que muchas veces los peatones invaden las ciclorrutas y éstas no están conectadas o debidamente señalizadas. "Es algo totalmente nuevo para la gente. Hemos invertido fuertemente en infraestructura, pero hace falta educación vial. Era el dilema de la gallina o el huevo, porque para alentar a la gente a utilizar la bicicleta, necesitábamos primero tener una infraestructura segura".
En los próximos años el Instituto de Desarrollo Urbano va a conectar las ciclorrutas existentes, a invertir en iluminación y a crear trece estacionamientos estratégicos para la bicicleta, cerca del Transmilenio y con servicio de cafeterías, baños, lockers, internet y cajeros automáticos, "para dar a la bicicleta su lugar privilegiado", dice Trujillo.
La ciclovía dominguera
Es ya una tradición que lleva veinte años cuando los domingos cierran las vías principales al tráfico automotriz y abren paso a un millón de ciclistas, patinetes y corredores. "Por la solidaridad y el sentido de comunidad que eso genera, la ciclovia se vuelve el lugar más seguro en toda la ciudad", afirma Peñalosa. Lo que Peñalosa no dice es que ciclovía está custodiada por unos cinco mil policías y voluntarios con trajes anaranjados, jóvenes cumpliendo con su servicio civil.
El ex alcalde de Bogotá y los segundos pisos
El ex alcalde de Bogotá, actualmente catedrático invitado en la New York University, viene a México el 29 de mayo, invitado por empresarios colombianos. Dará conferencias en el Hotel Nikko y en el Tecnológico de Monterrey sobre la transformación de una metrópolis y la construcción de una ciudad con equidad.
Peñalosa también presentará un programa del World Resources Institute y el Banco Mundial, mismo que irá destinado a mejorar el transporte en la Ciudad de México. Peñalosa tendrá una cita con el jefe de gobierno, Andrés Manuel López Obrador, donde podrán intercambiar opiniones sobre cómo resolver el tráfico defeño. En varias ocasiones Peñalosa ha ventilado en público su desacuerdo con la construcción de segundos pisos sobre un eje vial. Durante una conferencia reciente en Singapur, Peñalosa dijo que un segundo piso, "es después de la bomba atómica, la manera más eficaz para destruir una ciudad".
En octubre del año pasado, después de una conferencia en San Luis Misuri, dijo que "se ha demostrado hasta la saciedad, que tratar de arreglar un problema de transporte haciendo mas vías, es como tratar de apagar un fuego con gasolina. La única solución seria, para tener una ciudad más eficiente y humana, es restringir severamente el uso del automóvil".
Una semana después, en Caracas, "el faraón" fue más tajante, aseverando que "con todo el perdón y con todo respeto les digo que una autopista elevada, lo que produce en todo el mundo es un orinadero que desvaloriza los sectores aledaños pues se vuel- ven inseguros y no producen absolutamente nada en términos urbanísticos". Tom Dieusaert
La escala intrametropolitana
Aquí hay que empezar por una distinción básica: la red vial de la ciudad está formada por dos elementos principales: primero, las vías de acceso controlado, que sólo son 17% del total y, segundo, las vías primarias, que son el 83% restante. Ambas se definen en función de su alcance metropolitano; son vías que atraviesan o debieran atravesar la ciudad, es decir que tienen una función metropolitana y no sólo local. Después de estos dos elementos básicos, viene una enorme y compleja red secundaria y de vialidad local, que alimenta, desfoga y frecuentemente conflictúa la circulación de la ciudad. Desde el punto de vista de la planeación, las lógicas de la circulación urbana, metropolitana y regional deberían interactuar adecuadamente. En la práctica no funcionan al mismo tiempo, no funcionan o lo hacen deficientemente (figura 4).
Se llama vías de acceso controlado a las que, como el Periférico, el Viaducto y los tramos de Río San Joaquín y Río Becerra, corren sin la interrupción de calles transversas gracias a los puentes que las cruzan. Sólo se entra a ellas en sitios específicos, de ahí la denominación de accesos controlados.
Dentro de las modalidades posibles de vías de acceso controlado, la más interesante, y también la más controvertida, es aquella que rodea de forma circular a una trama más o menos ortogonal de vías primarias no controladas pero sí necesariamente interconectadas. Puede haber varios anillos concéntricos de acuerdo con la extensión de la ciudad, mientras más extensa sea más anillos requiere. En nuestro caso tenemos tres de estos anillos, todos incompletos y sin conexiones adecuadas con la vialidad primaria. El primero y más antiguo, al cual llamamos Circuito Interior, termina en Pedro Antonio de los Santos y empieza San Antonio. El segundo es el Periférico, al cual falta por cerrarle todo el arco nororiente, desde Xochimilco hasta el futuro entronque con la Av. Mario Colín en el Estado de México. El tercer anillo es el más incompleto de todos, empezó a construirse desde la Venta, en el Desierto de los Leones, hasta la Quebrada en la intersección de tres municipios mexiquenses. Quedó sin construir la parte que corresponde al Distrito Federal, de la Venta al Colegio Militar y de ahí hacia el oriente por Tláhuac, donde subiría hacia Ecatepec por la margen poniente del ex-Lago de Texcoco hasta conectar con la Vía Morelos y de ahí hasta cerrar el circuito en la Quebrada (figura 5).
La decisión de suspender la construcción del segundo Periférico o tercer anillo se tomó en la administración de Espinosa Virrarreal, pero la obra no fue retomada por Cárdenas ni, hasta ahora, por el gobierno actual, a pesar de que esta obra si está consignada en el Programa de ordenación territorial vigente. Los costos urbanos ocasionados por la suspensión del tercer anillo son una sobrecarga vehicular en el Periférico, única vialidad importante norte-sur al poniente de la ciudad.
En el aspecto de las vialidades primarias es verdaderamente insólito que sólo una, la Avenida de los Insurgentes, tenga continuidad entre las carreteras a Pachuca y la de Cuernavaca; lo cual no la libra de padecer fuertes congestionamientos en ambos extremos y en su centro. Otra vialidad continua norte-sur, eje que articula a la red vial en su conjunto, es el Periférico, sólo que en este caso se le cargan dos funciones: la de ser conector metropolitano y la de vía de acceso controlado (figura 4). Fuera de estos dos casos, ninguna de las demás vías primarias de la ciudad tiene continuidad; no digamos a través de la ciudad, sino que ni siquiera se conectan con las vías de acceso controlado. Por ejemplo, la avenida Re- forma, que luego de llegar al centro continúa por la Calzada de Guadalupe hasta llegar a un punto muerto en ¡la Basílica de Guadalupe!, sin duda un trazado de gran valor sociocultural pero sin efectos prácticos sobre la vialidad. Otro ejemplo es la Calzada México-Tacuba, que si bien entronca penosamente con el Periférico, sigue un tortuoso camino a través de Rivera de San Cosme y Puente de Alvarado, antes de terminar en la Alameda, otrora bucólico paseo dominical que actualmente es un buen ejemplo de cómo se congestiona una ciudad. Si se desea evadir este escollo se puede tomar un atajo a la altura del Colegio Militar para salir a José Antonio Alzate o Eje 1 Norte, como fue rebautizado por Hank González, luego cambiar sucesivamente a Mosqueta y Héroes de Granaditas, intersectar con Avenida del Trabajo, transitar por un muy popular Albañiles, un aséptico Norte 17 y transformarse, gallarda, en Aviación Militar y Fuerza Aérea Mexicana al pasar por el aeropuerto. La calzada México-Tacuba continúa por Manuel Lebrija y, finalmente, desemboca en Talleres Gráficos. Todo para terminar sin pena ni gloria en un punto de futura interconexión con el arco oriente del Periférico, si es que algún día se construye. Claro que del otro lado le espera la amplia Avenida Pantitlán, que cruza todo Nezahualcoyotl, pero si para entonces aún recuerda el objetivo del viaje, cruzar la ciudad, pensará que lo mejor es lo que hacemos todos, tomar Viaducto y salir penosamente hasta Zaragoza.
No le va mejor a la Calzada Ermita Iztapalapa, que conecta en el oriente con la carretera de Puebla, se interna en la ciudad, se convierte en Popocatépetl o como insisten los urbanistas, Eje 8 Sur, para seguir por José María Rico y Plateros para terminar, también sin aspavientos, en Barranca del Muerto a unos metros del Periférico, después de cruzar el Circuito Interior, que en esta parte no está terminado. Las otras vialidades primarias, en dirección norte-sur, tienen un trazo más complicado. Por ejemplo, el Eje Central Lázaro Cárdenas, que la gente se obstina en llamar Niño Perdido, continúa al norte por Vallejo, pero termina en otro punto ciego en Acueducto Tenayuca, donde alguna vez estará el arco norte del Periférico; el eje termina súbitamente hacia el sur en Ermita Iztapalapa y tampoco conecta con el Anillo Interior.
El caso del Eje 3 Oriente es igualmente discontinuo. Arranca a espaldas de San Lázaro, desde Zaragoza, hacia el norte por Eduardo Molina, hasta la enorme cloaca a cielo abierto de lo que alguna vez fue el Río de los Remedios. Aquí pasará, algún día, el multicitado Periférico Nororiente. El hecho de que se conecte con tantas vías primarias, ¿será suficiente para convencer a las autoridades de que es más importante terminar el Peri- férico antes que construirle un segundo piso? El Eje 3 Oriente sigue luego por una inquietante Avenida Ejército del Trabajo, que se convierte, ya en el Estado de México, en Porvenir, R1 y Bulevar Pirámides. Todo esto para llegar, después de un arduo recorrido, a un lado de El Caracol, que como to- do el mundo sabe, no lleva a ningún lado. Por el sur sigue un tortuoso y largo camino por Francisco del Paso y Troncoso, que al cruzar Viaducto cambia de nombre a Azúcar y luego a Violeta, vuelve a recuperar el Francisco, se transforma luego en Avenida 5, Arneses, Carlota Amaro, Armada de México y Cafetales, para terminar su recorrido en el Periférico Sur, sin conexiones claro.
Recordemos que no se trata de vialidades secundarias o sin importancia. Se trata de las únicas vías primarias que tienen alguna continuidad a lo largo de la ciudad. Esta fragmentación y discontinuidad se debe a que cada trozo de ciudad creció por su lado y sin planeación, hasta que un buen día, una calle se "encuentra" con otra (que ya tenía su nombre) y le sigue.
Después de todo esto, podemos preguntarnos, la propuesta de un proyecto de un segundo piso en el Viaducto y el Periférico ¿tiene alguna significación que lo haga particularmente interesante, ya no digamos para resolver o mitigar (como se espera de una obra pública) sino, al menos, para incidir en el complejo vial metropolitano?
A menos de que los estudios a profundidad, que no han sido divulgados, demuestren lo contrario, no parece ser así. Propuesto inicialmente en la administración de Manuel Camacho por un grupo de inversionistas y constructores privados, con financiamiento privado y concebido como una autopista de cuota, es decir un negocio en la ciudad, el proyecto reaparece ahora con financiamiento público y bajo la coordinación del mismo inversionista privado que lo concibió.
En la figura 3 se puede apreciar la ubicación del proyecto así como de su primera etapa, el desafortunado Distribuidor vial San Antonio, que tantos conflictos ocasiona en una amplia zona vecina. Por cierto, conviene señalar una más de las inconsistencias de este distribuidor: resulta que en su cruce con Periférico se ha previsto que el segundo piso, cuando se construya, pase entre el actual Periférico y el puente de San Antonio. Por ello, se deja un hueco de en total 37 metros de altura. Eso nos recuerda aquel mensaje que circuló por Internet a raíz de los atentados del 11 de septiembre y que presentaba el proyecto de un arquitecto mexicano para la reconstrucción de las torres: tenía un hueco en medio. Sólo que en ese caso se trataba de una broma y aquí lo vamos a hacer en serio.
De acuerdo con los datos publicados por el Fideicomiso de estudios estratégicos sobre la ciudad de México en el año 2000, el cual sólo aborda nueve de los 154 cruceros conflictivos, ni el segundo piso ni la primera etapa del distribuidor son conectores metropolitanos. Por el contrario, con lo que sí coincide plenamente es con una tendencia hacia la "terciarización" del uso del suelo en la Delegación Benito Juárez (ver recuadro en figura 3). Esta tendencia consiste en que las antiguas zonas habitacionales se con- vierten paulatinamente en zonas de comercio y oficinas, lo cual desplaza a los pobladores originales. En este punto es imperativo analizar el impacto esperado en los usos del suelo por efecto de los proyectos viales, como ha señalado Litman. Sin embargo, tampoco se conocen los estudios respectivos.
En este sentido, Emilio Pradilla ha señalado la incongruencia entre la lógica política del gobierno actual y la lógica de la planeación vigente. El proyecto de segundo piso no se encuentra en ninguno de los instrumentos de planeación aprobados legalmente. Por el contrario, dice Pradilla que el proyecto parece más un intento de mejorar la conexión del poniente de la ciudad con el aeropuerto capitalino.
De acuerdo con el único documento conocido, de forma restringida, denominado La manifestación de impacto ambiental, sus aportes son más bien magros en cuanto a contaminación, pues lograría disminuir casi seis mil toneladas de emisiones contaminantes por año, de un total aproximado de 2 millones 492 mil. Por el contrario, en el primer año se tendría un ahorro considerable de 13 911 horas-hombre al día, tomando en cuenta un incremento de 1.1% del parque vehicular más 3% de tráfico inducido hasta por un horizonte de 18 años, lo cual contrasta notablemente con los horizontes de entre tres y cinco años señalados en el documento de Naciones Unidas.
Un análisis de este tipo requiere estudios especializados, los cuales no podemos abordar en el contexto del presente artículo. Sin embargo, presentamos una ponderación de la cobertura territorial próxima al Distribuidor vial de San Antonio, que actualmente está en construcción a pesar de la repulsa que ha provocado. La estimación se basa en la asignación de velocidades promedio de 40 km/h en la vialidad primaria, de 25 km/h en los ejes viales, de 80 km/h en las carreteras estatales y federales y de 100 km/h en las autopistas de cuota. Con base en estos datos de entrada se calcularon, mediante un sistema de información geográfica, las áreas de servicio que se pueden cubrir desde el "centroide" de Periférico y San Antonio en rangos de quince minutos. A cada área de servicio se le sobrepusieron topológicamente las vialidades y la población que habita en ellas. Es claro que se trata de la población potencialmente usuaria, que habita el área de población humana factible de ser inducida a utilizar la obra. Los resultados se aprecian en la figura 6.
Con devoción y entusiasmo, el sur del mundo copia, y multiplica, las peores costumbres del norte. Y del norte no recibe las virtudes, sino lo peor: hace suya la religión estadunidense del automóvil y su desprecio por el transporte público, y toda la mitología de la libertad de mercado y la sociedad de consumo. Y el Sur también recibe, con los brazos abiertos, las fábricas más cochinas, las más enemigas de la naturaleza, a cambio de salarios que dan nostalgia de la esclavitud. Sin embargo, cada habitante del norte consume, en promedio, 10 veces más petróleo, gas y carbón; en el sur sólo una de cada 100 personas tiene auto propio. Gula y ayuno del menú ambiental: 75 por ciento de la contaminación del mundo proviene de 25 por ciento de la población. Y en esa minoría no figuran, bueno fuera, los mil 200 millones que viven sin agua potable, ni los mil 100 millones que cada noche se van a dormir sin nada en la barriga. No es "la humanidad" la responsable de la devoración de los recursos naturales, ni de la pudrición del aire, la tierra y el agua. Eduardo Galeano
La cobertura territorial próxima, desde donde se llegaría a la nueva vía en quince minutos, es relativamente pequeña y se puede afirmar que no modifica sustancialmente la estructura y funcionalidad de la red actual. Su impacto metropolitano es aún más relativo dado que la mayor parte de las áreas de servicio estimadas se encuentran en los rangos de tiempo más alejados. Dicho de otra forma, si para llegar al Periférico y aprovechar su conectividad con otras zonas de la ciudad se tiene que viajar por más de 30 minutos a través de vías primarias y secundarias, mejor se opta por otra ruta.
En la cobertura de cero a quince minutos de distancia del centroide se cubre sólo 3.3% de la superficie, con 6.2% de la población factible de ser alcanzada y casi 7% de las vialidades consideradas. En el rango de los dieciséis a treinta minutos se alcanza 13% de la superficie, casi 25% de la población y 21% de las vialidades (tabla 2).
Esto significa que en la cobertura de hasta media hora los porcentajes potenciales no rebasan 30% del total.
El movimiento bicicletero, que hasta ahora ha consistido en dominguear rumbo al zócalo, tiene a su favor la razón. Tiene en su contra, no sólo al dueño del spirit que no quiere dejar de atropellar psicológica y extrapsicológicamente a los peatones para llegar con su traje sin lluvia y sin sudor a la oficina de su estatus y otros compromisos igualmente rutilantes, sino que también tiene en contra a la esencia misma de las ciudades modernizadas, que no es ni el hormigón ni el hacinamiento, sino una sustancia más huidiza: la velocidad; cosa que no tienen las bicicletas.
Cuando se descubrió la velocidad automotriz y se la elevó a rango de libertad individual, se tuvieron que inventar las distancias y los lugares a donde ir, y algo que hacer llegando; desde entonces, no se va más rápido porque los lugares estén más lejos, sino que están más lejos porque se llega más rápido, así como no se va más aprisa porque se tengan más cosas que hacer, sino que se tienen más cosas que hacer porque se va más de prisa. La velocidad actual es de 50 u 80 k/h, que es la que se cree que tienen los automóviles, pero en realidad no es la de los coches que, por saturación y amontonamiento, van más lentos.
En rigor, se trata de una velocidad social, a la que corren las obligaciones, los deseos y las superficies asfaltadas, el trabajo, las ansias y el tamaño de las construcciones; de hecho, la mitad del estrés urbano se debe a que la velocidad de las prisas es mayor que la velocidad de los automóviles que las transportan. La acelerada es la ciudad, no los coches, como puede verse asimismo en el hecho de que quienes no tienen coche tienen a cambio dos cosas: las mismas prisas y la necesidad de tener un coche.
La velocidad no reduce, sino que aumenta las distancias, extiende los espacios y multiplica los lugares, de manera que en bicicleta no se puede cumplir la agenda propia del ciudadano normal, que consiste en ir y volver, pero entretanto, pasar a recoger, detenerse a pagar, comer con, visitar a tal, darse una vueltecita por, reunirse en, andar hacia allá de camino hacia acá. Los veinte lugares que se visitan al día son todos necesarios, queridos o importantes: el banco, los cuates, la tintorería, la amante, el súper, los niños, los cigarros, el cliente, la gasolina; da lo mismo, el caso es que siempre se está a las carreras, y si la velocidad social fuera de 700 k/h, la amante viviría en Tampico.
El movimiento bicicletero puede ser exitoso si es capaz de reducir la velocidad social, y ello requiere un cierto radicalismo, porque ahora andar en bicicleta no es el cumplimiento de una función de transporte, sino el arte de no necesitar, no querer y no importar ir a donde no se pueda llegar. En bicicleta no se puede ir, y esto es una carencia; el arte está en convertirlo en que se puede no ir, lo cual es un poder.
La velocidad en una bicicleta es como de 15 k/h. Reducir el transporte urbano a este índice no significa sólo hacerlo más económico y ecológico, sino que significa ajustar las situaciones, actividades y tamaños de la ciudad a la dimensión humana, porque, genéticamente, el ser humano está hecho para vivir a 10 k/h.
En efecto, según Hall, y también Gehl, antropólogo y urbanista respectivamente, los sentidos de la percepción, y por ende el pensamiento, y por ende la civilización, están diseñados para funcionar a velocidades de entre 5 a 15 k/h, que es cuando se camina y se corre; a esa velocidad se puede ver, oír, sentir y razonar con detalle y atención lo que sucede alrededor, mientras que a velocidades más altas dichas capacidades se atrofian y ya no se pueden ver más que bultos, oír más que ruidos, sentir más que vértigos, pero no pormenores, curiosidades ni bellezas.
Por regla general, cuando ya no se puede apreciar la cara de la gente, es que uno ya va, como el dueño del spirit, demasiado rápido, más aprisa que la civilización, aunque no más lejos ni de ninguna parte. Einstein se percató de la velocidad de la luz yendo a pie, mientras que en sus miles de kilómetros hecho la raya, Alain Prost sólo ha visto una ráfaga de paisaje, cuarenta veces más burda y aburrida que lo que uno puede percibir con una paseadita en bici.
Así, la bicicleta resulta ser el medio de transporte más civilizado que haya construido el hombre, porque va a la velocidad de sus pensamientos, con los que había llegado tan lejos antes de acelerar en reversa. Pablo Fernández Chrislieb
"Mucho ruido y pocas nueces", si se quiere emplear una frase coloquial. Sólo después de media hora, en el rango de treinta a sesenta minutos de distancia, se cubre 71% de las vialidades y casi 70% de la población.
Conclusiones
En una ciudad compleja como la nuestra ningún intento por si sólo puede constituir una solución adecuada. Casi siempre tendrá que formar parte de una serie de medidas complementarias y de una política que se inserte en una visión más amplia. Como dice Italo Calvino, la ciudad conserva las huellas del pasado, por lo que las soluciones tendrán que considerar ese inasible y escurridizo aspecto denominado "cultura urbana". Para complicar aún más las cosas, la ciudad es un crisol de grupos sociales, en donde los proyectos urbanos se sitúan en un precario equilibrio de fuerzas y proyectos de ciudad e incluso de país.
Tenemos la impresión de que el proyecto del segundo piso en el Periférico no considera nada de eso. Por el contrario, se sitúa unilateralmente cerca de la obstinación y el silencio ante quienes pensamos que sólo se trata de una costosa y autoritaria ocurrencia.

  articulos
 
Referencias bibliográficas
Delgado Ramos, G. C. 2009. Sin energía. Cambio de paradigma, retos y resistencias. Plaza y Valdés, México.
Frische, U. R. 2006. Comparison of Greenhouse-Gas Emissions and Abatement Cost of Nuclear and Alternative Energy Options from a Life-Cycle Perspective. ÖkoInstitute V. Freiburg.
Lincoln, S. F. 2006. Challenged Earth. Imperial College Press, Londres.
Martínez Negrete, M. A. 2009. “Energía nuclear para el cambio climático: ¿es efectiva y sin riesgo?”, en La energía en México, Saxe-Fernández, J. (coord.). unam, México.
Schneider, M., A. Froggatt y S. Thomas. 2011. Nuclear Power in a Post-Fukushima World. The World Nuclear Industry Status Report 2010-2011. Worldwatch Institute, Washington.
Sovacool, B. 2008. “Valuing the greenhouse gas emissions from nuclear power: A critical survey”, en Energy Policy, núm. 36, pp. 2940-2953.
     
_______________________________________________________________
     
Javier Delgado y Luis Chías
Instituto de Geografía, Universidad Nacional Autónoma de México.
Mauricio Ricárdez
Posgrado de Geografía, Universidad Nacional Autónoma de México
Tonatiuh Suárez
Posgrado en Urbanismo, Universidad Nacional Autónoma de México
Anuar Martínez, Alma Villaseñor y Celia López
Estudiantes de posgrado, Instituto de Geografía, Universidad Nacional Autónoma de México
Naxhelli Ruíz
Instituto Mora

como citar este artículo
Delgado, Javier, Chías, Luis, Ricárdez, Mauricio, Suárez, Tonatiuh, Martínez, Anuar, Villaseñor, Alma y López, Celia. (2003). Vialidad y vialidades en la ciudad de México. Ciencias 70, abril-junio, 50-64. [En línea]
     
       

 


112

Tráfico vehicular en zonas urbanas
  menu2
   
     
Angélica Lozano, Vicente Torres y Juan Pablo Antún
     
               
               
Muchas ciudades se enfrentan a serios problemas de
transporte urbano debido al número creciente de vehículos en circulación. Tan sólo en la Zona Metropolitana del Valle de México, integrada por el Distrito Federal y 28 municipios del Estado de México, la flota vehicular registrada en el año 2000 según el Instituto Nacional de Estadística, Geografía e Informática (inegi) era de 3 511 371, y se estima que rebasará 4 300 000 vehículos en el 2006.
 
Como las ciudades han llegado a ser los principales centros de las actividades económicas, la población tiende a desplazarse a éstas. Tal concentración de personas requiere transporte no sólo para ellas mismas, sino también para los productos que consumen o producen.
 
Desgraciadamente, el transporte puede generar diversos impactos ambientales adversos, tales como congestión vehicular, contaminación del aire, ruido e invasión de la tranquilidad en ciertas áreas; además, la congestión vehicular puede incrementar el riesgo de accidentes viales.
 
La contaminación ambiental en áreas urbanas es uno de los problemas más importantes que enfrenta la población mundial, y en ese asunto el tráfico vehicular juega un papel primordial, ya que es la principal fuente de emisiones contaminantes en áreas urbanas. De acuerdo con el Inventario de Emisiones de la Zona Metropolitana del Valle de México 1998, un importante porcentaje del total de las emisiones en la Zona Metropolitana es generado por fuentes móviles, es decir vehículos automotores (tabla 1).
 
tabla_1
Tabla 1.
 
Modelos de tráfico vehicular
 
El flujo vehicular producido en un momento y lugar determinados es el resultado de una serie de decisiones individuales de los usuarios de la red vial. Cada usuario decide cómo y cuándo recorrer lo que considera la mejor ruta para llegar a su destino. Su decisión puede basarse en criterios tales como costo, tiempo, seguridad y comodidad. El usuario debe decidir qué ruta recorrer y qué modos de transporte utilizar (automóvil, transporte público, etcétera), decisión que depende, entre otras cosas, de la congestión en los arcos o vialidades de la ruta.
 
El tiempo de recorrido en cualquier ruta, desde un cierto origen a un cierto destino, es una función del flujo y de la congestión totales. Por lo tanto, no es fácil determinar la ruta más corta en tiempo en una red.
 
Se ha intentado representar el tráfico vehicular de acuerdo con la teoría hidrodinámica, mediante modelos de aproximaciones de fluidos de primer y segundo orden, pero hasta ahora dichos modelos sólo han permitido representar situaciones muy simples del comportamiento del flujo vehicular.
 
También han sido desarrollados algunos modelos de simulación para representar el movimiento del flujo vehicular a nivel microscópico, es decir para áreas pequeñas. Pero estos modelos requieren gran cantidad de información para representar cada detalle de la infraestructura vial y de la demanda de transporte: ciclos de semáforos, número de vehículos por tipo, características de conducción, etcétera; información que frecuentemente no está disponible. También se han utilizado modelos de simulación para representar carreteras, donde el comportamiento del flujo vehicular es más simple que en las áreas urbanas.
 
Un enfoque que ha permitido una buena representación del tráfico es el de los modelos de asignación de equilibrio. Estos modelos pueden ser utilizados para representar el comportamiento macroscópico del tráfico de grandes zonas urbanas o ciudades enteras. Mediante estos modelos es posible estimar el flujo vehicular en una red donde existe cierta demanda de viajes y los efectos de la congestión hacen que los tiempos de viaje en los arcos dependan del flujo. El flujo estimado puede servir tanto para describir el tráfico como para predecir o recomendar un patrón de flujo vehicular en una red. Los modelos de asignación de equilibrio pueden ser de dos tipos: equilibrio del usuario u optimización del sistema: el modelo de equilibrio del usuario se basa en el primer principio de Wardrop, que afirma: “Los tiempos de viaje en todas las rutas realmente utilizadas son menores o iguales que los que requeriría un usuario en cualquier ruta no utilizada”. Lo cual significa que las rutas utilizadas son las más cortas en tiempo bajo las condiciones de tráfico prevalecientes. Este modelo asume que cada usuario busca minimizar su tiempo de viaje y asigna usuarios a sus rutas hasta encontrar un flujo de equilibrio, el cual se logra cuando la asignación de flujos a los arcos es tal que cada usuario asignado a la red no puede cambiar su ruta sin incrementar su costo de viaje. El modelo de optimización del sistema tiene como objetivo la minimización del tiempo total de viaje en el sistema. Este modelo obtiene una asignación de flujo que minimiza el tiempo total de viaje en toda la red. En esta asignación, ningún usuario puede cambiar de ruta sin incrementar el tiempo total de viaje del sistema, aunque sí puede disminuir su propio tiempo de viaje. Por lo tanto, si con base en este modelo se asigna una ruta a cada usuario y éste la respeta, la congestión se minimiza.
 
El modelo de equilibrio del usuario es determinista, así que supone que cada usuario tiene información perfecta sobre sus rutas y la congestión de la red. Una representación más realista del tráfico se obtiene mediante el modelo estocástico de equilibrio del usuario, el cual asume que los usuarios no poseen información perfecta de la red y que perciben de forma distinta los inconvenientes y atributos de la misma. El  equilibrio se alcanza cuando ningún usuario cree que su tiempo de viaje puede ser mejorado mediante un cambio en su ruta.
 
El problema de asignación dinámica del tráfico se ha abordado con diversos enfoques de simulación, teoría del control óptimo y optimización. Estos modelos consideran que los usuarios minimizan sus tiempos de viaje actualizando continuamente sus rutas elegidas de acuerdo con las condiciones del tráfico. El problema es especialmente importante para los Sistemas avanzados de información sobre el viajero (atis, Advanced Traveler Information System), los cuales requieren información para recomendar rutas de acuerdo con el tiempo de viaje futuro en los arcos que serán incluidos en las rutas. Su objetivo es mejorar el comportamiento del tráfico, reduciendo la congestión al proporcionar condiciones de tráfico uniforme. En estos sistemas existe un controlador central que recomienda las rutas a los usuarios en tiempo real, lo cual satisface objetivos individuales o del sistema medio de equilibrio del usuario o modelo de optimización del sistema y considera, en tiempo real, variaciones inesperadas en las condiciones de la red.
 
cuadro1
 
 
Otra tecnología recientemente incorporada al análisis de las redes de flujo es la de los sistemas de información geográfica para transporte. La representación y el análisis de las redes de transporte ha mejorado con el desarrollo de estos sistemas, pues además de permitir una representación topológica de la red, con ellos se puede hacer una representación geográfica de la misma. Y lo más importante es que los análisis de redes pueden ser combinados con análisis espaciales, tradicionales en los sistemas de información geográfica, los cuales consideren características del territorio tales como uso de suelo, crecimiento de la mancha urbana y datos de atributos demográficos o socioeconómicos. Así, surge la posibilidad de crear escenarios de tipo hipotético para cambios en la infraestructura vial o en la demanda.
 
Información escasa y no confiable
 
Los modelos de asignación de tráfico necesitan como entrada una matriz origen-destino e información de aforos vehiculares, entre otras cosas.
 
Los renglones y columnas de la matriz origen-destino representan, respectivamente, las zonas de origen y destino, y cada una de sus celdas contiene el número de viajes realizados de una zona origen a una zona destino en un periodo de tiempo. Los aforos vehiculares son los conteos de los vehículos que pasan por determinados arcos de la red. Aunque toda ciudad debería contar con esta información, en muchas no existe o no es confiable. Por ejemplo, en la Zona Metropolitana existe una matriz origen destino que data de hace casi 10 años y no hay un programa permanente para la obtención de aforos vehiculares. Si bien se cuenta con datos de aforos del 2000, muy pocos corresponden con los datos de los municipios del Estado de México y varios puntos de aforos presentan algunas inconsistencias ya que su obtención fue manual.
 
Es claro que se requiere una matriz origen-destino obtenida por encuestas convencionales, pero recolectar esta información es costoso y tardado. Para propósitos de corto plazo puede utilizarse una estimación de la matriz origen-destino, pero una planeación seria a largo plazo requiere una matriz origen-destino real.
 
Emisiones provocadas por la congestión vehicular
 
Desde los años setenta diversos modelos matemáticos con distinto tipo de complejidad han sido usados para estimar niveles de contaminación así como variaciones temporales y espaciales tanto del escenario que representa la situación actual como de escenarios propuestos. Dichos modelos de dispersión requieren información sobre contaminantes, tráfico vehicular y datos meteorológicos.
 
Al menos en cuanto a modelos de dispersión de emisiones en la Zona Metropolitana, se ha hecho bastante investigación en el marco del proyecto Programa integrado de contaminación del aire urbano, regional y global, encabezado por Mario Molina. Estos modelos realizan cálculos hipotéticos de las emisiones generadas por fuentes móviles considerando una mezcla de vehículos con una velocidad promedio para toda una zona. Dichos cálculos podrían ser afinados si se tuviera más información sobre las velocidades de los vehículos, ya que muchos de ellos producen diferentes emisiones bajo diferentes velocidades.
 
cuadro2

Puesto que es posible hacer este tipo de estimaciones de flujos vehiculares y velocidades promedio para cada arco de la red en un periodo dado mediante modelos de asignación de tráfico, entonces se pueden deducir de manera igualmente hipotética las emisiones producidas por vehículos automotores en cada arco de la red para un determinado periodo de tiempo. Esta información puede ser muy útil para alimentar los modelos de dispersión de emisiones.
 
La paradoja de Braess
 
El mejoramiento en una red de transporte mediante la adición de una vialidad nueva o el incremento de la capacidad de una vialidad existente se ha visto como la solución al problema del tráfico vehicular. Aparentemente, el mejoramiento de la red implica el mejoramiento del flujo en la misma, sin embargo esto puede no ocurrir. Más aún, el mejoramiento en una red de transporte puede producir un incremento en el total de emisiones generadas. Esto se resume en la famosa paradoja de Braess, la cual afirma: “El hecho de agregar una nueva vialidad a una red de transporte puede no mejorar la operación del sistema, en el sentido de la reducción del tiempo total de viaje en el sistema”.
 
Los modelos de equilibrio del usuario asumen que los usuarios intentan minimizar su propio tiempo de viaje sin considerar los efectos de sus decisiones en otros usuarios. Bajo este supuesto, puede ocurrir que el tiempo total de viaje en el sistema se incremente con la expansión de la red; ya que aún cuando algunos usuarios se beneficien utilizando la nueva vialidad, éstos pueden contribuir a incrementar la congestión para otros usuarios.
 
El siguiente es un ejemplo de la paradoja de Braess: suponga que existen dos rutas, r1 y r2, para ir de un cierto origen a un cierto destino que no comparten arcos. Estas rutas tienen tiempos de recorrido iguales, por lo cual la mitad de los usuarios utiliza la ruta r1 y la otra mitad la ruta r2. Suponga ahora que se agrega una nueva vialidad que va de la ruta r1 a la ruta r2. Para hacer uso de esta nueva vialidad más usuarios tendrían que pasar por la primera parte de r1 y por la segunda parte de r2; y dependiendo de las capacidades de los arcos en estas secciones de las rutas, éstos podrían llegar a congestionarse hasta el punto de producir colas. Es decir que se podrían formar colas en las entradas y salidas de la nueva vialidad.
 
Otro ejemplo es el siguiente: suponga que existe una intersección en la que es posible decidir entre dos rutas, r1 y r2, con el mismo tiempo o costo de viaje para ir a un mismo destino y la ruta más corta en distancia, r2, tiene un cuello de botella que produce una cola. Suponga que para mejorar el sistema alguien decide mejorar el nivel de servicio en el cuello de botella. Esto produciría un incremento del flujo en esa ruta, por lo que se podría formar una cola más larga hacia el origen, bloqueándolo y reduciendo la entrada de flujo a r2. Así, el usuario tendría que elegir entre una ruta más larga o esperar un rato más en la cola para entrar a la ruta más corta; si la cola se ha prolongado más allá de la intersección y el usuario ha esperado ya en ella, cuando llegue a la intersección seguramente optará por atravesar el cuello de botella.
 
cuadro3
 
 
cuadro4
 
 
cuadro5
 
Si se lleva el tráfico vehicular a la teoría de juegos, el equilibrio del usuario corresponde al equilibrio de Nash. En la teoría de juegos un conjunto de estrategias de juego es llamado “fuertemente Pareto óptimo” si cualquier cambio hecho por un solo jugador causa que algún otro jugador tenga una disminución en su ganancia. Entonces la paradoja de Braess se puede equiparar a lo que el equilibrio de Nash requiere para no ser fuertemente Pareto óptimo.
 
En realidad la paradoja de Braess no es realmente una paradoja, sino una situación en contra de la intuición. La explicación es la diferencia entre equilibrio y optimización. La paradoja de Braess se presenta solamente en ciertos valores de los parámetros de congestión y de demanda de transporte. Por lo tanto, cualquier política encaminada al diseño de la red vial y a la reducción de emisiones generadas por vehículos automotores no debe dejarse llevar por la intuición, sino que debe hacer análisis que tomen en cuenta diversos elementos de la red y de la demanda: topología de la red, costos tiempos y estructura de la demanda de viajes.
 
 
Agradecimientos
Se agradece al Programa de Apoyo a Proyectos de Investigación e Innovación Tecnológica (papiit) de la dgapa en el marco del Proyecto papiit IN117001; y al conacyt en el marco del Proyecto conacyt-J34083-A; así como al Instituto de Ingeniería de la unam.

  articulos
 
Referencias bibliográficas
 
Daganzo, C. F. 1995. “Requiem for second-order fluid approximations of traffic flow”,
en Transportation Reviews, núm. 29B, pp. 277-286.
Daganzo, C. F. 1998. “Queue spillovers in transportation networks with choices”, en
Transportation Science, núm. 32, pp. 3-11.
Hagstrom, J. N. y R. A. Abrams. 2001. “Characterizing Braess’s Paradox for Traffic
Networks”, en Proceedings of IEEE 2001 Conference on Intelligent Transportation
Systems, pp. 837-842.
Cuaderno Estadístico de la Zona Metropolitana de la Ciudad de México edición 2001.
inegi, México.
Estadísticas del Medio ambiente del Distrito Federal y Zona Metropolitana 2001. inegi, México.
Jayakrishan, R., H. S. Mahmassani y T. Y. Hu. 1994. “An evaluation tool for advanced
traffic information and management systems in urban networks”, en Transportation
Reviews, núm. 2C, pp.129-147.
Khare, M. y S. Sharma. 2002. Modelling urban vehicle emissions. Wit Press.
Lozano, A., F. Granados, J. P. Antún y G. Storchi. 2001. “Main Freight Transport
Corridors in a Urban Network with Scarce Information”, The Proceedings of xxxii
Annual Conference of the Operational Research Society of Italy. Cagliari, Italia.
Septiembre 4-7, 2001.
Nagurney, A. 2000. “Congested urban transportation networks and emission
paradoxes”, en Transportation Reviews, núm. 5D, pp. 145-151.
Pas, E. y S. Principio. 1997. “Braess Paradox: some new insights”, en Transportation
Reviews, núm. B31, pp. 265-276.
Accesibilidad, movilidad y áreas peatonales en la regeneración del Centro Histórico
de la Ciudad de México. Programa Universitario de Estudios para la Ciudad, México,
1998.
Sheffi, Y. 1985. Urban Transportation Networks: Equilibrium Analysis with
Mathematical Programming Methods. Prentice Hall, Inc., Englewood Cliffs, Nueva
Jersey.
Torres, V. 2002. Simulación Macroscópica del Tráfico Vehicular en el Centro Histórico de la Ciudad de México, por medio de un Sistema de Información Geográfica. Tesis para obtener el título de Ingeniero Civil, dirigida por Angélica Lozano. Facultad de Ingeniería, unam.
Yang, H. y M. G. H. Bell. 1998. “Models and algorithms for road network design: a
review and some new developments”, en Transportation Reviews, núm. 18, pp. 257-
278.
     
_______________________________________________________________
     
Angélica Lozano, Vicente Torres y Juan Pablo Antún
Instituto de Ingeniería, Universidad Nacional Autónoma de México.

 

 

como citar este artículo
Lozano, Angélica y Torres Vicente, Antún Juan Pablo. (2003). Tráfico vehicular en zonas urbanas. Ciencias 70, abril-junio, 34-45. [En línea]
     
       

 

            112  
 
El citoesqueleto
 
  menu2
   
     
Laura González Malerva y Javier Hernández Ambrosio
     
               
               
Al comparar los billones de células que constituyen el
organismo humano con organismos como plantas, hongos y parásitos, todos, a pesar de la gran diversidad que existe entre ellos, presentan componentes intracelulares que se integran de tal manera que forman un armazón al interior de las células: el citoesqueleto. Éste funciona de forma semejante al esqueleto de los animales, ya que permite que las células y los organismos adopten diversas formas, alcancen ciertos tamaños y tengan la capacidad de realizar movimientos, entre otras funciones.
 
La constitución del citoesqueleto recae en una compleja red tridimensional de fibras proteicas, las cuales, vistas a través del microscopio electrónico, presentan formas organizadas de ramilletes o redes finas. La estructuración en el interior de una célula, vista por medio de un microscopio de baja resolución, parece adquirir una conformación semejante a un cuerpo geodésico; organización geométrica que podría asegurar la estabilidad y flexibilidad que la célula requiere. Tres tipos de proteínas filamentosas conforman el citoesqueleto: los microfilamentos de actina polimerizada o filamentosa, los microtúbulos y los filamentos intermedios. Estas proteínas, al actuar entre ellas, y debido a las propiedades que presentan, permiten que las células se estructuren y efectúen diversas funciones.
 
Hasta hace unos diez años, con la observación en una sola dimensión y con la resolución que las técnicas de microscopía ofrecían entonces, no existía forma de evaluar la participación de los componentes del citoesqueleto en la dinámica celular aun cuando estos ya estaban siendo identificados y localizados. La integración actual de los estudios bioquímicos, inmunoquímicos, de biología celular y de localización con tecnología moderna, está redefiniendo no sólo la importancia biológica del citoesqueleto y sus componentes, sino también su dinámica y estructuración. La conjunción e integración de los conocimientos ya generados y los que se obtienen día a día revelan que el armazón celular es una entidad sumamente compleja, dinámica y heterogénea y que cada uno de sus componentes actúa de manera precisa y oportuna.
 
Su estudio
 
Una de las técnicas más evolucionadas, pues permite la observación de la composición intracelular desde diferentes ángulos, formas de observación y niveles de profundidad, es la microscopía de luz, cuando se le combina con la videofilmación de alta resolución y con el empleo de marcadores fluorescentes (tabla 1b) se logran observaciones en tiempo real de la distribución o redistribución de varios componentes del citoesqueleto o de otras moléculas que participan durante el ensamblaje del mismo: como en la serie de eventos que suceden posteriormente a la microinyección de células (tabla 1c), en la comparación de observaciones de una misma región celular definida tanto en microscopía de luz como electrónica (tabla 1d), en la recuperación de imágenes en varios planos de observación para evaluar la participación de diversos componentes en fenómenos celulares como la mitosis y en la distribución espacial de dichos componentes durante diferentes fases celulares (tabla 1e). Actualmente, con las observaciones obtenidas, el procesamiento por computadora permite realizar animaciones útiles en la enseñanza didáctica de fenómenos intracelulares (tabla 1f).
 
Junto con la inmunología, la biología celular ha hecho avances notables en la identificación, localización, distribución y redistribución de diferentes componentes del citoesqueleto a través del uso de anticuerpos monoclonales o policlonales específicos marcados, lo que permite su visualización por microscopía de fluorescencia (tabla 1e). Los anticuerpos mencionados no sólo han sido útiles para estos fines, sino que también se han empleado en el aislamiento de moléculas accesorias consideradas importantes para el funcionamiento de las proteínas del citoesqueleto.
 
La biología molecular ha tenido un papel importante para determinar la composición de los genes que codifican a las proteínas contráctiles y, aunque de forma indirecta, en algunos casos ha permitido proponer la funcionalidad de éstas. Se han realizado cambios a nivel genómico, con base en predicciones, que han originado variaciones en la funcionalidad de las proteínas motoras; como sucedió en las larvas de la mosca de la fruta (Drosophila melanogaster) en las que estos cambios afectan su capacidad motriz (tabla 1g). El conocimiento de la composición de los genes y la posibilidad de efectuar cambios efectivos de tipo correctivo son de gran potencial para la terapia génica, como en el caso de cardiomiopatías, en las que intervienen proteínas del citoesqueleto.
 
De forma complementaria a lo que se ha logrado con la biología molecular, la bioquímica clásica ha permitido determinar la función exacta de las proteínas del citoesqueleto y la interacción con el medio que las rodea, sin embargo esto no ha sido suficiente debido a las limitaciones de las técnicas utilizadas. Con la introducción de un conjunto de tecnologías de punta, como el análisis proteómico, se esperan conocer otros componentes intracelulares, así como su integración y funcionalidad dentro del citoesqueleto.
 
Algunas funciones
 
El citosol, que se encuentra en el interior de la célula, tiene propiedades de viscosidad y elasticidad que dependen del tipo de célula, lo cual se refleja en la composición del citoesqueleto. Estas propiedades podrían permitir que la malla tridimensional que se forma en la célula mantenga estables a los componentes intracelulares, los cuales, de otra forma, podrían ir de un sitio a otro dentro del citoplasma haciendo menos eficiente su funcionalidad. La observación de esta malla por microscopía electrónica muestra la forma en que algunos organelos se encuentran insertados en ella. Los componentes que participan en la transmisión de señales, que van del exterior hacia el interior de las células, se ordenan como una especie de bloques intracelulares agrupados por debajo de la membrana citoplasmática hasta la membrana nuclear, posiblemente sujetos a los filamentos de las redes del citoesqueleto, lo cual favorece su asociación y modificación durante el paso de las señales. Al parecer, los bloques se reestructuran en el sitio en el que se encuentran y forman una especie de túnel que garantiza su óptimo funcionamiento como enzimas participantes en la transducción de señales intracelulares.
 
El citoesqueleto tiene la apariencia de un gel más o menos viscoso debido a su densidad, es decir, a su contenido de agua, propiedad que le permite a las células mantener un continuo movimiento intracelular. Este gel presenta determinada elasticidad, por lo que una célula recupera su tamaño original después de haber sido sometida a una presión externa. Tal como sucede con los glóbulos rojos cuando ingresan a los capilares sanguíneos, estas células pueden deformarse al introducirse por un espacio de diámetro menor al suyo, sin llegar a romperse. De igual forma, puesto que atraviesan el estrecho espacio que se produce entre dos células endoteliales para llegar al sitio donde se encuentra el patógeno, células como los leucocitos se deforman durante el fenómeno de transmigración o bien cuando se desplazan a través de los tejidos (tabla 1h).
 
La compleja red de filamentos que las proteínas del citoesqueleto forman es estática en algunos casos y en otros es altamente dinámica, lo cual depende de la funcionalidad y de la morfología de la célula; éstos son aspectos que la célula adapta dependiendo del sitio en el que se encuentra. Por ejemplo, mientras que las células musculares generalmente son largas y llevan a cabo continuos movimientos que favorecen los fenómenos de contracción y relajación del sistema muscular (tabla 1f), las células neuronales presentan un axón largo característico, mediante el cual logran la conexión continua con células semejantes, por lo que éste es muy dinámico y sufre continuos procesos de elongación y retracción. En el interior de las células hay un continuo ir y venir de componentes intracelulares, lo cual se realiza bajo microambientes específicos; estos eventos son muy dinámicos y las células los realizan con fines de supervivencia, adaptación al medio, desarrollo y diferenciación celular. Para sobrevivir, las células introducen y expulsan sustancias a través de sus membranas mediante fenómenos de internalización o de excreción que requieren continuos movimientos de vesículas, éstas se desplazan sobre largos filamentos de actina polimerizada gracias al impulso que les brindan motores biológicos como las miosinas. Durante la división celular, los cromosomas se desplazan usando a los microtúbulos como rieles. Independientemente de donde se lleven a cabo los movimientos intracelulares, éstos son cuidadosamente controlados y se efectúan en el momento y lugar adecuados.
 
Tipo de estudio
Sitio en la red
a) El citoesqueleto en procesos infecciosos
cmgm.stanford.edu/theriot/movies.html
www-ermm.cbcu.cam.ac.uk/9900068Xh.html
b) Tipos de microscopía
c) Dinámica de organización de actina
d) Videomicroscopía aplicada y comparada con microscopía de luz y electrónica
e) Estructuras celulares vistas al microscopio de fluorescencia
f) Videos, imágenes, digitalizaciones y animaciones
g) Efecto de una mutación en el desplazamiento de un organismo
h) Leucocitos
i) Ensamblaje de actina por computadora
nessie.bch.ed.ac.uk/PAUL/ACTIN/
j) Interacción entre microtúbulos y filamentos intermedios
Tabla 1. Sitios en la red relacionados con el citoesqueleto
 
Su composición
 
La constitución del citoesqueleto recae básicamente en tres tipos de proteínas: los filamentos de actina, que miden de siete a nueve nm de diámetro, los microtúbulos de aproximadamente 24 nm y los filamentos intermedios de diez nm aproximadamente. Estas proteínas fibrosas forman largos filamentos o polímeros, los cuales están constituidos y ordenados por la asociación no covalente de subunidades proteicas pequeñas denominadas monómeros. La forma en la que se une cada uno de los monómeros favorece el desarrollo de estructuras geométricas perfectas, lo cual permite que los largos filamentos sean susceptibles de sufrir deformaciones y reestructuraciones, lo que a su vez proporciona al citoesqueleto propiedades sólidas y maleables al mismo tiempo que influyen en la forma y movimientos de las células. Los filamentos se forman o desintegran continuamente y de forma diferenciada. Por ejemplo, la actina polimerizada, considerada como el arquetipo de las proteínas del citoesqueleto, forma polímeros que sufren cambios por la adición o eliminación de monómeros; la adición de varios monómeros provoca que las membranas celulares sufran prolongaciones que inducen el movimiento celular o el contacto con otras células (tabla 1i). Hay casos en que las estructuras que se forman son más rígidas porque el intercambio de monómeros en los filamentos es menos frecuente, por lo que las células presentan una morfología aparentemente rígida. En el caso de los filamentos intermedios, éstos corresponden a una familia de proteínas que varían de un tipo de célula a otro; actualmente se conocen seis tipos diferentes que dependen de la secuencia de aminoácidos que los componen, por lo que son irregulares y flexibles. Los microtúbulos, a diferencia de los filamentos intermedios, son relativamente gruesos e inflexibles y están formados por monómeros de tubulina que dominan los movimientos intracelulares.
 
Por medio de la bioquímica y la genética tradicional se ha descubierto que los monómeros de algunos componentes del citoesqueleto presentan variaciones entre ellos, mismas que producen diferentes propiedades biológicas en los polímeros. Actualmente se sabe que existen seis tipos o isoformas en actina de mamíferos, aproximadamente seis variantes de tubulinas de vertebrados y 31 tipos diferentes de filamentos intermedios. En los casos de la mayor parte de las isoformas se conoce su origen en el genoma: algunas están codificadas por genes múltiples, otras por un solo gen y en el caso de estas últimas su existencia se debe a que suceden modificaciones de tipo postraduccional. Junto con la variación de los componentes de los filamentos, otras proteínas accesorias al citoesqueleto han sido ampliamente caracterizadas: proteínas como las miosinas, los motores biológicos del citoesqueleto, pertenecen a una superfamilia de 17 familias y cada una de éstas tiene diferentes actividades biológicas. Adicionalmente, en organismos procariontes se han encontrado proteínas semejantes a la actina denominadas Arp (del inglés actin related proteins) y se piensa que éstas desarrollan funciones semejantes a la actina; sin embargo, esto no ha sido explorado ampliamente.
 
La interacción de las proteínas
 
La fuerza y estabilidad que requiere la estructura del citoesqueleto, así como la coordinación con la que se efectúan los movimientos celulares, no se basa sólo en la interacción de los filamentos proteicos mencionados, sino también en la presencia de proteínas accesorias, las cuales generalmente participan como puentes de unión entre los filamentos y entre éstos y otras partes de la célula. Otras proteínas que componen al citoesqueleto, a diferencia de las que ya se han mencionado, participan en actividades de tipo bioquímico en las que el metabolismo energético está involucrado; a éstas proteínas accesorias se les ha denominado motores biológicos, ya que por su interacción con los filamentos favorecen que éstos se muevan o empujen a los organelos celulares para que se desplacen sobre los polímeros. La regulación de la actividad celular que favorece el cambio de forma, la respuesta ante un estímulo o el desplazamiento, está dirigida por sistemas de regulación específicos constituidos por proteínas accesorias y regulatorias, además de los motores biológicos mencionados anteriormente. Algunas proteínas regulatorias como la profilina y la gelsolina influyen directamente en la polimerización o despolimerización de los filamentos de actina; en el caso de los microtúbulos, proteínas accesorias como Tau y MAP4 los estabilizan, mientras que otras los desestabilizan, lo que hace que estas proteínas participen en la regulación de la longitud de los filamentos. El ensamblaje y la organización de los filamentos intermedios está ligado al de la actina y los microtúbulos por medio de proteínas accesorias como la plectina, que sirve de puente entre los microtúbulos y los filamentos intermedios (tabla 1j). Poco se conoce del ensamblaje de los filamentos intermedios y de las proteínas que controlan la unión de monómeros; sin embargo, se sabe que algunas cinasas y fosfatasas influyen en el equilibrio entre los monómeros y los polímeros. Estos sistemas de regulación de la integración de los componentes del citoesqueleto no sólo son necesarios para las células sino que también se han encontrado sistemas semejantes en patógenos intracelulares como bacterias o virus, mismos que les permiten sobrevivir dentro de las células hospederas y producir su patogenicidad.
 
La interacción de las proteínas del citoesqueleto, las accesorias, las regulatorias y las sustancias que participan en la señalización intracelular, permite que la célula se mantenga activa y dinámica.
 
Hacia dónde van los estudios
 
Es claro que los avances actuales en el conocimiento del citoesqueleto son impresionantes y que la tecnología que ha sido desarrollada para su estudio es muy sofisticada. Sin embargo, ayudados por las tecnologías actuales y futuras, se necesita conocer más del ensamblaje y la dinámica del citoesqueleto. Posiblemente la atención se centrará en conocer más sobre su distribución y funcionalidad, ya que muchas afecciones podrían ser curadas gracias a las posibilidades de tratamiento con terapia génica y el desarrollo de fármacos dirigidos a las proteínas específicas. En otros casos la detección de componentes del citoesqueleto podría funcionar como monitor de enfermedades, como lo patentado en los diagnósticos de daño al corazón o de isquemia cerebral basados en estas informaciones. Con estos avances se podrían encontrar explicaciones de dónde se localizan, cuál es su influencia real  en la organización celular y qué fenómenos de señalización extra e intracelular intervienen para que se lleven a cabo cambios en la motilidad o reestructuración celular de un organismo. Los estudios en los años subsiguientes comenzarán a descubrir las vías de señalización y las proteínas de entrecruzamiento que median las interacciones tan complejas que existen entre los tres sistemas de proteínas que integran el citoesqueleto. Además, nuevas investigaciones surgirán, las cuales darán a conocer qué otras proteínas de regulación intervienen para controlar el ensamblaje y desensamblaje de monómeros de cada uno de los filamentos. Aunque ya se tiene un avance importante en el estudio del citoesqueleto, aún se desconoce cual es su reorganización frente a situaciones de desarrollo o de estrés celular, como sucede con células cancerosas o las relacionadas con procesos infecciosos.
 
Por ejemplo, durante una infección intracelular, los citoesqueletos de los organismos patógenos y los de las células que son afectadas sufren modificaciones o alteraciones que favorecen el ingreso del patógeno o la supervivencia de las células. Protozoarios como Plasmodium falciparum y Toxoplasma gondii ingresan a sus células hospederas sin destruirlas, estableciéndose dentro de ellas; bacterias extracelulares como Shigella flexnerii o intracelulares como Listeria monocitogenes y el virus de la Vaccinia manipulan y regulan la polimerización de los microfilamentos y los microtúbulos, lo cual genera una modificación del citoesqueleto intracelular que facilita su supervivencia dentro o fuera de la célula (tabla 1a). Listeria monocitogenes y Vaccinia son microorganismos que se desplazan en el interior de las células que infectan gracias al empuje que les produce la reestructuración continua de los filamentos de actina, lo cual crea estructuras semejantes a colas de cometas. En otros parásitos que presentan diferentes estadios de desarrollo, como en el caso de Taenia solium (cisticercos y tenias), se cree que modifican su citoesqueleto en función de la etapa de desarrollo en que se encuentran y del sitio que infectan, gracias a lo cual se adaptan y sobreviven en su hospedero.
 
Debido a las reestructuraciones del citoesqueleto que los agentes patógenos inducen, en la comunidad científica se ha despertado interés por conocer qué componentes del citoesqueleto son afectados y cómo participan en la reorganización del mismo, ya que durante el tratamiento de ciertas afecciones algunos de estos componentes son blanco de fármacos. En el caso de varios de estos fármacos, aunque se sabe que afectan de alguna manera al citoesqueleto de los parásitos, aún se desconoce su verdadero mecanismo de acción. Por ejemplo, el praziquantel es un fármaco ampliamente utilizado en el tratamiento de enfermedades parasitarias como la esquistosomiasis, la teniosis y la cisticercosis debido a que causa un incremento en la permeabilidad de los iones de calcio (Ca2+) que afecta las superficies parasitarias, lo cual altera el citoesqueleto y produce la parálisis de los parásitos, condición que favorece una fuerte respuesta inmunológica del hospedero, quien termina por expulsarlos o destruirlos. Enfermedades no infecciosas, como los procesos cancerosos, también han sido tratadas con fármacos como la colchicina y el taxol, los cuales alteran la dinámica de los microtúbulos y producen un efecto antimitótico que eventualmente lleva a la muerte celular.
  articulos
 
 
Referencias bibliográficas
 
Delgado Ramos, G. C. 2009. Sin energía. Cambio de paradigma, retos y resistencias. Plaza y Valdés, México.
Frische, U. R. 2006. Comparison of Greenhouse-Gas Emissions and Abatement Cost of Nuclear and Alternative Energy Options from a Life-Cycle Perspective. ÖkoInstitute V. Freiburg.
Lincoln, S. F. 2006. Challenged Earth. Imperial College Press, Londres.
Martínez Negrete, M. A. 2009. “Energía nuclear para el cambio climático: ¿es efectiva y sin riesgo?”, en La energía en México, Saxe-Fernández, J. (coord.). unam, México.
Schneider, M., A. Froggatt y S. Thomas. 2011. Nuclear Power in a Post-Fukushima World. The World Nuclear Industry Status Report 2010-2011. Worldwatch Institute, Washington.
Sovacool, B. 2008. “Valuing the greenhouse gas emissions from nuclear power: A critical survey”, en Energy Policy, núm. 36, pp. 2940-2953.
     
_______________________________________________________________
     
Marco Antonio Martínez Negrete
 
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
Es Doctor en Física y profesor de tiempo completo de la Facultad de Ciencias de la unam.
 

 

como citar este artículo

Martínez Negrete, Marco Antonio. (2011). Los accidentes nucleares de Fukushima: lecciones y advertencias para México. Ciencias 103, julio-septiembre, 16-25. [En línea]

     
       
1 12
You are here: Inicio Búsqueda Autor revistas revista ciencias 70