sábado, 31 de enero de 2009

PIERRE SCHAEFFER Y LA MÚSICA CONCRETA


Pierre Henri Marie Schaeffer (14 de agosto de 1910–19 de agosto de 1995) fue un compositor francés. Es considerado el creador de la música concreta. Es autor del libro titulado Tratado de los objetos musicales, en donde expone toda su teoría sobre este tipo de música. Compuso distintas obras todas ellas basadas en la técnica de la música concreta. De entre ellas cabe destacar su Estudio para locomotoras.

Schaeffer nació en Nancy. Sus padres eran ambos ingenieros, y al principio pareció que Pierre tomaría también esto como carrera. Estudió en la École Polytechnique y después de un periodo como ingeniero de telecomunicaciones en Estrasburgo desde 1934, encontró un trabajo en 1936 en la Office de Radiodiffusion Télévision Française (ORTF) en París. Fue allí donde empezó a experimentar con sonidos grabados, convenciendo a los directivos de la emisora que le dejaran usar su equipo. Intentó tocar los sonidos al revés, ralentizándolos, acelerándolos y yuxtaponiéndolos con otros sonidos, técnicas todas ellas que por entonces eran virtualmente desconocidas. Su primera obra acabada como resultado de estos experimentos fue el Étude aux chemins de fer (1948) que fue hecho con grabaciones de trenes.

Para entonces, Schaeffer había fundado el grupo Jeune France, con intereses en el teatro y las artes visuales así como en la música. En 1942, co-fundó el Studio d'Essai (más tarde conocido como el Club d'Essai), que tuvo un papel en las actividades de la resistencia francesa durante la Segunda Guerra Mundial, y se convirtió en un centro de actividad musical más tarde.

En 1949, Schaeffer conoció a Pierre Henry, y los dos fundaron el Groupe de Recherche de Musique Concrète (GRMC) que recibió un reconocimiento oficial por parte de la ORTF en 1951. Le dieron un nuevo estudio, que incluía un magnetofón. Esto fue un desarrollo significativo para Schaeffer, que previamente había tenido que trabajar con platos giratorios para producir su música. Schaeffer es generalmente considerado como el primer compositor que hizo música usando cinta magnética. Su continua experimentación le llevó a publicar A la recherche d'une musique concrète (En busca de una música concreta) en 1952, que era un resumen de sus métodos de trabajo hasta ese momento.

Schaeffer dejó el GRMC en 1953, pero lo reformó en 1958 con Luc Ferrari y François-Bernard Mâche como el Groupe de Recherches Musicales (GRM). Probablemente el alumno más famoso de GRM fue el músico de sintetizador Jean Michel Jarre, aunque Shaeffer más tarde comentó que las famosas obras posteriores de Jarre no le gustaban.

Con la fundación del Service de Recherche de l'ORTF en 1960, del que fue nombrado director, Schaeffer comenzó a disminuir sus actividades de compositor a favor de la investigación del sonido y la enseñanza. Una de sus últimas piezas se produjo en 1959, los Etudes aux Objets. En su nuevo cargo, continuó investigando las propiedades sónicas de los proyectos, publicando un importante trabajo sobre el tema, Traité des objets musicaux, en 1966. En él, intenta clasificar todos los objetos sonoros (objets sonores, sonidos percibidos como entidades; NO debe confundirse con objetos físicos que producen sonido) produciendo mediante la división de sus características en siete categorías.

Schaeffer desempeñó una serie de puestos como maestro, incluyendo una cátedra asociada en el Conservatorio de París desde 1968 donde enseñó composición electrónica. Hacia el final de su vida, padeció la enfermedad de Alzheimer. Murió en Aix-en-Provence.


Musique Concrète

El término música concreta (en francés, musique concrète) a menudo no se comprende bien, entendiéndose como referente a simplemente hacer música con sonidos del «mundo real», o con sonidos distintos a los que hacen los instrumentos musicales. Más bien, es un intento más amplio de permitir nuevos caminos de expresión musical. Tradicionalmente, la música clásica (o seria, o perdurable) comienza como una abstracción, una notación musical sobre un papel u otro medio, que entonces se hace una música audible. La música concreta lucha por empezar por los sonidos «concretos», experimentar con ellos, y abstraerlos para incluirlos en una composición musical.

La música concreta es un tipo de organización del sonido que se origina en las experiencias del compositor Pierre Schaeffer en los estudios de grabación de la radiodifusión francesa en 1948. Consiste en grabar o generar en cinta magnetofónica, sintetizador o en ordenador, sonidos musicales, no musicales y ruidos concretos, tales como golpes, gritos, ruido de motores, canto de pájaros o mugidos, entre otros; a los que se le llama objetos sonoros. Estas grabaciones son seleccionadas, manipuladas electrónicamente con filtros, reverberación, delay o eco, entre otras técnicas, y finalmente combinadas, pegando trozos de cinta magnetofónica o pegando archivos de audio, formando una especie de montaje sonoro-musical. El compositor trabaja sólo con sonido grabado y la obra final sólo existe como una grabación en cinta o como un archivo de audio digital. Luego se reproduce por medios electroacústicos, tales como reproductores de cinta, amplificador y altavoces.

La música concreta actualmente se hace principalmente en computador, pero quedan bastantes fanáticos del sonido analógico.

La diferencia entre la música concreta y la música electrónica consiste en que en la primera se emplean sonidos y ruidos existentes; en cambio en la segunda se crean previamente todos los objetos sonoros con los que el compositor trabajará, por medio de generadores de sonido electrónico, como osciladores o por software de ordenador.

Medios mixtos es la denominación que recibe la obra que mezcla música electroacústica (concreta o sintetizada) con instrumentos tocados en vivo, los cuales pueden ser o no procesados en tiempo real.

La importancia de la obra de Schaeffer con la música concreta para la creación contemporánea, es triple:

Desarrolló el concepto de incluir cualquier sonido dentro del vocabulario musical. Al principio se concentró en trabajar con sonidos distintos a los producidos por instrumentos musicales. Más tarde, encontró que era posible quitar la familiaridad de los sonidos de los instrumentos musicales.

Fue de los primeros en manipular el sonido grabado de manera que pudiera usarse en unión con otros sonidos para hacer una pieza musical. Así puede pensarse que en él como un precursor de las prácticas de sampler contemporáneas.

Más aún, enfatizó la importancia de jugar (usando sus palabras, jeu) en la creación musical. La idea de Schaeffer de jeu viene del verbo francés jouer, que tiene un doble significado, como el verbo inglés play; jugar y también tocar un instrumento musical. Esta noción se encuentra en el corazón del concepto de musique concrète.



Etude aux chemins de fer, 1948.

jueves, 29 de enero de 2009

EL TEMPLO MAYOR


A lo largo del siglo xx los arqueólogos fueron descubriendo la ubicación exacta del Templo Mayor de los mexicas, el sagrado edificio que fuera destruido tras la conquista de la metrópoli indígena, y cuyos restos habían permanecido ocultos durante cuatro siglos bajo los cimientos de las construcciones virreinales y decimonónicas del centro de nuestra ciudad capital.

Según la tradición, el Templo Mayor fue construido justo en el sitio donde los peregrinos de Aztlán encontraron el sagrado nopal que crecía en una piedra, y sobre el cual se posaba un águila con las alas extendidas al sol, devorando una serpiente. Este primer basamento dedicado a Huitzilopochtli, aunque humilde porque fue construido con lodo y madera, marcó el principio de lo que con el tiempo sería uno de los edificios ceremoniales más famosos de su época. Uno a uno los gobernantes de México-Tenochtitlan dejaron como testimonio de su devoción una nueva etapa constructiva sobre aquella pirámide, y si bien las obras sólo consistían en ado­sar­le taludes y renovar escalinatas, el pueblo podía constatar el poder de su gobernante en turno y el engrandecimiento de su dios tribal, el victorioso dios-sol de la guerra.

Pero los mexicas no podían olvidarse de los demás dioses, pues todos ellos propiciaban la existencia armónica del universo, equilibrando las fuerzas de la naturaleza, produciendo el viento y la lluvia y haciendo crecer las plantas que alimentaban a los hombres. Así, una de las deidades principales, que alcanzó una jerarquía similar a la de Huitzilopochtli, fue Tláloc, el antiguo dios de la lluvia y patrono de los agricultores; por ello, y con el transcurrir del tiempo, aquel sagrado edificio, “hogar de Huitzilopochtli”, tuvo la forma de una pirámide doble, la cual sustentaba en su cúspide dos habitaciones que funcionaban como los adoratorios máximos de ambas deidades.

Las más recientes investigaciones arqueológicas llevadas a cabo en las ruinas del edificio muestran por lo menos siete etapas constructivas, de las cuales sobresale aquella que se realizó durante el gobierno de Huitzilíhuitl, segundo tlatoani de Tenochtitlan; de esa etapa se conservan los muros de los adoratorios, el téchcatl o piedra sagrada de los sacrificios y una escultura del Chac-Mool. Destaca también la etapa constructiva ejecutada durante el gobierno de Izcóatl, de la que se descubrieron, sobre la escalinata que conducía al adoratorio de Huitzilopochtli, varias esculturas de portaestandartes que, a manera de guerreros divinos, defendían el ascenso al templo de la suprema deidad.

Sin embargo, el hallazgo más notable fue el del monolito circular de la diosa lunar Coyolxauhqui, que proviene de la etapa correspondiente al gobierno de Axayácatl, quien ocupó el solio supremo de Tenochtitlan entre 1469 y 1480.

Los conquistadores españoles sólo conocieron la última etapa constructiva del Templo Mayor, efectuada durante el reinado de Moctezuma Xocoyotzin, y se admiraron de la majes­tuo­sidad y gran altura que poseía ya el sagrado edificio. Su fachada se o­rien­taba hacia el poniente, por lo que en ese lado de la pirámide se hallaba la doble escalinata enmarcada por cabezas de serpiente en actitud amenazante. En la parte superior de las alfar­das se ubicaban los braceros, donde ininterrumpidamente debía permanecer encendido el fuego sagrado.

Sólo los sacerdotes y las víctimas del sacrificio podían ascender por aquellas escalinatas y llegar a la cúspide del templo, desde donde se podía contemplar la ciudad-isla en todo su esplendor.

A la entrada de los adoratorios del Templo Mayor había unas vigorosas esculturas de hombres en posición sedente, cuya misión era sostener los estandartes y las banderolas hechas de papel amate que evocaban el poder de los númenes patrones. Ya en el interior de las sacras habitaciones, protegidas de la luz por unas piezas de tela a manera de cortinas, se encontraban las imágenes de las deidades.

Sabemos que la escultura de Huitzilopochtli se modelaba con semillas de amaranto, y que en su interior se colocaban unas bolsas que contenían jades, huesos y amuletos que le daban vida a la imagen. Para amalgamar las semillas de amaranto, éstas se mezclaban con miel y sangre humana. El proceso de confección de la fi­gura, llevado a cabo anualmente, concluía con su vestido y ornamentación mediante tocados de plumas y textiles muy elabo­rados, y con la colocación de una máscara y un colgante de oro que daban su identidad a la efigie del dios solar.

Precisamente, durante las fiestas del mes indígena de Panquetzaliztli, dedicado al ceremonial de Huitzilopochtli, el clímax de la fiesta consistía en la repartición del cuerpo de amaranto, miel y sangre entre todo el pueblo; su ingestión representaba la comunión con la deidad y estrechaba el vínculo entre el hombre y sus creadores.

Dado que el panteón indígena era muy amplio, pues se divinizaba a cada una de las fuerzas de la naturaleza, poco a poco el espacio sagrado alrededor de la pirámide doble se fue poblando con numerosos edificios que sirvieron de aposento a dichas deidades.

A principios del siglo xvi el recinto sagrado abarcaba una gran extensión de aproximadamente 400 metros por lado, y para separarlo de la zona habitacional, según lo han constatado los arqueólogos, se construyeron largas plataformas con múltiples escalinatas ubicadas armónicamente. El recinto contaba con tres accesos mayores, a manera de entradas, en sus lados norte, oeste y sur; de ellos salían las principales calzadas que conectaban a la ciudad con tierra firme.

En las crónicas antiguas se relata la visita que hiciera al recinto sagrado de México-Tenochtitlan, por invitación misma del tlatoani tenochca, un señor del pueblo enemigo de Huexotzinco, acompañado de sus parientes más cercanos. Para poder ingresar al recinto este personaje tuvo que conducirse de manera sigilosa, vistiendo un disfraz que lo confundía entre los miembros de la nobleza mexicana; de esa manera, el visitante pudo admirar por vez primera aquel espectacular centro del que en su lejano pueblo sólo escuchara múltiples y asombrosas narraciones. Después de ingresar por la entrada sur, los visitantes debieron ver a lo lejos la pirámide de Tláloc y Huitzilopochtli, mientras que su dignatario se detenía unos instantes frente al templo piramidal dedicado a Tezcatlipoca, la temible deidad guerrera, donde justo al pie de su escalinata se ubicaba un monumento de forma cilíndrica, mandado tallar en tiempos de Moctezuma Ilhuicamina, en cuya superficie se llevarían a efecto, más tarde, una serie de combates cuerpo a cuerpo entre los prisioneros enemigos y los guerreros mexicas, evento al cual había sido invitado. En tales combates los guerreros mexicas encaminaban a los primeros hacia su muerte, atemorizando los corazones de espectadores y visitantes.

En los lados norte y sur del Templo Mayor los arqueólogos han encontrado evidencias de conjuntos palaciegos decorados con la representación de procesiones de guerreros y otros elementos de tradición tolteca; se trata, por un lado, del llamado Palacio de los Guerreros Águila, y por otro, de un conjunto aún no identificado que probablemente se trate del Palacio de los Guerreros Jaguar.

Formando una especie de entrecalle, al frente del conjunto mencionado se ubicaron, quizá continuos, cuatro basamentos de dimensiones semejantes dedicados al culto de los dioses de la agricultura y la fertilidad.

Un lugar prominente en la sección central del recinto lo ocupaba el edificio consagrado al culto del dios del viento, Ehécatl-Quetzalcóatl, la ancestral deidad de carácter civilizador que con su propia sangre y con los huesos de las generaciones antiguas había creado a los hombres. Para el tiempo de los mexicas, esta divinidad representaba al viento que atraía las lluvias y producía anualmente el ciclo de la agricultura, de ahí que la pirámide consagrada a su culto, conocida como la “casa del viento” y orientada hacia el este, tuviera una forma peculiar: su fachada era de planta cuadrangular, mientras que su parte posterior, de planta circular, servía para sustentar un templo de forma cilíndrica cubierto por un techo de paja a manera de un gran cono. De acuerdo con los relatos de los conquistadores, la decoración de este templo consistía en la figura de una serpiente emplumada (el nombre de la deidad), cuyas fauces abiertas constituían el acceso mismo a su adoratorio.

Precisamente en el espacio que hoy ocupa la Catedral Metropolitana, en la esquina suroeste del recinto, se ubicaban algunos basamentos pi­ramidales de diversos tamaños, destacando por su importancia aquel donde se rendía culto al Sol naciente; el edificio estaba decorado con grandes representaciones de chalchihuites o jades que simbolizaban el preciosismo del astro y su misión de iluminar los cuatro rumbos del universo; por esa razón su fachada miraba también hacia el oriente.

En su breve recorrido por el recinto sagrado de los mexicas, el señor de Huexotzingo seguramente se estremeció al contemplar, muy cerca del templo del Sol naciente, el Huey Tzompantli, la sobrecogedora construcción ritual conformada por cientos de cráneos humanos despellejados y ensartados en pértigas de madera, mudos testigos de ofrendas dedicadas a Huitzilopochtli. Sin lugar a dudas, Moctezuma se deleitó observando los rostros de sus invitados, particularmente de aquellos que procedían de los señoríos rivales, quienes advertían ese trágico destino para todo aquel que rompiese las buenas relaciones con México-Tenochtitlan.

Un lugar especial en el recinto sagrado lo ocupaba la cancha del juego de pelota, el Huey Tlachco, situado frente a la entrada poniente; ahí se practicaba este deslumbrante deporte ritual donde se presagiaba el movimiento del Sol por el firmamento; el edificio consistía en un patio con dos cabezales y un pasillo central, cuya planta se asemejaba a la letra “I”. A los lados norte y sur del patio estaban los taludes, con sus respectivos anillos de piedra por donde tenía que pasar la pelota. Durante la celebración del juego —lla­mado “ulama” porque la pelota estaba hecha de hule—, los jugadores, que adquirían un carácter astral, golpeaban el esférico con las caderas (aunque había otro tipo de canchas donde la pelota se movía mediante golpes con el antebrazo). El propósito de esta popular práctica, a la que frecuentemente asistía el tla­toa­ni junto con la nobleza y en ocasiones el pueblo, consistía en ­recrear el movimiento del sol, simbolizado en la pelota, por el firmamento. Cuando ocurría un movimiento contrario, el juego se detenía y se decapitaba a un jugador, con lo cual se evitaba la inminente destrucción del universo.

Otras construcciones que el señor de Huexotzingo debió admirar antes de la impresionante celebración a la que había sido invitado, eran el Calmécac, conjunto palaciego que funcionaba como escuela para los hijos del estamento nobiliario, donde se preparaba a los futuros funcionarios del gobierno, a los supremos sacerdotes y a los grandes dirigentes de la milicia; el curioso templomanantial consagrado al culto de la diosa Chalchiuhtlicue, patrona del agua del ámbito terrestre; y el espacio dedicado a los festejos de Mixcóatl, el patrono de la cacería, donde se recreaba un parque con rocas y árboles, en los que se ataba a las víctimas cubiertas con pieles, semejando animales.

Con el paso del tiempo este deslumbrante conjunto arquitectónico ceremonial sufrió el terrible destino al que los propios mexicas habían condenado a muchas de las capitales indígenas: fue destruido a sangre y fuego por los conquistadores españoles. Después de la total rendición de la capital tenochca ocurrida el 13 de agosto de 1521, Cortés ordenó la demolición de lo poco que aún se mantenía en pie, para construir sobre las ruinas los cimientos de la capital de la futura Nueva España.

Pasajes de la Historia No. 1 El reino de Moctezuma


Un gran hallazgo del siglo XX

A raíz del descubrimiento de la Coyolxauhqui –el monolito de la diosa lunar– se impulsaron las excavaciones de la antigua Tenochtitlan, y fue así como se encontraron las ruinas de la pirámide doble de Tláloc y Huitzilopochtli, en la que se reconocieron por lo menos seis etapas constructivas, las cuales pueden observarse durante el recorrido por la zona arqueológica del Templo Mayor.

El visitante podrá ver las diferentes etapas, al comenzar el recorrido, por la escalinata que conduce al patio sur, el cual pertenece a la etapa VI, ubicada entre los años 1486 y 1502. Aquí se advierten superposiciones de pisos de lajas cortadas en forma irregular. Al final del andador destaca la fachada de la etapa IV-b, realizada entre 1469 y 1481, durante el reinado del emperador Axayácatl, en la que pueden verse cuatro cabezas de serpiente que servían como arranque de las alfardas que flanqueaban la doble escalinata del templo. El monolito de la Coyolxauhqui pertenece a esta etapa constructiva. El andador se interna en el núcleo de la pirámide a través de las superposiciones agregadas al conjunto; de éstas sobresale la etapa III, atribuida al reinado de Itzcóatl (1426-1440), en la que se encontraron, al pie de la escalinata, los restos de siete portaestandartes. Al fondo del andador se localiza la estructura correspondiente a la etapa II, construida hacia 1390. En ésta se encuentran bien conservados vestigios que permiten imaginar cómo eran los templos que remataban el edificio, así como la doble escalinata que lleva hasta los restos de los templos gemelos, el de la izquierda dedicado a Tláloc y el de la derecha a Huitzilopochtli, los dos con restos de pinturas alusivas a ambas deidades y objetos de culto.

Siguiendo por el andador se llega a los más fascinantes hallazgos de la exploración del sitio, el llamado Recinto de las Águilas, que es un espacio cuadrangular con una antesala porticada con columnas y patio interior con una magnífica banqueta labrada, estucada y pintada, que muestra la procesión de unas 170 figuras de guerreros y una cenefa en la que ondula el cuerpo de una serpiente.


Fue inaugurado el 12 de octubre de 1987. Alberga miles de piezas arqueológicas encontradas de 1978 a la fecha en un radio de siete cuadras del Centro Histórico de la ciudad de México. El edificio que lo alberga fue construido por el arquitecto Pedro Ramírez Vázquez y está ubicado en el mismo sitio que fuera el más importante centro ceremonial del pueblo mexica.

Consta de ocho salas de exhibición dedicadas en su mayoría a Tláloc, dios del agua, y Huitzilopochtli, dios de la guerra. La pieza principal del museo es la representación pétrea de Coyolxauhqui, diosa de la luna, decapitada y desmembrada por su hermano Huitzilopochtli.

En conjunto, el acervo del Templo Mayor da cuenta de la evolución del pueblo azteca, desde la peregrinación de los mexicas y su asentamiento en el lago de Texcoco hasta la llegada de los conquistadores españoles y la fusión de ambas culturas.


Recorrido

A lo largo de sus ocho salas se exhiben miles de objetos, 9% de los cuales provienen de la zona arqueológica y que explican aspectos de la cultura mexica. La arquitectura fue concebida con base en la forma del Templo Mayor, por lo que también cuenta con dos secciones: la sur, dedicada a los aspectos relacionados con el culto a Huitzilopochtli, como la guerra, el sacrificio y el tributo; y la norte, dedicada a Tláloc, así como a la agricultura, la flora y la fauna.

El recorrido ofrece al visitante una visión lo más cercana posible de la etapa de mayor esplendor del sitio.

1. De Coatlicue al Templo Mayor

Muestra de las investigaciones arqueológicas en el recinto sagrado de México-Tenochtitlan, desde 1790, cuando fueron halladas la Coatlicue y la Piedra del Sol, hasta los hallazgos más recientes del Proyecto Templo Mayor y del Programa de Arqueología Urbana.

2. Ritual y sacrificio

Se exhiben objetos relacionados con los ritos funerarios, las ceremonias religiosas y el sacrificio humano. Para los pueblos mesoamericanos, en especial para los mexicas, la vida cotidiana estaba teñida por un fuerte sentimiento religioso. Incluso la guerra era considerada como un ritual que permitía, por un lado, la expansión militar y el consecuente dominio tributario, y por el otro, la captura de enemigos destinados a morir en sacrificio para alimentar al Sol y asegurar la permanencia del cosmos.

3. Tributo y comercio

En esta sala se encuentran objetos producto del tributo y del comercio que los mexicas mantuvieron con otros pueblos y que fueron depositados en las ofrendas. En un mapa se ilustran los sitios y las rutas de los comerciantes mexicas, así como las zonas tributarias bajo su dominio desde su independencia del señorío de Azcapotzalco hasta la caída del imperio frente a los españoles.

4. Huitzilopochtli

Sala dedicada al dios de la guerra o colibrí del sur, patrono de los mexicas. A pesar de su gran importancia, no se han encontrado esculturas ni otras representaciones de esta deidad, ya que, según las fuentes históricas, su imagen era hecha con semillas de amaranto, las cuales difícilmente se conservan con el paso de los siglos. Sin embargo, gracias a las escasas imágenes en los códices se sabe que sus atributos principales eran un yelmo o casco en forma de colibrí; en una mano una serpiente de turquesa y en la otra un escudo con cinco adornos de plumas: una bandera ritual de papel, la Xiuhcóatl o serpiente preciosa y su arma mágica, entre otros. Asimismo se exhiben objetos asociados con su culto.

5. Tláloc

Sala dedicada al dios de la lluvia, fecundador de la tierra y residente de las más altas montañas, donde se forman las nubes. Tláloc era uno de los dioses más antiguos e importantes de Mesoamérica, pues de su bondad dependía que la tierra diera sus frutos, y de su ira, al enviar granizo e inundaciones, la pérdida de las cosechas. Por su enorme fuerza, los mexicas lo ubicaron junto a su gran dios Huitzilopochtli en el Templo Mayor de Tenochtitlan.

6. Flora y fauna

Se exhiben restos de animales y plantas que revelan la percepción que tenían los mexicas de su entorno y el valor que le daban en relación con su mundo religioso: muchos de los dioses prehispánicos tienen cualidades y rasgos animales, producto de esa observación minuciosa del ecosistema.

7. Agricultura

Se muestran objetos para explicar la importancia de la agricultura entre los mexicas. Múltiples dioses presidían esta actividad y los rituales correspondían a las épocas de lluvia y de secas, determinadas por Tláloc.

8. Arqueología histórica

Los objetos en exhibición abarcan desde la conquista española hasta el siglo XX, recuperados a lo largo de las excavaciones del Proyecto Templo Mayor y el Programa de Arqueología Urbana.

martes, 27 de enero de 2009

LOS AGUJEROS NEGROS


El término agujero negro tiene un origen muy reciente. Fue acuñado en 1969 por el científico norteamericano John Wheeler como la descripción gráfica de una idea que se remonta hacia atrás un mínimo de doscientos años, a una época en que había dos teorías sobre la luz: una, preferida por Newton, que suponía que la luz estaba compuesta por partículas, y la otra que asuma que estaba formada por ondas. Hoy en día, sabemos que ambas teorías son correctas. Debido a la dualidad onda/ corpúsculo de la mecánica cuántica, la luz puede ser considerada como una onda y como una partícula. En la teoría que la luz estaba formada por ondas, no quedaba claro como respondería ésta ante la gravedad. Pero si la luz estaba compuesta por partículas, se podría esperar que éstas fueran afectadas por la gravedad del mismo modo que lo son las balas, los cohetes y los planetas. Al principio, se pensaba que las partículas de luz viajaban con infinita rapidez, de forma que la gravedad no hubiera sido capaz de frenarías, pero el descubrimiento de Roemer que la luz viaja a una velocidad finita, significó el que la gravedad pudiera tener un efecto importante sobre la luz.

Bajo esta suposición, un catedrático de Cambridge, John Michell, escribió en 1783 un artículo en el Philosophical Transactions of the Royal Society of London en el que señalaba que una estrella que fuera suficientemente masiva y compacta tendría un campo gravitatorio tan intenso que la luz no podría escapar: la luz emitida desde la superficie de la estrella sería arrastrada de vuelta hacia el centro por la atracción gravitatoria de la estrella, antes que pudiera llegar muy lejos. Michell sugirió que podría haber un gran número de estrellas de este tipo. A pesar que no seríamos capaces de verlas porque su luz no nos alcanzaría, sí notaríamos su atracción gravitatoria. Estos objetos son los que hoy en día llamamos agujeros negros, ya que esto es precisamente lo que son: huecos negros en el espacio. Una sugerencia similar fue realizada unos pocos años después por el científico francés marqués de Laplace, parece ser que independientemente de Michell. Resulta bastante interesante que Laplace sólo incluyera esta idea en la primera y la segunda ediciones de su libro El sistema del mundo, y no la incluyera en las ediciones posteriores. Quizás decidió que se trataba de una idea disparatada. (Hay que tener en cuenta también que la teoría corpuscular de la luz cayó en desuso durante el siglo XIX; parecía que todo se podía explicar con la teoría ondulatoria, y, de acuerdo con ella, no estaba claro si la luz sería afectada por la gravedad). De hecho, no es realmente consistente tratar la luz como las balas en la teoría de la gravedad de Newton, porque la velocidad de la luz es fija. (Una bala disparada hacia arriba desde la Tierra se irá frenando debido a la gravedad y, finalmente, se parará y caerá; un fotón, sin embargo, debe continuar hacia arriba con velocidad constante. ¿Cómo puede entonces afectar la gravedad newtoniana a la luz?).

No apareció una teoría consistente de cómo la gravedad afecta a la luz hasta que Einstein propuso la relatividad general, en 1915. E incluso entonces, tuvo que transcurrir mucho tiempo antes que se comprendieran las aplicaciones de la teoría acerca de las estrellas masivas.

Para entender cómo se podría formar un agujero negro, tenemos que tener ciertos conocimientos acerca del ciclo vital de una estrella. Una estrella se forma cuando una gran cantidad de gas, principalmente hidrógeno, comienza a colapsar sobre sí mismo debido a su atracción gravitatoria. Conforme se contrae, sus átomos empiezan a colisionar entre sí, cada vez con mayor frecuencia y a mayores velocidades: el gas se calienta. Con el tiempo, el gas estará tan caliente que cuando los átomos de hidrógeno choquen ya no saldrán rebotados, sino que se fundirán formando helio. El calor desprendido por la reacción, que es como una explosión controlada de una bomba de hidrógeno, hace que la estrella brille. Este calor adicional también aumenta la presión del gas hasta que ésta es suficiente para equilibrar la atracción gravitatoria, y el gas deja de contraerse. Se parece en cierta medida a un globo. Existe un equilibrio entre la presión del aire de dentro, que trata de hacer que el globo se hinche, y la tensión de la goma, que trata de disminuir el tamaño del globo. Las estrellas permanecerán estables en esta forma por un largo período, con el calor de las reacciones nucleares equilibrando la atracción gravitatoria. Finalmente, sin embargo, la estrella consumirá todo su hidrógeno y los otros combustibles nucleares. Paradójicamente, cuanto más combustible posee una estrella al principio, más pronto se le acaba. Esto se debe a que cuanto más masiva es la es estrella más caliente tiene que estar para contrarrestar la atracción gravitatoria, y, cuanto mas caliente está, más rápidamente utiliza su combustible.

Nuestro Sol tiene probablemente suficiente combustible para otros cinco mil millones de años aproximadamente, pero estrellas más masivas pueden gastar todo su combustible en tan sólo cien millones de años, mucho menos que la edad del universo. Cuando una estrella se queda sin combustible, empieza a enfriarse y por lo tanto a contraerse. Lo que puede sucederle a partir de ese momento sólo se empezó a entender al final de los años veinte.

En 1928, un estudiante graduado indio, Subrahmanyan Chandrasekhar, se embarcó hacia Inglaterra para estudiar en Cambridge con el astrónomo británico sir Arthur Eddington, un experto en relatividad general. (Según algunas fuentes, un periodista le dijo a Eddington, al principio de los años veinte, que había oído que había sólo tres personas en el mundo que entendieran la relatividad general. Eddington hizo una pausa, y luego replicó: «Estoy tratando de pensar quién es la tercera persona»). Durante su viaje desde la India, Chandrasekhar calculó lo grande que podría llegar a ser una estrella que fuera capaz de soportar su propia gravedad, una vez que hubiera gastado todo su combustible. La idea era la siguiente: cuando la estrella se reduce en tamaño, las partículas materiales están muy cerca unas de otras, y así, de acuerdo con el principio de exclusión de Pauli, tienen que tener velocidades muy diferentes. Esto hace que se alejen unas de otras, lo que tiende a expandir a la estrella. Una estrella puede, por lo tanto, mantenerse con un radio constante, debido a un equilibrio entre la atracción de la gravedad y la repulsión que surge del principio de exclusión, de la misma manera que antes la gravedad era compensada por el calor.

Chandrasekhar se dio cuenta, sin embargo, que existe un límite a la repulsión que el principio de exclusión puede proporcionar. La teoría de la relatividad limita la diferencia máxima entre las velocidades de las partículas materiales de la estrella a la velocidad de la luz. Esto significa que cuando la estrella fuera suficientemente densa, la repulsión debida al principio de exclusión sería menor que la atracción de la gravedad. Chandrasekhar calculó que una estrella fría de más de aproximadamente una vez y media la masa del Sol no sería capaz de soportar su propia gravedad. (A esta masa se le conoce hoy en día como el límite de Chandrasekhar). Un descubrimiento similar fue realizado, casi al mismo tiempo, por el científico ruso Lev Davidovich Landau.

Todo esto tiene serias aplicaciones en el destino último de las estrellas masivas. Si una estrella posee una masa menor que el límite de Chandrasekhar, puede finalmente cesar de contraerse y estabilizarse en un posible estado final, como una estrella «enana blanca», con un radio de unos pocos miles de kilómetros y una densidad de decenas de toneladas por centímetro cúbico. Una enana blanca se sostiene por la repulsión, debida al principio de exclusión entre los electrones de su materia. Se puede observar un gran número de estas estrellas enanas blancas; una de las primeras que se descubrieron fue una estrella que está girando alrededor de Sirio, la estrella más brillante en el cielo nocturno.

Landau señaló que existía otro posible estado final para una estrella, también con una masa límite de una o dos veces la masa del Sol, pero mucho más pequeña incluso que una enana blanca. Estas estrellas se mantendrían gracias a la repulsión debida al principio de exclusión entre neutrones y protones, en vez de entre electrones. Se les llamó por eso estrellas de neutrones. Tendrían un radio de unos quince kilómetros aproximadamente y una densidad de decenas de millones de toneladas por centímetro cúbico. En la época en que fueron predichas, no había forma de poder observarlas; no fueron detectadas realmente hasta mucho después.

Estrellas con masas superiores al límite de Chandrasekhar tienen, por el contrario, un gran problema cuando se les acaba el combustible. En algunos casos consiguen explotar, o se las arreglan para desprenderse de la suficiente materia como para reducir su peso por debajo del límite y evitar así un catastrófico colapso gravitatorio; pero es difícil pensar que esto ocurra siempre, independientemente de lo grande que sea la estrella. ¿Cómo podría saber la estrella que tenía que perder peso? E incluso si todas las estrellas se las arreglaran para perder la masa suficiente como para evitar el colapso, ¿qué sucedería si se añadiera más masa a una enana blanca o a una estrella de neutrones, de manera que se sobrepasara el límite? ¿Se colapsaría alcanzando una densidad infinita? Eddington se asombró tanto por esta conclusión que rehusó creerse el resultado de Chandrasekhar. Pensó que era simplemente imposible que una estrella pudiera colapsarse y convertirse en un punto. Este fue el criterio de la mayoría de los científicos: el mismo Einstein escribió un artículo en el que sostenía que las estrellas no podrían encogerse hasta tener un tamaño nulo. La hostilidad de otros científicos, en particular de Eddington, su antiguo profesor y principal autoridad en la estructura de las estrellas, persuadió a Chandrasekhar a abandonar esta línea de trabajo y volver su atención hacia otros problemas de astronomía, tales como el movimiento de los grupos de estrellas. Sin embargo, cuando se le otorgó el premio Nóbel en 1983, fue, al menos en parte, por sus primeros trabajos sobre la masa límite de las estrellas frías.

Chandrasekhar había demostrado que el principio de exclusión no podría detener el colapso de una estrella más masiva que el límite de Chandrasekhar, pero el problema de entender qué es lo que le sucedería a tal estrella, de acuerdo con la relatividad general, fue resuelto por primera vez por un joven norteamericano, Robert Oppenheimer, en 1939. Su resultado, sin embargo, sugería que no habría consecuencias observables que pudieran ser detectadas por un telescopio de su época. Entonces comenzó la segunda guerra mundial y el propio Oppenheimer se vio involucrado en el proyecto de la bomba atómica. Después de la guerra, el problema del colapso gravitatorio fue ampliamente olvidado, ya que la mayoría de los científicos se vieron atrapados en el estudio de lo que sucede a escala atómica y nuclear. En los años sesenta, no obstante, el interés por los problemas de gran escala de la astronomía y la cosmología fue resucitado a causa del aumento en el número y categoría de las observaciones astronómicas, ocasionado por la aplicación de la tecnología moderna. El trabajo de Oppenheimer fue entonces redescubierto y adoptado por cierto número de personas.

La imagen que tenemos hoy del trabajo de Oppenheimer es la siguiente: el campo gravitatorio de la estrella cambia los caminos de los rayos de luz en el espacio tiempo, respecto de como hubieran sido si la estrella no hubiera estado presente.
Los conos de luz, que indican los caminos seguidos en el espacio y en el tiempo por destellos luminosos emitidos desde sus vértices, se inclinan ligeramente hacia dentro cerca de la superficie de la estrella. Esto puede verse en la desviación de la luz, proveniente de estrellas distantes, observada durante un eclipse solar. Cuando la estrella se contrae, el campo gravitatorio en su superficie es más intenso y los conos de luz se inclinan más hacia dentro. Esto hace más difícil que la luz de la estrella escape, y la luz se muestra más débil y más roja para un observador lejano.

Finalmente, cuando la estrella se ha reducido hasta un cierto radio crítico, el campo gravitatorio en la superficie llega a ser tan intenso, que los conos de luz se inclinan tanto hacia dentro que la luz ya no puede escapar. De acuerdo con la teoría de la relatividad, nada puede viajar más rápido que la luz. Así si la luz no puede escapar, tampoco lo puede hacer ningún otro objeto-, todo es arrastrado por el campo gravitatorio. Por lo tanto, se tiene un conjunto de sucesos, una región del espacio-tiempo, desde donde no se puede escapar y alcanzar a un observador lejano. Esta región es lo que hoy en día llamamos un agujero negro. Su frontera se denomina el horizonte de sucesos y coincide con los caminos de los rayos luminosos que están justo a punto de escapar del agujero negro, pero no lo consiguen. Para entender lo que se vería si uno observara cómo se colapsa una estrella para formar un agujero negro, hay que recordar que en la teoría de la relatividad no existe un tiempo absoluto. Cada observador tiene su propia medida del tiempo. El tiempo para alguien que esté en una estrella será diferente al de otra persona lejana, debido al campo gravitatorio de esa estrella. Supongamos que un intrépido astronauta, que estuviera situado en la superficie de una estrella que se colapsa, y se colapsara hacia dentro con ella, enviase una señal cada segundo, de acuerdo con su reloj, a su nave espacial que gira en órbita alrededor de la estrella. A cierta hora según su reloj, digamos que a las 11:00, la estrella se reduciría por debajo de su radio crítico, entonces el campo gravitatorio se haría tan intenso que nada podría escapar y las señales del astronauta ya no alcanzarían a la nave. Conforme se acercaran las 11:00, sus compañeros, que observaran desde la nave, encontrarían los intervalos entre señales sucesivas cada vez más largos, aunque dicho efecto sería muy pequeño antes de las 10:59:59. Sólo tendrían que esperar poco más de un segundo entre la señal del astronauta de las 10:59:58 y la que envió cuando en su reloj eran las 10:59:59; pero tendrían que esperar eternamente la señal de las 11:00. Las ondas luminosas emitidas desde la superficie de la estrella entre las 10:59:59 y las 11:00, según el reloj del astronauta, estarían extendidas a lo largo de un período infinito de tiempo, visto desde la nave. El intervalo de tiempo entre la llegada de ondas sucesivas a la nave se haría cada vez más largo, por eso la luz de la estrella llegaría cada vez más roja y más débil. Al final, la estrella sería tan oscura que ya no podría verse desde la nave: todo lo que quedaría sería un agujero negro en el espacio. La estrella continuaría, no obstante, ejerciendo la misma fuerza gravitatoria sobre la nave, que seguiría en órbita alrededor del agujero negro.

Pero este supuesto no es totalmente realista, debido al problema siguiente. La gravedad se hace tanto más débil cuanto más se aleja uno de la estrella, así la fuerza gravitatoria sobre los pies de nuestro intrépido astronauta sería siempre mayor que sobre su cabeza. ¡Esta diferencia de las fuerzas estiraría a nuestro astronauta como un spaghetti o lo despedazaría antes que la estrella se hubiera contraído hasta el radio crítico en que se forma el horizonte de sucesos! No obstante, se cree que existen objetos mayores en el universo que también pueden sufrir un colapso gravitatorio, y producir agujeros negros. Un astronauta situado encima de uno de estos objetos no sería despedazado antes que se formara el agujero negro. De hecho, él no sentiría nada especial cuando alcanzara el radio crítico, y podría pasar el punto de no retorno sin notario. Sin embargo, a las pocas horas, mientras la región continuara colapsándose, la diferencia entre las fuerzas gravitatorias sobre su cabeza y sobre sus pies se haría tan intensa que de nuevo sería despedazado.

El trabajo que Roger Penrose y yo hicimos entre 1965 y 1970 demostró que, de acuerdo con la relatividad general, debe haber una singularidad de densidad y curvatura del espacio tiempo infinito dentro de un agujero negro. La situación es parecida al big bang al principio del tiempo, sólo que sería el final, en vez del principio del tiempo, para el cuerpo que se colapsa y para el astronauta. En esta singularidad, tanto las leyes de la ciencia como nuestra capacidad de predecir el futuro fallarían totalmente. No obstante, cualquier observador que permaneciera fuera del agujero negro no estaría afectado por este fallo de capacidad de predicción, porque ni la luz ni cualquier otra señal podrían alcanzarle desde la singularidad. Este hecho notable llevó a Roger Penrose a proponer la hipótesis de la censura cósmica, que podría parafrasearse como «Dios detesta una singularidad desnuda». En otras palabras, las singularidades producidas por un colapso gravitatorio sólo ocurren en sitios, como los agujeros negros, en donde están decentemente ocultas por medio de un horizonte de sucesos, para no ser vistas desde fuera. Estrictamente, esto es lo que se conoce como la hipótesis débil de la censura cósmica: protege a los observadores que se quedan fuera del agujero negro de las consecuencias de la crisis de predicción que ocurre en la singularidad, pero no hace nada por el pobre desafortunado astronauta que cae en el agujero. Existen algunas soluciones de las ecuaciones de la relatividad general en las que le es posible al astronauta ver una singularidad desnuda: él puede evitar chocar con la singularidad y, en vez de esto, caer a través de un «agujero de gusano», para salir en otra región del universo. Esto ofrecería grandes posibilidades de viajar en el espacio y en el tiempo, aunque desafortunadamente parece ser que estas soluciones son altamente inestables; la menor perturbación, como, por ejemplo, la presencia del astronauta, puede cambiarlas, de forma que el astronauta podría no ver la singularidad hasta que chocara con ella, momento en el que encontraría su final. En otras palabras, la singularidad siempre estaría en su futuro y nunca en su pasado. La versión fuerte de la hipótesis de la censura cósmica nos dice que las singularidades siempre estarán, o bien enteramente en el futuro, como las singularidades de colapsos gravitatorios, o bien enteramente en el pasado, como el big bang. Es muy probable que se verifique alguna de las versiones de la censura cósmica, porque cerca de singularidades desnudas puede ser posible viajar al pasado. Aunque esto sería atractivo para los escritores de ciencia ficción, significaría que nuestras vidas nunca estarían a salvo: ¡alguien podría volver al pasado y matar a tu padre o a tu madre antes que hubieras sido concebido! El horizonte de sucesos, la frontera de la región del espacio tiempo desde la que no es posible escapar, actúa como una membrana unidireccional alrededor del agujero negro: los objetos, tales como astronautas imprudentes, pueden caer en el agujero negro a través del horizonte de sucesos, pero nada puede escapar del agujero negro a través del horizonte de sucesos. (Recordemos que el horizonte de sucesos es el camino en el espacio-tiempo de la luz que está tratando de escapar del agujero negro, y nada puede viajar más rápido que la luz). Uno podría decir del horizonte de sucesos lo que el poeta Dante dijo a la entrada del infierno: «Perded toda esperanza al traspasarme». Cualquier cosa o persona que cae a través del horizonte de sucesos pronto alcanzará la región de densidad infinita y el final del tiempo.

La relatividad general predice que los objetos pesados en movimiento producirán la emisión de ondas gravitatorias, rizos en la curvatura del espacio que viajan a la velocidad de la luz. Dichas ondas son similares a las ondas luminosas, que son rizos del campo electromagnético, pero mucho más difíciles de detectar. Al igual que la luz, se llevan consigo energía de los objetos que las emiten. Uno esperaría, por lo tanto, que un sistema de objetos masivos se estabilizara finalmente en un estado estacionario, ya que la energía de cualquier movimiento se perdería en la emisión de ondas gravitatorias. (Es parecido a dejar caer un corcho en el agua: al principio se mueve bruscamente hacia arriba y hacia abajo, pero cuando las olas se llevan su energía, se queda finalmente en un estado estacionario). Por ejemplo, el movimiento de la Tierra en su órbita alrededor del Sol produce ondas gravitatorias. El efecto de la pérdida de energía será cambiar la órbita de la Tierra, de forma que gradualmente se irá acercando cada vez más al Sol; con el tiempo colisionará con él, y se quedará en un estado estacionario. El ritmo de pérdida de energía en el caso de la Tierra y el Sol es muy lento, aproximadamente el suficiente para hacer funcionar un pequeño calentador eléctrico. ¡Esto significa que la Tierra tardará unos mil billones de billones de años en chocar con el Sol, por lo que no existe un motivo inmediato de preocupación! El cambio en la órbita de la Tierra es demasiado pequeño para ser observado, pero el mismo efecto ha sido detectado durante los últimos años en el sistema llamado PSR 1913+16 (PSR se refiere a «pulsar», un tipo especial de estrella de neutrones que emite pulsos regulares de ondas de radio). Este sistema contiene dos estrellas de neutrones girando una alrededor de la otra; la energía que están perdiendo, debido a la emisión de ondas gravitatorias, les hace girar entre sí en espiral.

Durante el colapso gravitatorio de una estrella para formar un agujero negro, los movimientos serían mucho más rápidos, por lo que el ritmo de emisión de energía sería mucho mayor. Así pues, no se tardaría demasiado en llegar a un estado estacionario. ¿Qué parecería este estado final? Se podría suponer que dependería de todas las complejas características de la estrella de la que se ha formado. No sólo de una masa y velocidad de giro, sino también de las diferentes densidades de las distintas partes en ella, y de los complicados movimientos de los gases en su interior. Y si los agujeros negros fueran tan complicados como los objetos que se colapsan para formarlos, podría ser muy difícil realizar cualquier predicción sobre agujeros negros en general.

En 1967, sin embargo, el estudio de los agujeros negros fue revolucionado por Werner Israel, un científico canadiense (que nació en Berlín, creció en Sudáfrica, y obtuvo el título de doctor en Irlanda). Israel demostró que, de acuerdo con la relatividad general, los agujeros negros sin rotación debían ser muy simples; eran perfectamente esféricos, su tamaño sólo dependía de su masa, y dos agujeros negros cualesquiera con la misma masa serían idénticos. De hecho, podrían ser descritos por una solución particular de las ecuaciones de Einstein, solución conocida desde 1917, hallada gracias a Karl Schwarzschild al poco tiempo del descubrimiento de la relatividad general. Al principio, mucha gente, incluido el propio Israel, argumentó que puesto que un agujero negro tenía que ser perfectamente esférico, sólo podría formarse del colapso de un objeto perfectamente esférico. Cualquier estrella real, que nunca sería perfectamente esférica, sólo podría por lo tanto colapsarse formando una singularidad desnuda.

Hubo, sin embargo, una interpretación diferente del resultado de Israel, defendida, en particular, por Roger Penrose y John Wheeler. Ellos argumentaron que los rápidos movimientos involucrados en el colapso de una estrella implicarían que las ondas gravitatorias que desprendiera la harían siempre más esférica, y para cuando se hubiera asentado en un estado estacionario sería perfectamente esférica. De acuerdo con este punto de vista, cualquier estrella sin rotación, independientemente de lo complicado de su forma y de su estructura interna, acabaría después de un colapso gravitatorio siendo un agujero negro perfectamente esférico, cuyo tamaño dependería únicamente de su masa. Cálculos posteriores apoyaron este punto de vista, que pronto fue adoptado de manera general. El resultado de Israel sólo se aplicaba al caso de agujeros negros formados a partir de cuerpos sin rotación. En 1963, Roy Kerr, un neozelandés, encontró un conjunto de soluciones a las ecuaciones de la relatividad general que describían agujeros negros en rotación. Estos agujeros negros de «Kerr» giran a un ritmo constante, y su tamaño y forma sólo dependen de su masa y de su velocidad de rotación. Si la rotación es nula, el agujero negro es perfectamente redondo y la solución es idéntica a la de Schwarzschild. Si la rotación no es cero, el agujero negro se deforma hacia fuera cerca de su ecuador susto igual que la Tierra o el Sol se achatan en los polos debido a su rotación), y cuanto más rápido gira, más se deforma. De este modo, al extender el resultado de Israel para poder incluir a los cuerpos en rotación, se conjeturó que cualquier cuerpo en rotación, que colapsara y formara un agujero negro, llegaría finalmente a un estado estacionario descrito por la solución de Kerr.

En 1970, un colega y alumno mío de investigación en Cambridge, Brandon Carter, dio el primer paso para la demostración de la anterior conjetura. Probó que, con tal que un agujero negro rotando de manera estacionaria tuviera un eje de simetría, como una peonza, su tamaño y su forma sólo dependerían de su masa y de la velocidad de rotación. Luego, en 1971, yo demostré que cualquier agujero negro rotando de manera estacionaria siempre tendría un eje de simetría. Finalmente, en 1973, David Robinson, del Kings College de Londres, usó el resultado de Carter y el mío para demostrar que la conjetura era correcta: dicho agujero negro tiene que ser verdaderamente la solución de Kerr. Así, después de un colapso gravitatorio, un agujero negro se debe asentar en un estado en el que puede rotar, pero no puede tener pulsaciones [es decir, aumentos y disminuciones periódicas de su tamaño].
Además, su tamaño y forma sólo dependerán de su masa y velocidad de rotación, y no de la naturaleza del cuerpo que lo ha generado mediante su colapso. Este resultado se dio a conocer con la frase: «un agujero negro no tiene pelo». El teorema de la «no existencia de pelo» es de gran importancia práctica, porque restringe fuertemente los tipos posibles de agujeros negros. Se pueden hacer, por lo tanto, modelos detallados de objetos que podrían contener agujeros negros, y comparar las predicciones de estos modelos con las observaciones. También implica que una gran cantidad de información sobre el cuerpo colapsado se debe perder cuando se forma el agujero negro, porque después de ello, todo lo que se puede medir del cuerpo es la masa y la velocidad de rotación. El significado de todo esto se verá en el próximo capítulo.

Los agujeros negros son un caso, entre unos pocos en la historia de la ciencia, en el que la teoría se desarrolla en gran detalle como un modelo matemático, antes que haya ninguna evidencia a través de las observaciones que aquélla es correcta.
En realidad, esto constituía el principal argumento de los oponentes de los agujeros negros: ¿cómo podría uno creer en objetos cuya única evidencia eran cálculos basados en la dudosa teoría de la relatividad general? En 1963, sin embargo, Maarten Schmidt, un astrónomo del observatorio Monte Palomar de California, midió el corrimiento hacia el rojo de un débil objeto parecido a una estrella, situado en la dirección de la fuente de ondas de radio llamada 3C273 (es decir, fuente número 273 del tercer catálogo de Cambridge de fuentes de radio). Encontró que dicho corrimiento era demasiado grande para ser causado por un campo gravitatorio: si hubiera sido un corrimiento hacia el rojo de origen gravitatorio, el objeto tendría que haber sido tan masivo y tan cercano a nosotros que habría perturbado las órbitas de los planetas del sistema solar. Esto indujo a pensar que el corrimiento hacia el rojo fue causado, en vez de por la gravedad, por la expansión del universo, lo que, a su vez, implicaba que el objeto estaba muy lejos. Y para ser visible a tan gran distancia, el objeto debería ser muy brillante, debería, en otras palabras, emitir una enorme cantidad de energía. El único mecanismo que se podía pensar que produjera tales cantidades de energía parecía ser el colapso gravitatorio, no ya de una estrella, sino de toda una región central de una galaxia. Cierto número de otros «objetos cuasiestelares », o quasares, similares han sido descubiertos, todos con grandes corrimientos hacia el rojo. Pero todos están demasiado lejos y, por lo tanto, son demasiado difíciles de observar para que puedan proporcionar evidencias concluyentes acerca de los agujeros negros.

Nuevos estímulos sobre la existencia de agujeros negros llegaron en 1967 con el descubrimiento, por un estudiante de investigación de Cambridge, Jocelyn Bell, de objetos celestes que emitían pulsos regulares de ondas de radio. Al principio, Bell y su director de tesis, Antony Hewish, pensaron que podrían haber establecido contacto con una civilización extraterrestre de la galaxia. En verdad, recuerdo que, en el seminario en el que anunciaron su descubrimiento, denominaron a las primeras cuatro fuentes encontradas LGM 1-4, LGM refiriéndose a «Little Green Men» [hombrecillos verdes]. Al final, sin embargo, ellos y el resto de científicos llegaron a la conclusión menos romántica que estos objetos, a los que se les dio el nombre de pulsares, eran de hecho estrellas de neutrones en rotación, que emitían pulsos de ondas de radio debido a una complicada interacción entre sus campos magnéticos y la materia de su alrededor. Fueron malas noticias para los escritores de westerns espaciales, pero muy esperanzadoras para el pequeño grupo de los que creíamos en agujeros negros en aquella época: fue la primera evidencia positiva que las estrellas de neutrones existían. Una estrella de neutrones posee un radio de unos quince kilómetros, sólo una pequeña cantidad de veces el radio crítico en que una estrella se convierte en un agujero negro. Si una estrella podía colapsarse hasta un tamaño tan pequeño, no era ilógico esperar que otras estrellas pudieran colapsar a tamaños incluso menores y se convirtieran en agujeros negros.
¿Cómo podríamos esperar que se detectase un agujero negro, si por su propia definición no emite ninguna luz? Podría parecer algo similar a buscar un gato negro en un sótano lleno de carbón. Afortunadamente, hay una manera. Como John Michell señaló en su artículo pionero de 1783, un agujero negro sigue ejerciendo una fuerza gravitatoria sobre los objetos cercanos. Los astrónomos han observado muchos sistemas en los que dos estrellas giran en órbita una alrededor de la otra, atraídas entre sí por la gravedad. También observan sistemas en los que sólo existe una estrella visible que está girando alrededor de algún compañero invisible. No se puede, desde luego, llegar a la conclusión que el compañero es un agujero negro: podría ser simplemente una estrella que es demasiado débil para ser vista. Sin embargo, algunos de estos sistemas, como el llamado Cygnus X-1, también son fuentes intensas de rayos X. La mejor explicación de este fenómeno es que se está quitando materia de la superficie de la estrella visible. Cuando esta materia cae hacia el compañero invisible, desarrolla un movimiento espiral (parecido al movimiento del agua cuando se vacía una bañera), y adquiere una temperatura muy alta, emitiendo rayos X. Para que este mecanismo funcione, el objeto invisible tiene que ser pequeño, como una enana blanca, una estrella de neutrones o un agujero negro. A partir de la órbita observada de la estrella visible, se puede determinar la masa más pequeña posible del objeto invisible. En el caso de Cygnus X-1, ésta es de unas seis veces la masa del Sol, lo que, de acuerdo con el resultado de Chandrasekhar, es demasiado grande para que el objeto invisible sea una enana blanca. También es una masa demasiado grande para ser una estrella de neutrones. Parece, por lo tanto, que se trata de un agujero negro.

Existen otros modelos para explicar Cygnus X-1, que no incluyen un agujero negro, pero todos son bastante inverosímiles. Un agujero negro parece ser la única explicación realmente natural de las observaciones. A pesar de ello, tengo pendiente una apuesta con Kip Thorne, del Instituto Tecnológico de California, que ¡de hecho Cygnus X-1 no contiene ningún agujero negro! Se trata de una especie de póliza de seguros para mí. He realizado una gran cantidad de trabajos sobre agujeros negros, y estaría todo perdido si resultara que los agujeros negros no existen. Pero en este caso, tendría el consuelo de ganar la apuesta, que me proporcionaría recibir la revista Private Eye durante cuatro años. Si los agujeros negros existen, Kip obtendrá una suscripción a la revista Penthouse para un año.
Cuando hicimos la apuesta, en 1975, teníamos una certeza de un 80 por 100 que Cygnus era un agujero negro. Ahora, diría que la certeza es de un 95 por 100, pero la apuesta aún tiene que dirimirse.

En la actualidad tenemos también evidencias de otros agujeros negros en sistemas como el de Cygnus X-1 en nuestra galaxia y en dos galaxias vecinas llamadas las Nubes de Magallanes. El número de agujeros negros es, no obstante, casi con toda certeza muchísimo mayor; en la larga historia del universo, muchas estrellas deben haber consumido todo su combustible nuclear, por lo que habrán tenido que colapsarse. El número de agujeros negros podría ser incluso mayor que el número de estrellas visibles, que contabiliza un total de unos cien mil millones sólo en nuestra galaxia. La atracción gravitatoria extra de un número tan grande de agujeros negros podría explicar por qué nuestra galaxia gira a la velocidad con que lo hace: la masa de las estrellas visibles es insuficiente para explicarlo. También tenemos alguna evidencia que existe un agujero negro mucho mayor, con una masa de aproximadamente cien mil veces la del Sol, en el centro de nuestra galaxia. Las estrellas de la galaxia que se acerquen demasiado a este agujero negro serán hechas añicos por la diferencia entre las fuerzas gravitatorias en los extremos más lejano y cercano. Sus restos, y el gas que es barrido de las otras estrellas, caerán hacia el agujero negro. Como en el caso de Cygnus X-1, el gas se moverá en espiral hacia dentro y se calentará, aunque no tanto como en aquel caso. No se calentará lo suficiente como para emitir rayos X, pero sí que podría ser una explicación de la fuente enormemente compacta de ondas de radio y de rayos infrarrojos que se observa en el centro de la galaxia.

Se piensa que agujeros negros similares, pero más grandes, con masas de unos cien millones de veces la del Sol, existen en el centro de los quasares. La materia que cae en dichos agujeros negros súper masivos proporcionaría la única fuente de potencia lo suficientemente grande como para explicar las enormes cantidades de energía que estos objetos emiten. Cuando la materia cayera en espiral hacia el agujero negro, haría girar a éste en la misma dirección, haciendo que desarrollara un campo magnético parecido al de la Tierra. Partículas de altísimas energías se generarían cerca del agujero negro a causa de la materia que caería. El campo magnético sería tan intenso que podría enfocar a esas partículas en chorros inyectados hacia fuera, a lo largo del eje de rotación del agujero negro, en las direcciones de sus polos norte y sur. Tales chorros son verdaderamente observados en cierto número de galaxias y quasares.

También se puede considerar la posibilidad que pueda haber agujeros negros con masas mucho menores que la del Sol. Estos agujeros negros no podrían formarse por un colapso gravitatorio, ya que sus masas están por debajo del límite de Chandrasekhar: estrellas de tan poca masa pueden sostenerse a sí mismas contra la fuerza de la gravedad, incluso cuando hayan consumido todo su combustible nuclear. Agujeros negros de poca masa sólo se podrían formar si la materia fuera comprimida a enorme densidad por grandes presiones externas.

Tales condiciones podrían ocurrir en una bomba de hidrógeno grandísima: el físico John Wheeler calculó una vez que si se tomara toda el agua pesada de todos los océanos del mundo, se podría construir una bomba de hidrógeno que comprimiría tanto la materia en el centro que se formaría un agujero negro. (¡Desde luego, no quedaría nadie para poderlo observar!) Una posibilidad más práctica es que tales agujeros de poca masa podrían haberse formado en las altas temperaturas y presiones del universo en una fase muy inicial. Los agujeros negros se habrían formado únicamente si el universo inicialmente no hubiera sido liso y uniforme, porque sólo una pequeña región que fuera más densa que la media podría ser comprimida de esta manera para formar un agujero negro. Pero se sabe que deben haber existido algunas irregularidades, porque de lo contrario, hoy en día, la materia en el universo aún estaría distribuida perfectamente uniforme, en vez de estar agrupada formando estrellas y galaxias.

El que las irregularidades requeridas para explicar la existencia de las estrellas y de las galaxias hubieran sido suficientes, o no, para la formación de un número significativo de agujeros negros «primitivos», depende claramente de las condiciones del universo primitivo. Así, si pudiéramos determinar cuántos agujeros negros primitivos existen en la actualidad, aprenderíamos una enorme cantidad de cosas sobre las primeras etapas del universo. Agujeros negros primitivos con masas de más de mil millones de toneladas (la masa de una montaña grande) sólo podrían ser detectados por su influencia gravitatoria sobre la materia visible, o en la expansión del universo. Sin embargo, como aprenderemos en el siguiente capítulo, los agujeros negros no son realmente negros después de todo: irradian como un cuerpo caliente, y cuanto más pequeños son, más irradian. Así, paradójicamente, ¡los agujeros negros más pequeños podrían realmente resultar más fáciles de detectar que los grandes!.


Capítulo 6
Breve Historia del Tiempo de Stephen W. Hawking

domingo, 25 de enero de 2009

POEME ELECTRONIQUE



El 17 de abril de 1958 el rey Balduino I de Bélgica inauguró la Exposición Universal de Bruselas, la primera celebrada después de la Segunda Guerra Mundial. El legado más importante de esta feria mundial se resume en dos obras artísticas, ambas conscientemente hijas de su tiempo.

La primera de ellas es el Atomium, un edificio-escultura-monumento que representa la estructura cristalina elemental del hierro (cúbica centrada en el cuerpo).

La segunda obra es también un edificio… y algo más. Uno de los pabellones de esta exposición fue el de la compañía holandesa de componentes y electrónica de consumo Philips. Philips también ha sido uno de los sellos discográficos más importantes de la música clásica. En su edificio se encargó de que la arquitectura y la música estuvieran enlazadas de forma especial. Louis Kalff, el responsable del departamento artístico de la compañía, no quería que el edificio fuese una simple muestra de los productos fabricados por la empresa, sino un espectáculo audiovisual en el que se pudiera vislumbrar qué es lo que la tecnología podía decir en el futuro dentro del mundo del arte. Para ello, buscó a dos figuras punteras en la vanguardia en dos campos artísticas: el arquitecto francés de origen suizo Le Corbusier y el compositor francés emigrado a Estados Unidos Edgard Varèse. A ellos hay que añadir una tercera persona, ejemplo perfecto de la unión de ambos mundos, el arquitecto, ingeniero y compositor griego Iannis Xenakis, que en aquella época trabajaba en el estudio de Le Corbusier, puesto que fue Xenakis quién aportó la idea sobre la que se basaba la forma externa del Pabellón Philips.

El diseño de Xenakis para el Pabellón Philips se basaba en una de sus estructuras matemáticas favoritas, el paraboloide hiperbólico, también es conocido por el nombre más familiar de silla de montar, debido al gran parecido que tiene su forma con la de ese objeto.

El paraboloide hiperbólico es una superfice curva de la familia de las cuádricas.

En el interior se podía ver y oír una obra de Varèse y Le Corbusier (el primero creó la banda sonora, el segundo las imágenes): Poème électronique (Poema electrónico). ¡Qué mejor nombre para algo que estaba dentro de un edificio construido por una empresa dedicada a la electrónica.

Las imágenes se proyectaban en las superficies curvadas de las paredes del edificio, mientras que los sonidos provenían de unos 400 altavoces distribuidos alrededor del público. La grabación multipista de música estaba preparada para que los visitantes experimentaran una verdadera espacialización del sonido y se vieran envueltos en él. Esto, en el año 1958 era de lo más novedoso.

Durante unos 8 minutos, Le Corbusier yuxtapone imágenes de toros y toreros, figuras y elementos de varias religiones y creencias, máscaras rituales, animales actuales y prehistóricos, cráneos de diferentes especies, imágenes bélicas y de desastres humanitarios, etc. Todas ellas para relacionar tres elementos: la vida, la muerte y lo que hay antes de la primera y después de la segunda, si es que hay algo. Así, en conjunción con la música y el propio edificio, los tres artistas logran que el más humano de los temas (la vida y la muerte) y el futuro de los habitantes del planeta se unan en un mismo espacio (el pabellón) y tiempo (1958).

La música de Varèse que acompaña a las imágenes es algo que el propio compositor estuvo anhelando durante toda su vida. Desde sus inicios, Varèse intentó no limitarse a los instrumentos tradicionales de la orquesta, queriendo crear nuevos sonidos más en concordancia con el nuevo siglo (el XX). Todas las épocas han producido un desarrollo en los instrumentos, evolución que no tuvo problemas para poder entrar en las formaciones musicales. Desde el piano hasta la flauta, pasando por el saxofón y las trompas, todos los instrumentos han evolucionado (o han sido inventados) para producir los sonidos más fácilmente, con más precisión y con más posibilidades dinámicas y de articulación. Varèse quiso que su época produjera sus propios nuevos instrumentos y, así, fue probando todo lo que encontraba, a veces nuevos instrumentos (por ejemplo, el theremin en Ecuatorial, luego sustituidos por las ondas martenot), a veces nuevas formas de utilizar los ya existentes (la percusión en Ionisation), a veces empleando objetos que no estaban pensados como instrumentos musicales (la sirena de, una vez más, Ionisation).

Su particular Santo Grial llegó en forma de válvulas, diodos, transistores, cables y cintas magnéticas: la creación electrónica de sonidos y su procesado y manipulación, al igual que la grabación y tratamiento posterior de elementos pregrabados, con el control que le permitía la tecnología, le permitía alcanzar esa “nuevo mundo musical” que era su objetivo. Así, entre 1950 y 1954 compone una de sus indiscutibles obras maestras, Déserts (Desiertos), donde por primera vez, mezcla a 20 instrumentas (14 de viento, 1 piano y 5 percusionistas) con un cinta magnética de 2 pistas.

Pero es en Poème électronique, la que será su última obra, donde elimina por completo a los instrumentistas, para dejar como solista a la grabación de sonidos electrónicos, naturales y música concreta.

La grabación, mezcla y procesado los hizo el propio Varèse y se realizó en los Laboratorios Philips de Eindhoven (como no podía ser de otra manera), utilizando para ello una cinta de 4 pistas (otras fuentes consultadas hablan de 3). Sobre ella, Varèse pudo organizar los diferentes sonidos que había escogido, llevando a la práctica hasta sus ultimas consecuencias la definición que él mismo daba a la música: un conjunto de sonidos organizados.

A Varèse le hacía muy poca gracia los caprichos de los intérpretes musicales, tan tendentes al divismo y el egocentrismo. Él pensaba que quitándoselos de encima, el control que él ejercería sobre su obra sería mayor que antes. Y, más o menos, eso era cierto, pero esas actitudes las volvió a encontrar en los ingenieros de sonido, a los que el mismo llamó cómicamente ingenieros prima-donnas, como recuerda el Profesor Chou Wen-chung, amigo y colaborador del compositor.

Poème électronique utiliza diferentes fuentes sonoras de la misma manera en que las imágenes funcionan en la proyección, esto es, yuxtaponiéndolas: sirenas que van cambiando su tono de forma continua, percusiones, sonidos electrónicos que configuran ritmos, campanas que resuenan gracias a una enorme reberveración, voces humanas que cantan o que hablan, cantos de pájaros, órganos, sonidos de la selva, sonidos industriales, distorsiones, ecos, todo un cúmulo de experiencias auditivas que pueden parecer colocadas sin orden ni concierto, pero no es así. Varèse no empleó nunca la aleatoriedad en sus obras; todo lo contrario, ejercía un férreo control sobre su desarrollo. Si están atentos, verán que la pieza tiene su propio tempo, a veces rápido, a veces lento, en ocasiones parándose (de hecho existe un gran silencio que la divide en dos partes).

Evidentemente, poner por escrito este tipo de música da como resultado algo distinto a las partituras más ortodoxas.

Varése no sólo organiza los sonidos en el tiempo, sino también en el espacio, lo que es igualmente importante en este caso. Los 400 altavoces que estaban instalados en el interior del pabellón no sólo permitían que el sonido llegara “de todas partes”, sino que permitió que Varése creara “rutas de sonido”, esto es, que los propios sonidos fueran viajando de un sitio a otro del edificio, creando en el público una plena sensación de inmersión acústica, un completo entorno de 360º, lo que en su momento debió ser bastante impactante.

Lógicamente, entre cada dos proyecciones de Poème électronique hay un tiempo en el que el público sale del pabellón y entra uno nuevo. Ese espacio temporal de 2 minutos también tenía su propia obra musical electrónica. Esta vez, el compositor fue el propio Xenakis y la obra, que no era más que un pequeño interludio electrónico, se llamaba Concrète PH, haciendo referencia al material con que se construyó el pabellón (concrète = hormigón) y, de paso, a la música concreta, y también a la estructura matemática que daba forma al edificio (PH viene del francés Paraboloïde Hyperbolique). El punto de partida era el sonido de un carbón ardiendo, sobre el que Xenakis crea varias capas de diferente densidad con chasquidos y chisporroteos.

Si bien el Atomium todavía se alza en Bruselas (de hecho, acaba de ser restaurado en todo su esplendor), el Pabellón Philips fue derribado al finalizar la Exposición Universal, como otros tantos edificios de dicha feria, por lo que hoy es imposible disfrutar de la obra tal y como fue ideada.



Retroklang

miércoles, 21 de enero de 2009

EL VALOR DE UN SUEÑO


Se considera al soñador como un ser estúpido. Soñador aquel que cree en cosas que los demás y hasta el sentido común las han desechado por no ser reales. Soñador aquel que guía su vida a base de ideas que la soledad de la noche le hizo conocer.

Soñar es el lenguaje que utiliza el destino para comunicar a una raza especial de seres humanos que el camino es aún mucho más extenso que el que los ojos alcanzan a divisar. Soñar es vivir el futuro antes, sin tener la certeza que el sueño ya hecho realidad se lo alcanzará a ver plasmado en el teatro de la vida.

Un Soñador pensó que el mundo era redondo y la gente lo consideró loco. Pero su sueño siguió adelante; una soñadora le creyó y así compartieron el sueño llamado América.

Otro soñador pensó que la Luna era una empresa fácil de alcanzar, se vio en ella, caminó y viajó; esto, muchos años antes que los americanos aterrizaran en el Mar de la Tranquilidad.

Todo sueño implica una lucha con todos, contra el destino, contra la adversidad, contra lo evidente. Los sueños no respetan edad, leyes, estados ni personas. No miden circunstancias ni ocasiones. Fue así que Dios utilizó un sueño para comunicar a María que iba a ser madre del hijo de Dios; o a los reyes para que no volvieran por el camino andado; o a Jesús en Getsemaní para ver lo que iba a ser su calvario; y aún así, no lo impidieron. Porque para los soñadores, estos no son tales, sino verdades por ser entendidas.

Es así como un sueño se transforma en norte, luz y camino; en deseo, esperanza, en pocas palabras, un motivo para vivir.

El soñador no se rinde, no claudica, persevera, no transige. El sueño es su arma para la batalla.

El soñador sabe que su camino no es fácil y eso lo hace diferente. Porque el sueño para ser tal no debe ser una proyección de la historia. Debe de ser lo imposible, lo inaudito, lo prohibido.

El soñador no espera nunca que sus sueños se cumplan, trabaja por ellos incansablemente, porque los grandes sueños, los que dan vida, sólo tienen la recompensa en lo infinito, en el cielo de los soñadores, en lo eterno de sus ideas y en lo intangible de sus realidades.

Desdichado aquel que en la vida no ha tenido un sueño; o no ha creído en él; o no ha luchado por conseguirlo, porque habrá vivido en vano.


Ramiro Cepeda Alvarado

lunes, 19 de enero de 2009

EL EFECTO MARIPOSA Y LA TEORIA DEL CAOS


"El aleteo de las alas de una mariposa se puede sentir al otro lado del mundo".


La teoría de las estructuras disipativas, conocida también como teoría del caos, tiene como principal representante al químico belga Ilya Prigogine, y plantea que el mundo no sigue estrictamente el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos. El observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí, y un ejemplo típico el clima. Los procesos de la realidad dependen de un enorme conjunto de circunstancias inciertas, que determinan por ejemplo que cualquier pequeña variación en un punto del planeta, genere en los próximos días o semanas un efecto considerable en el otro extremo de la tierra. La idea de caos en la psicología y en el lenguaje.


1. Efecto mariposa y caos matemático

Empezaremos con la parte anecdótica de la teoría del caos, el famoso "efecto mariposa" Es decir, comenzaremos a investigar el iceberg a partir de su punta visible que, como sabemos, es apenas una mínima fracción del total.

En principio, las relaciones entre causas y efectos pueden examinarse desde dos puntos de vista: cualitativo y cuantitativo. Desde la primera perspectiva, las relaciones causa-efecto pueden ser concebidas de varias maneras: a) como vínculos unidireccionales: A causa B, B causa C, etc., pero los efectos resultantes no vuelven a ejercer influencia sobre sus causas originales; b) como eventos independientes: según esta concepción, no habría ni causas ni efectos: cada acontecimiento ocurriría al azar e independientemente de los otros; c) como vínculos circulares: A causa B, y B a su vez causa A, es decir, el efecto influye a su vez sobre la causa, como resultado de los cual ambos acontecimientos son a la vez causas y efectos. Se trata de los llamados circuitos de retroalimentación, que pueden ser negativos o positivos.

La teoría del caos, en la medida en que considera que existen procesos aleatorios, adopta la postura (b), pero en la medida en que dice que ciertos otros procesos no son caóticos sino ordenados, sostiene que sí, que existen vínculos causales. Los vínculos causales que más desarrollará son los circuitos de retroalimentación positiva, es decir, aquellos donde se verifica una amplificación de las desviaciones: por ejemplo, una pequeña causa inicial, mediante un proceso amplificador, podrá generar un efecto considerablemente grande. No nos alarmemos. Esto lo iremos aclarando poco a poco.

Desde el punto de vista cuantitativo, las relaciones entre causa y efecto pueden ser categorizadas de diferente manera. Examinemos una de ellas, lo que nos servirá como puerta de entrada para ingresar en la teoría del caos.


2. Causa-efecto: relaciones cuantitativas

Si examinamos las posibles relaciones cuantitativas que pueden existir entre causas y efectos, las alternativas podrían ser las siguientes:

1) Causas y efectos son razonablemente proporcionales: pequeñas causas producen pequeños efectos, y grandes causas grandes efectos (como cuando decimos que, dentro de cierto espectro de variabilidad, cuanto mayor es la frustración mayor será la respuesta agresiva, siendo ambas variaciones razonablemente proporcionales); 2) Una causa pequeña produce un gran efecto (como cuando un comentario intrascendente desata una crisis psicótica); 3) Una causa grande produce un pequeño efecto (como cuando una interpretación nuclear que apunte directamente al conflicto patógeno infantil, genera una respuesta indiferente en el paciente).

Los seres humanos tendemos inevitablemente a creer en alguno de estos supuestos en la vida cotidiana, y por motivos muy diversos. Detrás de toda creencia hay un deseo, que es quien le da su intensidad, su persistencia, su razón de ser. Así, la creencia en una desproporción causa-efecto del caso 2 oculta un deseo de poder: la ilusión de que con muy poco se puede lograr mucho. Está en la base de muchas supersticiones (la posesión de un simple amuleto garantiza nada menos que felicidad). De modo parecido, la creencia en una proporcionalidad razonable entre causa y efecto del caso 1 podría protegernos de la incertidumbre: sabemos seguro que después de la causa vendrá un efecto esperado y controlable, y no hay lugar para sorpresas desagradables. Así también, la creencia en una desproporción como la del caso 3 puede esconder la ilusión de aliviar culpas propias: si me esfuerzo mucho por ayudar a quien hice daño -causa grande-, lograré tranquilizarme sólo un poco -efecto pequeño- (aunque no mucho, porque ?debo? sufrir por el daño hecho).

Examinemos algunos ejemplos donde causas pequeñas producen grandes efectos, que es uno de los campos fértiles donde han germinado la teoría del caos y su efecto mariposa. Este listado de ejemplos no pretende ser exhaustivo sino representativo, y varios de estos ejemplos responden en realidad a los mismos mecanismos.


3. Causas pequeñas, grandes efectos

El sentido común prescribe una cierta proporción entre la causa y el efecto: una fuerza pequeña produce un movimiento pequeño, y una fuerza grande, un gran desplazamiento. El psicoanálisis invoca la misma idea para justificar la idea de que una terapia breve produce pequeños cambios, y de que un tratamiento prolongado genera cambios más importantes.

Sin embargo, ciertas experiencias cotidianas y determinados planteos científicos nos obligan a considerar la posibilidad de algunas excepciones de aquellas impresiones subjetivas que habitan nuestra mente de físicos o psicólogos aficionados, tan acostumbrada a transitar la siempre útil, pero también la siempre peligrosa navaja de Occam, que todo lo simplifica. Examinemos entonces algunos ejemplos de desproporción cuantitativa -aparente o no- entre causas y efectos:

a) Efecto palanca: más allá de la metáfora, si uno tiene alguna palanca puede conseguir muchas cosas: "dadme una palanca y moveré el mundo", había dicho el griego. Un simple movimiento de palanca es una causa pequeña, pero puede producir grandes efectos. Las palancas, así como las poleas o las prensas hidráulicas, son dispositivos capaces de multiplicar varias veces un efecto, con el consiguiente ahorro de esfuerzo muscular.

b) Efecto gota de agua: Si agregamos una simple gota de agua al líquido contenido en un recipiente, este se derrama produciendo un efecto catastrófico sobre nuestro zapatos. Una gota más que agreguemos en la tortura china de la gota de agua que horada la piedra, producirá la insanía de quien la recibe. Una simple interpretación más, como al pasar, puede producir en el paciente un notable efecto de insight, en comparación con la aparente nimiedad de lo interpretado. Desde una lógica dialéctica, el efecto gota de agua es el producto de una acumulación cuantitativa que desemboca en un salto cualitativo.

c) Efecto interacción experimental: Descripto en algunos diseños experimentales, donde la acción conjunta de dos variables, lejos de producir un simple efecto sumativo, pueden generar un efecto inesperadamente mayor (o menor). Pequeñas cantidades de alcohol y de droga, combinadas entre sí, pueden producir un efecto desmesurado: el coma o la muerte.

d) Los fenómenos de cismogénesis descriptos por Gregory Bateson, y las escaladas simétricas o las "escapadas" mencionadas por Paul Watzlawick (b), todos fenómenos interpretables en términos de mecanismos de retroalimentación positiva. Un ejemplo es la escalada bélica, donde el país A se arma en previsión de un ataque del país B. El país B advierte esto y a su vez aumenta su armamento, con lo que el país A vuelve a aumentar su arsenal y así sucesivamente, creciendo cada vez más la situación en forma descontrolada. Esto revela que una pequeña causa (el país A que comenzó comprando tres tanques más) genera una situación internacional que bordea la catástrofe.

e) Von Bertalanffy, el mentor de la Teoría General de los Sistemas, describe la existencia de mecanismos amplificadores donde pequeñas causas generan grandes efectos (73, 223). Al respecto, cita un distinción entre causalidad de "conservación", donde hay una proporcionalidad razonable entre las intensidades de la causa y el efecto, y la causalidad de "instigación", donde la causa actúa como instigadora o disparadora, es decir, un cambio energéticamente insignificante provoca un cambio considerable en el sistema total.

f) Series complementarias: Hemos ya citado un ejemplo donde un factor desencadenante pequeño puede desatar clínicamente una psicosis o una neurosis, o puede sumir a una persona en una profunda crisis. La razón, según el psicoanálisis, debemos buscarla en el peso relativo que tiene cada elemento de la constelación de los factores que constituye la serie: si el factor constitucional y el factor disposicional (experiencias infantiles) son altamente propicios para configurar un cuadro neurótico, basta un muy pequeño factor desencadenante para que la sintomatología aparezca.

g) La conversión masa-energía: Según lo prescribe el principio de equivalencia masas-energía de Einstein, una pequeñísima porción de masa, bajo ciertas condiciones puede liberar enormes cantidades de energía. Ya en la física pre-einsteniana también se hablaba se cosas parecidas, en el contexto del concepto de energía potencial: una pequeña causa (soltar una piedrita a 3000 metros de altura), produce un efecto desastroso sobre la cabeza del que está abajo, considerando que la aceleración aumenta según la ley de la gravitación y sin considerar los efectos de rozamiento del aire.

h) Efecto mariposa.- Tal como fuera descripto originalmente en la meteorología, suele expresarse en frases del siguiente tipo: "El aleteo de una mariposa que vuela en la China puede producir un mes después un huracán en Texas" (¿tal vez una metáfora de la expansión económica japonesa en detrimento del capitalismo occidental?). Otros ejemplos podrían ser el efecto que produce en el mercado bursátil mundial el simple resfrío de un presidente, y también Einstein dijo lo suyo, aunque fue más romántico: "Hasta la más pequeña gota de rocío caída del pétalo de una rosa al suelo, repercute en la estrella más lejana".

Tales categorías de fenómenos tiene tres aspectos susceptibles de ser analizados separadamente: a) por un lado alude a una situación donde pequeñas causas generan grandes efectos, b) por otro lado alude a una situación que no podemos predecir: sabemos que el efecto puede ser muy grande, pero no podemos saber en que consistirá, ni muchas veces cuándo, dónde o cómo ocurrirá; y c) en tercer lugar alude a una situación de descontrol: muchas veces no podemos ejercer un control de la influencia de la causa sobre el efecto. Más concretamente, no sólo no podemos evitar que una mariposa aletee en la China, sino, y lo que es peor, no podemos avitar que, de aletear, se produzca un huracán en Texas. La imposibilidad de ejercer este control está relacionada con la imposibilidad de predecirlo, aunque no necesariamente: podemos predecir un eclipse, pero no podemos controlar su ocurrencia o no ocurrencia.
Recorreremos ahora los antecedentes de la teoría del caos y su relación con la matemática.


4. Poincaré: un precursor

Ya en 1908, el matemático francés Henri Poincaré (1854-1912) había ensayado con sistemas matemáticos no lineales, habiendo llegado a ciertas conclusiones que, andando el tiempo, habrían que ser un importante antecedente histórico y conceptual de la teoría del caos.

Poincaré partió del esquema laplaceano según el cual, si conocemos con exactitud las condiciones iniciales del universo, y si conocemos con exactitud las leyes naturales que rigen su evolución, podemos prever exactamente la situación del universo en cualquier instante de tiempo subsiguiente. Hasta aquí, todo bien, pero ocurre que nunca podemos conocer con exactitud la situación inicial del universo, y siempre estaríamos cometiendo un error al establecerla. En otras palabras, la situación inicial del universo sólo podemos conocerla con cierta aproximación. Aún suponiendo que pudiéramos conocer con exactitud las leyes que rigen su evolución, nuestra predicción de cualquier estado subsiguiente también sería aproximada. Hasta aquí tampoco habría problema y podríamos seguir manteniendo el esquema determinista ya que lo aproximado de nuestras predicciones no serían adjudicables a un caos en la realidad sino a una limitación en nuestros conocimientos acerca de las condiciones iniciales. Efectivamente, los deterministas alegan que no es que los acontecimientos sean imprevisibles, sino que simplemente aún no hemos descubierto las leyes que permitan preverlos. Dicho sea de paso, a esto se opondrá Prigogine: el caos es imprevisible por naturaleza, puesto que para preverlo sería necesaria una cantidad infinita de información.

Sin embargo, Poincaré jugará con una hipótesis que le sugirieron ciertos sistemas matemáticos especiales: dirá que un pequeño error en las condiciones iniciales, en vez de provocar también un pequeño error en las últimas, provocaría un error enorme en éstas, con lo cual el fenómeno se vuelve impredecible y entonces lo adjudicamos al azar. Desde ya, este efecto multiplicativo del error no es debido a nuestra ignorancia o a nuestro limitado conocimiento de lo real, sino a la misma configuración de la realidad, que admite ese tipo de evoluciones erráticas. En una mesa de billar con forma cuadrada, podemos predecir la trayectoria de una bola arrojada contra una banda, pero...lo mismo no ocurre así si la mesa tiene forma de estadio. En este caso, la trayectoria se torna impredecible.


5. Lorenz: la perplejidad de una meteorólogo

El efecto descripto por Poincaré se reactualiza en la década del ?60, por obra y gracia del meteorólogo y matemático norteamericano Edward Lorenz. Su perplejidad tenía mucho que ver con la imposibilidad de pronosticar fenómenos climáticos más allá de un cierto número de días, y no era para menos, toda vez que lo que uno espera de un meteorólogo son, precisamente, predicciones acertadas. A comienzos de la década del ?60, Lorenz se puso a elaborar un modelo matemático para predecir fenómenos atmosféricos, y por casualidad descubrió que la misma herramienta matemática que utilizaba estaba fallando: pequeños cambios en las condiciones iniciales producian diferencias asombrosas (léase inesperadas, impredecibles) en el resultado, con lo cual las predicciones meteorológicas a mediano o largo plazo resultaban imposibles. La tradicional certeza de la matemática no podía compensar la tradicional incertidumbre de la meteorología, ya que el virus de la incertidumbre había invadido el mismísimo cuerpo de la madre de las ciencias exactas.

Si la misma matemática permite que de pequeños cambios iniciales se produzcan al final grandes cambios, entonces toda otra ciencia que, como la meteorología, intente fundarse en la matemática, habrá de pronosticar grandes catástrofes a partir de pequeñas alteraciones ambientales. Fue así que nace el ?efecto mariposa?, que habla de pequeños cambios (el aleteo de una mariposa en Pekín) con grandes consecuencias (un huracán en Arizona).


6. El caos invade otras ciencias

La obra de Lorenz estimuló nuevas investigaciones sobre la cuestión, y dio lugar finalmente a la creación de un nuevo campo matemático: la teoría del caos, cuyo ejemplo más manoseado es el que relaciona invariablemente insectos lepidópteros con países orientales y occidentales.

Si un fenómeno como el descripto no puede predecirse, ello puede deberse en principio y como mínimo a una de tres razones: a) la realidad es puro azar, y no hay leyes que permitan ordenar los acontecimientos. En consecuencia: resignación. b) la realidad está totalmente gobernada por leyes causales, y si no podemos predecir acontecimientos es simplemente porque aún no conocemos esas leyes. En consecuencia: tiempo, paciencia e ingenio para descubrirlas. c) En la realidad hay desórdenes e inestabilidades momentáneas, pero todo retorna luego a su cauce determinista. Los sistemas son predecibles, pero de repente, sin que nadie sepa muy bien porqué, empiezan a desordenarse y caotizarse (periodo donde se tornarían imposibles las predicciones), pudiendo luego retornar a una nueva estabilidad. En consecuencia: empezar a investigar porqué ocurren estas inestabilidades, porqué el orden puede llevar al caos y el caos al orden y, eventualmente, si pueden crearse modelos para determinar, un poco paradójicamente, si dentro del mismo caos hay también un orden. La tercera solución fue la elegida por quienes desde entonces en más concentraron sus neuronas en la teoría del caos, y ello en las más diversas disciplinas científicas.

Estas investigaciones comenzaron en la década del 70: los fisiólogos empezaron a investigar porqué en el ritmo cardíaco normal se filtraba el caos, produciendo un paro cardíaco repentino; los ecólogos examinaron la forma aparentemente aleatoria en que cambiaban las poblaciones en la naturaleza; los ingenieros concentraron su atención en averiguar la razón del comportamiento a veces errático de los osciladores; los químicos, la razón de las inesperadas fluctuaciones en las reacciones; los economistas intentaron detectar algún tipo de orden en las variaciones imprevistas de los precios. Poco a poco fue pasando a un primer plano el examen de ciertos otros fenómenos tan inherentemente caóticos y desordenados que, al menos en apariencia, venían a trastocar la imagen ordenada que el hombre tenía del mundo: el movimiento de las nubes, las turbulencias en el cauce de los ríos, el movimiento de una hoja por el viento, las epidemias, los atascamientos en el tránsito de vehículos, los a veces erráticos dibujos de las ondas cerebrales, etc.
Un ejemplo bastante elocuente y bien doméstico es la progresión del humo de un cigarrillo. Este humo no newtoniano comienza subiendo y siguiendo un flujo laminar suave (un ?hilito? de humo que sube) pero de repente se quiebra generándose un flujo turbulento (las ?volutas?): del orden hemos pasado misteriosamente al caos. Existe un recurso matemático (d) que permite predecir cuándo ocurrirá esta turbulencia (la fórmula de Reynolds), pero sin embargo no sirve para aclarar porqué ocurre. Estamos, al respecto, como los antiguos, que podían predecir la trayectoria del sol en el cielo pero no sabían a qué se debía (y entonces invocaban o bien razones fundadas en la mitología o bien en las apariencias, como afirmar que el movimiento del sol es real, cuando hoy sabemos que es aparente, ya que es un efecto generado por la rotación de la tierra).


7. Caos en la matemática y la psicometría

Lorenz, hemos dicho, había detectado sistemas caóticos dentro mismo de la matemática al advertir que pequeñas variaciones iniciales generaban grandes cambios en el resultado. Investigaciones posteriores en esta misma disciplina fueron revelando nuevos aspectos de la misma cuestión. Tomemos dos ejemplos en los cuales pueden advertirse situaciones aparentemente caóticas, siempre dentro del dominio de la matemática.

Ejemplo 1) En 1976, el físico norteamericano Mitchell Feigenbaum advirtió que cuando un sistema ordenado comienza a evolucionar caóticamente, a menudo es posible encontrar una razón específica de la misma: una figura cualquiera se dobla una y otra vez y va complejizándose progresivamente.

El ejemplo típico son los fractales, estructuras geométricas donde cada parte es una réplica del todo. El ejemplo más sencillo (si bien no es de Feigenbaum sino que corresponde al llamado conjunto de Cantor) es un segmento de recta (elemento de partida o iniciador) que se divide en tres partes iguales. Quitamos el segmento central y unimos los dos restantes, y con cada uno de estos últimos repetimos la operación indefinidamente, hasta que el segmento original queda subdivido en segmentos cada vez más pequeños, que son una réplica del segmento mayor (cada parte es una réplica del todo).

Feigenbaum descubrió también que, luego de cierto número de operaciones de doblaje (en el ejemplo, de dividir el segmento en tres y separar el central uniendo el resto), el sistema adquiere cierto tipo de estabilidad. Esa constante numérica, llamada el número de Feigenbaum, puede aplicarse a diversos sistemas caóticos, incluso los que aparecen en la naturaleza, como podría ser el crecimiento de las hojas en un árbol, o el despliegue de un relámpago. Todo estos fenómenos parecen en principio caóticos, pero mediante el modelo de Feigenbaum puede descubrirse en ellos una regularidad que estaba oculta.

Ejemplo 2) La iteración es un proceso por el cual hacemos una operación, obtenemos un resultado, a este resultado volvemos a aplicarle la misma operación, y así sucesivamente. Por ejemplo a 1 le sumo 1 y obtengo 2. Al resultado 2 vuelvo a sumarle 1 y obtengo 3, y así en forma iterativa (es decir, repetitiva). Otro ejemplo puede ser el siguiente: partimos del número 16 y vamos dividiéndolo por 2 en forma iterativa, con lo cual obtendremos sucesivos resultados que son: 8, 4, 2, 1, 1/2, 1/4, 1/8, etc., El conjunto de todos estos resultados se llama ?órbita? del número 16, que había sido nuestro número de partida. Esta serie orbital es ostensiblemente predecible, o si se quiere hay un orden evidente: los sucesivos números van adquiriendo valores decrecientes, ya que cada nuevo orbital resulta ser la mitad del orbital anterior:


Número de partida
(Elemento iniciador)

Operación a realizar
(Elemento generador)

Orbital de X

X = 16

X / 2 =

8 4 2 1 1⁄2 1⁄4 1/8 ?
Predecible

X = 0.5

{ X . (1-X) } . 4 =

1 0 0 0 0 0 0 ?
Predecible

X = 0.3

{ X . (1-X) } . 4 =

0.84 0.53 0.99 0.02 0.08 0.32 0.87 0.43 0.98 ?
Impredecible


También la serie orbital será predecible si tomamos como número de partida el 0.5 y le aplicamos la operación indicada en el esquema. Sin embargo, las sorpresas aparecen cuando intentamos tomar como número de partida por ejemplo 0.3, aplicando la misma operación. La órbita así obtenida se manifiesta como impredecible: no se trata de una serie ni creciente, ni decreciente, ni presenta ningún tipo de uniformidad: es una serie caótica, al menos en apariencia, como el lector puede constatar en el esquema o bien recurriendo a una calculadora electrónica. Es la misma situación que podemos constatar en los sucesivos decimales de números como ?pi?, que van apareciendo sin ningún orden detectable, pero que se ?explican? a partir del cociente entre la longitud de la circunferencia y su diámetro.
Lo que más había llamado la atención de los matemáticos es el hecho de que, en el caso de números de partida situados entre 0 y 1, algunos de ellos daban órbitas caóticas, mientras que otros daban órbitas predecibles. En otras palabras, el sistema es a veces altamente sensible a sus valores iniciales (es decir, los valores subsiguientes son fácilmente predecibles a partir de los valores iniciales de la serie orbital), y otras veces no (órbita caótica). La teoría del caos en la matemática intenta así explicar porqué o cómo este tipo de sistemas pueden pasar de procesos predecibles a otros caóticos conforme vamos variando los números de partida.
Caben hacer algunas objeciones a estos ejemplos invocados por los matemáticos para ilustrar la presencia de procesos caóticos nada menos que en la ciencia del orden por excelencia.

El lector habrá podido advertir que las series orbitales resultantes de operaciones recursivas como las expuestas, presentan una semejanza con las pruebas de completamiento de series en los tests de matrices progresivas del tipo Raven. En esas pruebas, el sujeto tiene que completar una serie a partir del descubrimiento de un orden escondido en la secuencia. Es como si dijésemos: "En la serie 1, 3, 5, 7..., ¿qué número viene después del 7?". El sujeto responderá "9" porque ha entendido que hay un orden: cada número es el resultado de sumar dos unidades al anterior (x+1=x?).

Supongamos ahora que las pruebas van complicándose cada vez más, y ofrecemos al sujeto la serie 0.84, 0.53, 0.99, etc., que figura como tercer ejemplo en nuestro esquema. En el mejor de los casos, podrá descubrir la fórmula recursiva correspondiente, hacer los cálculos sobre la base del último número de la serie ofrecido en el test, y a partir de allí inferir el número siguiente. Bien podemos decir que el sujeto ha descubierto el orden subyacente tras el caos aparente. Por lo tanto, el caos al que se refieren los matemáticos no sería tal: la misma operación recursiva se constituye en el factor ordenador de la serie aparentemente caótica.
A nuestro entender, la auténtica perplejidad pasaría por comprobar el hipotético caso donde una serie comienza con una secuencia caótica de números, y en determinado momento se transforma en una serie ordenada, por ejemplo, decreciente de tres en tres decimales hasta llegar a cero (del caos al orden). O al revés, donde la serie comienza ordenadamente y de repente se inicia otra serie que es percibida como azarosa (del orden al caos). Estos cambios serían verdaderamente sorprendentes, y son los cambios que verificamos en los fenómenos naturales, algunos de los cuales ya mencionamos, de aquí que no puedan trazarse comparaciones del tipo que estamos examinando entre series matemáticas y fenómenos naturales. En el caso del humo del cigarrillo, pasábamos del orden al caos, así como también podemos encontrar ejemplos del proceso inverso, como la biogénesis, es decir, el nacimiento de vida a partir de un caos inicial de moléculas y radiación solar en el océano primitivo. Este pasaje del caos al orden no es otra cosa que el ?misterio? de la vida, mientras que el pasaje inverso, del orden al caos, es el otro ?misterio? que intentará resolver la teoría del caos. El pensamiento de Ilya Prigogine ocupa aquí un lugar central, y lo examinaremos a continuación, tras una breve referencia a dos modelos de universo.


8. Dos modelos de universo

El siglo XX ha sido testigo de dos modelos teóricos del universo: la teoría determinista por un lado, y la teoría del caos por el otro.
a) La teoría determinista está representada por Newton, Laplace y otros pensadores del siglo 17 en adelante, y nuestro siglo encontró en Einstein un digno representante de esta orientación. Uno de los voceros más autorizados de la misma es el matemático René Thom, un persistente crítico de la teoría del caos, y de Prigogine en particular.

Según el determinismo, el universo funciona como un reloj, donde no existe lugar para el azar y donde todo está determinado inexorablemente por las eternas leyes de la naturaleza. Esto implica la posibilidad de poder predecir cualquier situación B, conociendo la situación anterior A y las leyes naturales que rigen el proceso que va desde A hasta B.

Desde ya, hay casos donde no son posibles las predicciones, sobre todo cuando incursionamos en el territorio de lo infinitamente pequeño de las partículas sub-atómicas, pero esto no ocurre porque en la realidad reine el azar, sino simplemente porque aún no hemos descubierto las leyes que rigen esos procesos. Los deterministas reemplazan así la resignación por la ignorancia, es decir, no se resignan a aceptar el azar en lo real, y lo consideran como el producto de nuestro desconocimiento de las causas naturales. De hecho, muchas veces en la vida diaria, cuando no podemos saber a qué se debe tal o cual fenómeno, solemos adjudicarlo al azar, cuando en realidad, según los deterministas, tal desconocimiento sólo se debe a nuestros aún limitados conocimientos.

Un ejemplo típico es el tiro de una moneda. Si es verdad que, conociendo las condiciones iniciales del proceso (la moneda mientras la sostengo en la mano antes de tirarla), y conociendo las leyes físicas que rigen dicho proceso (la ley de la gravitación, los coeficientes aerodinámicos, etc.), entonces deberíamos poder predecir con absoluta certeza si la moneda caerá cara o caerá ceca.
Thom, en su calidad de representante del determinismo, sostiene que si los físicos no pueden prever el resultado cara o el resultado ceca con seguridad total, no es porque ello sea imposible, sino porque el experimento sería muy difícil y costoso, ya que la previsión es teóricamente posible si el investigador controlara en forma lo suficientemente precisa las condiciones iniciales del lanzamiento.
b) Para la teoría del caos, esta previsión exacta es incluso teóricamente imposible. Al decir de Prigogine, como ocurre en un sistema dinámico inestable la condición inicial de la moneda que saldrá "cara" puede ser tan cercana como se quiera a la condición inicial de la moneda que saldrá "ceca", e incluso igual, pero sin embargo llegan a un final diferente. Esto es así porque el sistema evoluciona por zonas de incertidumbre donde no reinan las leyes eternas de la física, ni siquiera concebibles por una supercomputadora que pudiese calcular todas etapas del movimiento de la moneda desde que es revoleada hasta que llega al piso. La visión determinista del mundo queda así derrumbada, ya que revela que el azar forma efectivamente parte de la realidad física.

La teoría del caos encuentra su principal representante en la figura del belga Ilya Prigogine, Premio Nobel de Química del año 1977 por sus trabajos sobre la termodinámica de los sistemas alejados del equilibrio. La teoría del caos en plantea que el mundo no sigue el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos: el observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí. Los sistemas estables, como la órbita de la tierra alrededor del sol, son la excepción: la mayoría son inestables, siendo un ejemplo típico el clima. Podemos prever un eclipse o la aparición de un cometa con siglos de antelación, pero no el clima de la próxima semana. Ello es así porque depende de un enorme conjunto de circunstancias inciertas, que determinan por ejemplo que cualquier pequeña variación en un punto del planeta, genere en los próximos días o semanas un efecto considerable en el otro extremo de la tierra.

Prigogine representa, para Toffler, la alternativa actualmente más viable. En "La tercera ola", Alvin Toffler describe la historia de la humanidad en términos de tres cambios: la primera, la segunda y la tercera ola. La primera es la revolución agrícola de hace 10.000 años, que trajo la primera oleada de cambios históricos introduciendo nuevos modelos de realidad. La segunda ola fue esa fluctuación social en gran escala llamada revolución industrial, surgida cuando el feudalismo se desmoronaba y el sistema social distaba de hallarse en equilibrio. De tal situación nace el sistema newtoniano, como una especie de ?estructura dispersiva?, en el decir de Toffler. La tercera ola es hoy, con el fin de la edad de la máquina (ola anterior), la ciencia posindustrial, donde el modelo de Prigogine parece mucho más adecuado que el modelo mecánico de la ciencia clásica.


9. La teoría del caos: Prigogine

Examinemos ahora con mayor detenimiento el punto de vista de la teoría del caos que, en lo esencial, sostiene que la realidad es una "mezcla" de desorden y orden, y que el universo funciona de tal modo que del caos nacen nuevas estructuras, llamadas estructuras "disipativas". Tengamos presente que la teoría del caos no se opone radicalmente a la teoría determinista, en el sentido de proponer que sólo existe el caos y el azar. Si esto fuera así sería imposible cualquier intento de hacer ciencia, salvo que esta consistiera en inventar algún orden artificial en los fenómenos. La teoría del caos propone para el universo un ciclo de orden, desorden, orden, etc., de forma tal que uno lleva al otro y así sucesivamente tal vez en forma indefinida.

En relación con las ideas de orden y caos, en principio y más allá de las respuestas de Prigogine, pueden plantearse varios interrogantes, entre los que pueden mencionarse los siguientes:

a) ¿Porqué en el universo hay orden en vez de caos?
b) ¿Porqué en el universo hay caos en vez de orden?
c) ¿Hay un orden oculto tras el caos aparente?
d) ¿Hay un caos oculto tras el aparente orden?
e) ¿Cómo del orden se pasa al caos?
f) ¿Cómo del caos se pasa al orden?

¿Qué clase de interrogantes busca responder la teoría del caos? Los dos primeros seguramente no, porque, a pesar de su denominación, la teoría del caos sostiene que en el universo impera tanto el caos como el orden. Por lo demás, se trata de preguntas más filosóficas que científicas, en la medida en que pertenecen a la misma familia de preguntas del tipo ¿porqué la realidad existe en vez de no existir?
Las dos preguntas siguientes no revisten una importancia nuclear dentro de la teoría del caos, pero sí las dos últimas. Para la teoría del caos, los procesos de la realidad atraviesan etapas de caos y etapas de orden, y busca no solamente realizar descripciones detalladas del estado caótico y del estado de orden, sino también y sobre todo establecer bajo qué condiciones se pasa de uno a otro.

Para empezar a comprender este punto de vista, podemos guiarnos a través del esquema adjunto. En él figuran circuitos circulares, es decir, circuitos que empiezan y terminan en sí mísmos, y que por ello a veces reciben también el nombre de ?bucles?. Puesto que se trata de procesos circulares, podemos empezar a describirlos a partir de cualquier punto elegido arbitrariamente, por ejemplo, a partir de A (estado de equilibrio).


Aclaremos en qué consiste este estado de equilibrio, porque la termodinámica, al asociar el equilibrio con el desorden y el caos, nos induce fácilmente a confundirnos, toda vez que en la vida cotidiana en realidad asociamos equilibrio con orden.

La física se ha manejado tradicionalmente con un principio filosófico bastante simple: "lo que es, sigue siendo, mientras no haya motivos para que deje de ser lo que es". De aquí la importancia de los principios físicos de conservación (de conservación de la cantidad de movimiento, de conservación de la masa, de conservación de la energía, etc).

Más concretamente y en nuestro caso, se considera que un sistema tiende a permanecer en equilibrio si no hay ningún agente desequilibrante, y aún, cuando lo haya, el sistema evolucionará espontáneamente de nuevo hacia el estado de equilibrio.
Ejemplos: a) En dinámica: un cuerpo tiende a permanecer en estado de reposo o de movimiento rectilíneo uniforme si no hay un agente que lo saque de esa situación, como podría ser una fuerza externa al sistema. Aún cuando esta fuerza momentánea altere la trayectoria (desequilibrio), el móvil continuará en la nueva dirección siguiendo el mismo movimiento rectilíneo uniforme (retorno al equilibrio). Todo esto es lo que se llama el principio de inercia. b) En termodinámica: un sistema, como por ejemplo un gas en un recipiente, tiende a permanecer en equilibrio mientras no recibe energía externa, por ejemplo bajo la forma de calor. En cuanto recibe calor intentará volver al estado de equilibrio devolviendo el excedente de energía térmica para que las temperaturas queden equilibradas dentro y fuera del sistema. Si el gas pudiese ser mantenido absolutamente aislado del entorno (teóricamente posible, pero prácticamente imposible), o sea si fuese un sistema cerrado, su calor interno tendería a repartirse homogéneamente en todo el gas, es decir, no habría sectores más calientes y sectores más fríos: todos los puntos tendrían la misma temperatura. Esto es compatible con nuestra idea habitual de equilibrio (equilibrio de temperaturas), pero para que esta distribución equilibrada se logre, las moléculas del gas deben moverse al azar en forma caótica y desordenada. Si se moviesen en cierta dirección predeterminada, terminaría habiendo zonas más calientes y más frías. Es aquí donde nuestro sentido común queda desbordado, toda vez que en física se asocia equilibrio con caos molecular. En este momento, estas consideraciones sirven para una sola cosa: para que el lector vaya pensando en términos físicos, y pueda admitir que el estado de equilibrio implica, desde cierto punto de vista, un estado caótico.

Continuemos con el esquema. El estado A de equilibrio, tarde o temprano habrá de sufrir la influencia de un factor desequilibrante, desde que dijimos que no existen en la práctica sistemas totalmente cerrados. Al pasarse así a un estado B de desequilibrio, el sistema tenderá espontáneamente a evolucionar nuevamente hacia el equilibrio, es decir, por lo dicho anteriormente, comienza un proceso de caos progresivo.

Este momento es muy importante en el plan de la teoría del caos, porque mientras el sistema va caotizándose cada vez más, llega un momento en que alcanza lo que Prigogine denomina el ?punto de bifurcación?. Como su nombre lo indica, es un punto donde el sistema puede evolucionar hacia una de dos posibilidades: o bien retorna al estado de equilibrio original, tal cual lo prevé la termodinámica clásica, o bien dejar de caotizarse, empieza a auto-ordenarse o auto-organizarse hasta constituír una nueva estructura, denominada estructura ?disipativa? o ?dispersiva?, debido a que consume mayor cantidad de energía que la organización anterior a la cual reemplazó.

En el ámbito físico-químico, Prigogine postuló que los desequilibrios químicos no desembocan siempre en la anarquía, sino que algunas veces permiten la aparición espontánea de organizaciones o estructuras perfectamente ordenadas, las estructuras disipativas, y así, mostró que los estados de no equilibrio pueden desembocar tanto en el desorden como en el orden (c). El universo funciona de tal modo que del caos pueden nacer nuevas estructuras y es paradójicamente un estado de no equilibrio el punto de partida que permite pasar del caos a la estructura (e).
La afirmación que del caos nace el orden puede generalizarse mediante los siguientes ejemplos: a) el universo nació de un caos inicial y generó un mundo organizado de galaxias; b) de la actividad desordenada de las moléculas nació la vida; c) la llegada caótica de muchos estímulos, cuando observamos una figura poco estructurada, son organizados por nuestra percepción es una estructura; d) de la actividad desordenada de muchos individuos nace el orden social y el progreso económico. Uno de los libros más importantes de Prigogine, escrito en colaboración y publicado en Francia en 1979, tiene precisamente como título "El orden nacido del caos"
Prigogine da el ejemplo de los relojes químicos, que muestra las sorprendentes auto-reorganizaciones que pueden ocurrir dentro de los sistemas complejos, en situaciones distantes del equilibrio. Imaginemos un millón de pelotas blancas mezcladas al azar con otras tantas negras, que rebotan caóticamente dentro de un tanque por donde podemos mirar a través de una ventana de vidrio. La masa que veamos parecerá casi siempre gris. Sin embargo, a intervalos irregulares se nos aparece blanco o negro, según como se distribuyan las pelotas en las proximidades del vidrio en un momento dado.

Supongamos ahora que la ventana se vuelve toda blanca y luego toda negra, y así alternadamente a intervalos fijos y regulares, como el tic-tac de un reloj. Prigogine se pregunta porqué se organizan y sincronizan de esa forma. ¿Acaso se comunican entre sí y se ponen de acuerdo? Según todas las reglas tradicionales, esta sincronicidad no debería ocurrir, pero sí ocurre, y es lo que pasa cuando en algunas reacciones químicas se producen esos fenómenos de autoorganización o autoordenamiento, pese a la física clásica y al cálculo de probabilidades. Efectivamente, lo más probable es que el sistema evolucione hacia una mezcla al azar de pelotas negras y blancas, pero en el punto de bifurcación algo ocurre que hace que el sistema evolucione hacia estados impredecibles.

A partir del punto de bifurcación, entonces, puede iniciarse un proceso de ordenamiento progresivo que desembocará en una estructura disipativa, la cual, a su vez, ingresará en un estado de desequilibrio que generá un nuevo caos, y así sucesivamente, como el lector puede apreciar en el bucle BCDB del esquema. En términos de Prigogine, el universo es un ciclo de caos, orden, caos, orden, etc., donde se requiere un gran consumo de energía para pasar de una etapa a la otra. El universo es, en fin, como una gran ciudad, para usar una comparación de Prigogine: como en esta reina el orden y el desorden, hay bellas estructuras arquitectónicas, pero también embotellamientos de tráfico.

Desde ya, el bucle BCDB no es el único posible. El sistema puede evolucionar hacia su estado de equilibrio original, de acuerdo al bucle ABCA. Los ejemplos típicos son aquí los mecanismos homeostáticos, que pueden ser tanto naturales (la termorregulación en los seres vivos) como artificiales (el termostato de una estufa). El mantenimiento del equilibrio en familias con un paciente esquizofrénico es otro ejemplo en el área de la psicología.

Este bucle es característico de los sistemas "cerrados". Las comillas aluden al hecho de que estos sistemas son en rigor abiertos, puesto que se parte del supuesto de que el desequilibrio que sufren es debido a una influencia externa al sistema, sea que se trate de un aporte de materia, energía o información. En general, no se admite que un sistema absolutamente cerrado pueda desequilibrarse espontáneamente y, por lo demás, un tal sistema, aunque concebible teóricamente, no existe en la práctica. Cuando Prigogine dice que en el mejor de los casos los sistemas cerrados sólo constituyen una pequeña porción del universo físico, probablemente haga alusión a los sistemas "cerrados", con comillas, es decir, los que compensan los desequilibrios con la vuelta al equilibrio original. La mayor parte de la realidad no es ordenada, sigue Prigogine, ni estable ni equilibrada, sino que bulle con el cambio, el desorden, el azar, aunque es capaz de generar estructuras y ordenamientos no aleatorios. Como dicen algunos filósofos, y entre ellos Hegel, todo está relacionado con todo. Un sistema absolutamente cerrado (cerrado sin comillas) estaría representado en el esquema con un tercer bucle del tipo AA, es decir, nace en A y muere en A, es decir, persistiría siempre en forma indefinida en un eterno estado de equilibrio.

Consiguientemente, ya no es posible seguir sosteniendo que la diferencia entre un sistema abierto y uno cerrado sea el hecho de que uno recibe influencia externa y el otro no, ya que todos ellos, en la práctica, la reciben. Entonces, ¿a qué se refieren los pensadores sistémicos, con von Bertalanffy a la cabeza, cuando distinguen sistemas cerrados y abiertos? Ellos establecerán una serie de otras diferencias importantes, de las cuales solamente mencionaremos el tipo de retroalimentación presente en cada uno de ellos, porque es una diferencia relevante en el contexto de la teoría del caos.


10. La retroalimentación positiva

Los sistemas cerrados del tipo ABCA tienen retroalimentación negativa, mientras que los sistemas abiertos que evolucionan de acuerdo al bucle BCDA lo hacen por retroalimentación positiva.

La retroalimentación negativa tiende a corregir una desviación, llevando al sistema a su estado original. Un desequilibrio es una desviación, y es corregido mediante un retorno al equilibrio original. Esta clase de procesos se oponen al cambio, puesto que buscan siempre retornar a como eran antes, a un estado anterior. Por oposición, la retroalimentación positiva promueve el cambio, la formación de nuevas estructuras más perfeccionadas, más adaptativas, más sutiles. En la medida en que implican la instauración de una nueva estructura, son procesos irreversibles, a diferencia de la retroalimentación negativa, que al tender hacia el estado original, es reversible.
La retroalimentación negativa neutraliza las desviaciones, y la retroalimentación positiva las amplifica. Para dar un ejemplo aproximativo, si nosotros estamos caminando por el desierto hacia una meta lejana pero conocida, buscaremos cada tanto corregir nuestro rumbo, neutralizar nuestra desviación respecto de la meta mediante cambios periódicos en nuestra trayectoria. Pero, si cometemos un error infinitesimal y nos desviamos un milímetro de la meta, con el tiempo y la distancia ese error se amplificará cada vez más y terminaremos por llegar a un lugar muy alejado de la meta. En la retroalimentación negativa buscamos corregir las desviaciones para volver a la trayectoria original, y en la retroalimentación positiva, pequeños cambios inducirán grandes modificaciones que podrán desembocar en nuevas metas desconocidas, tal vez mejores, aunque no podamos predecir con exactitud a donde es que llegaremos. Como veremos, el psiquismo funciona de estas dos maneras: a veces intentamos volver a la situación original ("es mejor lo malo conocido que lo bueno por conocer"), y otras buscamos la innovación, el cambio.

La ciencia clásica se centraba en la estabilidad. Los primeros trabajos en teoría de la información hacían hincapié en la retroalimentación negativa, proceso que tiende a amortiguar el cambio devolviendo al sistema a su posición de equilibrio. Prigogine en cambio exhorta a estudiar la forma en que la retroalimentación positiva promueve el cambio y la inestabilidad. Ejemplo: una reacción química produce una enzima, y la presencia de ésta estimula a su vez la producción de más enzimas. En la química inorgánica estas situaciones son excepcionales, pero en las últimas décadas la investigación en biología molecular descubrió que esos circuitos son la sustancia de la vida misma. Ayudan a explicar la evolución desde pequeños conglomerados de ADN hasta complejos organismos vivientes.

En la sociedad también hay ejemplos: la riqueza genera más riqueza, los votos que atraen más votos, o las corridas bancarias, o las escaladas armamentistas. La retroalimentación positiva implica que cuando una variable aumenta, también lo hace la otra (o bien cuando una disminuye, también disminuye la otra), Esto explica finalmente cómo a partir de pequeños cambios terminan produciéndose cambios muy grandes (efecto mariposa), o bien, como a partir de grandes cambios terminan produciéndose modificaciones insignificantes.

Según Prigogine cuando se empuja al sistema más allá de sus límites de equilibrio proliferan estos circuitos de retroalimentación positiva, y tal vez ello ayude a explicar en la opinión de Toffler, un conspicuo defensor de la teoría del caos, los acelerados cambios que se producen hoy en día. La evolución requiere antes que nada inestabilidad (g), o sea que los pequeños acontecimientos sean magnificados, y esto sólo es posible en una situación de no equilibrio. El equilibrio es por definición no evolutivo. En cambio, la evolución requiere inestabilidad, irreversibilidad y la posibilidad de dar sentido a los pequeños acontecimientos para que se produzca un cambio de estructuras.

La irreversibilidad hace posible cosas que serían imposibles en estado de equilibrio. Por ejemplo la diferencia de temperatura en un líquido produce turbulencias: estamos aquí ante un proceso irreversible. La irreversibilidad provee una importante ley constructiva, la del origen de la vida y de sus estructuras derivadas altamente complejas y sofisticadas, como el cerebro o la sociedad.
Una vez que el proceso desemboca en la creación de una estructura compleja, la estructura disipativa, se produce un nuevo desequilibrio (pasaje de D a B) y recomienza un ciclo de caos donde se producen nuevas inestabilidades o fluctuaciones. Para Prigogine, todos los sistemas contienen subsistemas en constante fluctuación. A veces una sola fluctuación en uno solo de ellos puede ser tan potente, como resultado de una retroalimentación positiva, que hace añicos toda la organización preexistente. En tal momento, llamado momento singular o ?punto de bifurcación?, es intrínsecamente imposible saber hacia donde evolucionará el sistema (estado de improbabilidad): ¿se desintegrará en un caos o saltará a un nuevo nivel de organización, más elevado y diferenciado es decir, a una nueva estructura disipativa?

Así, cuando se quita a los sistemas del equilibrio se comportan de forma extraña, dejan de actuar como máquinas newtonianas, tornándose no lineales: pequeños inputs pueden provocar grandes cambios o al revés, grandes fuerzas, escasas o ningún cambio. En esas condiciones el sistema ?enloquece?. Se multiplican los circuitos de retroalimentación positiva que generan procesos de autoorganización y autoalimentación. Entra a jugar el azar. Las estructuras, antes afianzadas, pueden desintegrarse, o modificarse a sí mísmas totalmente.

En suma, podemos decir que, para que surja una nueva estructura más compleja, una condición necesaria es que haya un estado inicial en el punto de bifurcación, por ejemplo un pequeño acontecimiento que luego, por retroalimentación positiva, genere grandes consecuencias. Este proceso de retroalimentación es la condición suficiente, porque por sí sola, la condición inicial no puede hacer nada. Además, Prigogine destaca el hecho de este acontecimiento inicial, muchas veces insignificante, ¡se produce por azar! Toffler da el ejemplo de una gran conmoción internacional que se produjo como consecuencia de un hecho fortuito donde un camarero de un barco vio cómo unas personas limpiaban armas (se trataba de guerrileros que iban a cometer un atentado importante).

En la ciencia clásica, el azar era un intruso, pero con la teoría del caos pasó a ser un socio del determinismo. Políticos y economistas reconocen la importancia del factor suerte, y en ese sentido tiende a sucumbir nuestra idea newtoniana de un universo absolutamente determinado por leyes eternas.

La realidad no es entonces ni puramente determinada ni puramente gobernada por el azar. Hay algunos fenómenos a los que a grandes rasgos puede aplicarse el esquema determinista, como el movimiento de la tierra en torno al sol, pero en otros hay una mzcla de determinismo y probabilidad o azar, como en la evolución de un ser humano, de una sociedad, del clima terrestre, etc. Para Prigogine, un problema de la ciencia actual es precisamente determinar cuánto hay de determinismo y cuánto de azar en los fenómenos que estudiamos. Puesto que ambos elementos están siempre presentes en mayor o menor medida, las predicciones ya no pueden ser absolutas sino probabilísticas, y ello no por nuestra incompetencia o ignorancia sino porque la misma realidad tiene de por sí esa mezcla.


11. Hipersensibilidad a la influencia externa

Retornemos brevemente a nuestro esquema. Cuando un proceso evoluciona caóticamente como en el tramo BC, se torna cada vez más hipersensible a las influencias del entorno (energía, información, etc), y como consecuencia de ello evolucionará hacia D. En cambio, para que el sistema evolucione hacia A no se precisa esa influencia externa: un gas con sectores más calientes y otros menos calientes, es decir un gas en estado de desequilibrio, evolucionará espontáneamente hacia una distribución homogénea del calor hasta llegar al estado de equilibrio A, sin que para ello haya debido sufrir la influencia de algún agente externo.

No ocurre lo mismo con los sistemas abiertos. Mientras estos evolucionan caóticamente, las influencias externas acentúan ese caos hasta un punto culminante, llamado punto de bifurcación, donde el sistema deberá optar por retornar al equilibrio, o reorganizarse en una estructura y un equilibrio superiores. Si Prigogine tiene razón al respecto, señalaba Toffler, entonces debería ocurrir que la propaganda extranjera o una alteración en las tasas cambiarias mundiales (influencias externas) deberían producir un impacto interno mucho mayor en una sociedad inestable o desequilibrada que en otra en equilibrio. Por lo demás, como esas pequeñas entradas pueden causar grandes efectos, no debería sorprendernos que una influencia insignificante provoque una reacción enorme en esa sociedad.
También debería ocurrir que, al generar esa influencia más inestabilidad aún, la sociedad termine a la larga por reestructurarse ingresando en un nuevo ordenamiento (tal vez, econ la posibilidad de acceder al Primer Mundo). A nivel psicológico también ocurre esto: una persona inestable es más hipersensible a las críticas que otra más equilibrada.

No hace mucho, en diciembre de 1994, hubo en la Argentina un ejemplo palpable. Este país sufrió una importante influencia externa: la crisis económica de México. Argentina acusó recibo de esa influencia, causó un impacto interno muy importante, lo que puede hacernos pensar que se trata de un país altamente inestable, por ser precisamente tan hipersensible a la influencia foránea. Estados Unidos, un país estable, no sufrió tanto la conmoción mexicana en la medida argentina, aún cuando tomó debida cuenta de ella.


12. El planteo epistemológico de Prigogine

Los intereses de Prigogine no están puestos solamente en la investigación de la realidad material, sino que también ha intentado una reflexión sobre la ciencia misma.

Las grandes teorías, dice el pensador, surgen indudablemente debido a la inspiración de un genio, pero esto no es lo único ni lo más importante: ciertas teorías aparecen en ciertas épocas y determinados lugares no tanto por diferencias de inteligencia del sabio con las demás personas, sino por haber diferentes condiciones históricas o culturales. Así por ejemplo, si un pueblo cree en un ser que creó el mundo y determina su futuro, las teorías propondrán leyes deterministas, y sobre esa base el sabio construirá su teoría.

No obstante, las teorías así creadas no tienen una duración eterna. Hasta las teorías científicas más ?definitivas?, como las de Copérnico, Newton o Einstein, terminan siendo refutadas, con lo cual la verdad científica es sólo parcial. Por ejemplo, la teoría de Newton mostró su incompetencia al nivel de los objetos ?ligeros? del mundo subatómico, y la mecánica cuántica vino a llenar el vacío de explicación.

El progreso científico, para Prigogine, depende mas bien de la colaboración entre las ciencias que estudian la naturaleza y las ciencias del hombre. A pesar de ser tan diferentes en otros aspectos, Thom y Prigogine coinciden en algo: se oponen a la fragmentación del conocimiento, y dicen que las ciencias exactas y las humanas están condenadas a progresar juntas, o bien a perecer juntas. Para Prigogine, la clásica ruptura entre ambos grupos de disciplinas obedece a que las ciencias humanas relatan acontecimientos y las exactas buscan leyes eternas, pero con la nueva ciencia del caos, esta oposición desaparece porque los fenómenos físicos también tienen historia, y por ende no obedecen a leyes inmutables. Y podríamos agregar: la oposición también se diluye cuando advertimos que se puede analizar el fenómeno humano desde el punto de vista de la termodinámica irreversible, es decir, entendiéndolo como uno de los sistemas alejados del equilibrio que hace casi dos décadas le dieran a Prigogine la oportunidad de recibir el Premio Nobel.


13. Caos y determinismo en psicología

Hemos dicho que la teoría del caos, a pesar de su denominación, no concibe la realidad como puro azar, sino como una mezcla de azar y determinismo, de manera que tiene algunos aspectos predecibles y otros no. En todo caso, debido a la incidencia del azar, las predicciones que se hagan sobre futuros acontecimientos sólo pueden ser probabilísticas.

Buena parte de las teorías psicológicas, y entre ellas, el psicoanálisis, tomaron como base las teorías puramente deterministas. Aquí vamos a examinar cómo es posible encarar el comportamiento humano, o cómo es posible explicar el funcionamiento del psiquismo, sobre la base del nuevo marco teórico que nos ha suministrado en este siglo la teoría del caos. Intentaremos comprender, en una palabra, como es posible concebir lo psíquico como una mezcla de azar y determinación.

Consideraremos para ello el esquema adjunto, que a grandes rasgos ya habíamos explicado en nuestro número anterior, pero que aquí sintetizaremos para refrescar nuestros conocimientos y ponernos en clima.

El esquema viene a resumir muy simplificadamnte la teoría del caos, y muestra en primer lugar que los procesos de la realidad (incluída la realidad psíquica) son circulares, es decir, forman ?bucles? o circuitos cerrados de retroalimentación. Para explicarlos se puede entonces comenzar desde cualquier punto del proceso, supongamos A. Se parte de un estado de equilibrio: este estado se rompe porque el sistema recibe alguna influencia externa bajo la forma de energía o información, con lo cual pasa a un estado de desequilibrio. La experiencia revela que este estado de desequilibrio no puede sostenerse por mucho tiempo, y que pronto intentará un reequilibramiento, que puede seguir dos rutas alternativas a partir de un punto de bifurcación: o bien retorna al equilibrio original (de C pasa a A), o bien procura pasar a un equilibrio superior, más complejo y más sofisticado, denominado por Prigogine estructura disipativa (pasaje de C a D).

La primera posibilidad se lleva a cabo mediante un mecanismo de retroalimentación negativa, compensador o neutralizador de las desviaciones, y por ello el sistema vuelve a su estado inicial. La segunda posibilidad tiene lugar mediante un mecanismo de retroalimentacipón positiva, amplificador de las desviaciones y por ello el sistema es conducido a una situación tal que se desestructura y se reconfigura en una nueva estructura, distinta de la anterior y, como dijimos, más compleja.
Mientras la primera posibilidad nos sugiere un proceso reversible (pues vuelve al mismo punto de partida), la segunda nos sugiere un proceso irreversible, desde que no implica volver al punto de partida sino continuar para adelante a través de la construcción de más y más estructuras cada vez de mayor complejidad, impredecibles todas ellas. Examinemos como pueden verse en el campo de los fenómenos psíquicos ambas posibilidades.


a) Retorno al equilibrio original.- Si en algún lugar está tan bien retratado este mecanismo de retorno al equilibrio original, es en la ortodoxia de la metapsicología freudiana, cuando, inspirado en Fechner, Freud habla de famoso principio de constancia.

Se habla allí de una irrupción pulsional (agente desequilibrante) en el aparato psíquico. El equilibrio se rompe, pues hay un excedente de energía, y de acuerdo al principio de constancia, que prescribe mantener todos los parámetros precisamente ?constantes?, buscará el aparato mental descargar ese excedente de energía para recuperar su nivel original.

Tal el modelo ideal de funcionamiento psíquico fundado en un mecanismo de retroalimentación negativa: la desviación del nivel de energía producido por la irrupción de la pulsión debe ser neutralizada, y retornar a su medida original. Y aún cuando Freud dice que en la práctica la descarga de la pulsión no se realiza tan libremente debido a ciertas barreras que se opondrán a esa descarga, a pesar de ellas el aparato psíquico buscará salidas sustitutivas (síntomas, sueños, fallidos, etc) que reivindiquen el principio de constancia: a pesar de los obstáculos, hay siempre un intento por retornar al original equilibrio.

El psicoanálisis llega incluso aún más lejos, cuando Freud plantea la eterna lucha entre las pulsiones de vida y las pulsiones de muerte, donde terminan prevaleciendo estas últimas llevando al sujeto a su estado original, que es el estado inorgánico inanimado. El destino del hombre ya no es simplemente neutralizar el excedente de energía pulsional, sino la misma muerte, vale decir, reducir el monto energético a cero, o por lo menos a niveles incompatibles con el sostenimiento de la vida.
El hombre pasa a ser, digámoslo de otra forma, un sistema cerrado más, que intenta sustraerse a las influencias externas para mantener a toda costa un equilibrio anterior.

Y esto es así porque, como indica Horstein Freud sólo disponía de una termodinámica de los sistemas cerrados. Los nuevos modelos teóricos mostrarán al hombre, en cambio, como un sistema abierto, cuya tendencia no es al equilibrio sino a desequilibrios que conducirán a nuevos reequilibramientos y a estructuras cada vez más complejas: las que Prigogine denominó, en química, estructuras disipativas.
Destaquemos, por último, que en el esquema del retorno al equilibrio original no hay lugar para el azar. Todo está allí determinado, y nadie podría equivocarse al predecir que, en última instancia, el comportamiento humano tiene un destino fatal. Si quisiéramos reaccionar contra esta postura, no deberíamos cometer el error de lo que los psicólogos sistémicos llaman la ?ilusión de alternativas?, y creer que la única alternativa a un psiquismo determinado es un psiquismo que funciona totalmente al azar. Antes bien, el psicoanálisis podrá avanzar "si combina determinismo y azar, lo algorítmico con lo estocástico, la teoría de las máquinas y la teoría de los juegos".

La alternativa no es entonces el puro azar, sino la mezcla de azar y determinismo de que habla la teoría del caos, y para ello habremos de remitirnos al segundo circuito de retroalimentación, donde están incluídas las estructuras disipativas.

b) La génesis de las estructuras disipativas.- ¿Es posible extender la teoría del caos al funcionamiento psíquico? ¿Qué lugar ocupan el azar y las estructuras disipativas de Prigogine en el psiquismo? Examinemos estas cuestiones tomando como ejes de referencia tres importantes orientaciones psicológicas: el psicoanálisis, la psicología genética de Piaget, y la psicología sistémica.

c) El psicoanálisis.- Indica Horstein que actualmente, la idea del psiquismo como un sistema cerrado con una energía constante es un punto de estancamiento en la reflexión psicoanalítica (i). Según el mismo autor, el inconciente debe ser considerado mas bien como un sistema abierto y como tal, capaz de autorooganización, desestructuración y reestructuración, lo que es posible si se lo concibe en el contexto de un circuito de retroacción (y más específicamente de retroalimentación positiva, según la terminología que venimos utilizando). "Esta retroacción cuestiona la causalidad lineal y funda la eficacia misma del trabajo analítico revelando una forma de recursividad donde el presente actúa sobre el pasado, el cual, sin embargo, condiciona la significación de lo actual. La retroacción permite pensar el advenimiento de lo nuevo en el interior de lo ya dado".

¿Qué significan estas palabras de Horstein? Lo siguiente: según el modelo de la causalidad lineal, la relación causa-efecto es unidireccional: la causa produce el efecto, pero no a la inversa. Lo pasado actúa sobre lo presente, de forma tal que lo que hoy somos, pensamos o sentimos es el producto de nuestras pasadas experiencias infantiles. O, si se quiere, ciertos procesos del pasado determinan inequívocamente el porvenir; pero sin embargo lejos han quedado aquellas épocas en que John Watson proclamaba exultante que podía modelar un niño como el adulto que el psicólogo quisiera. La retroacción viene a mostrarnos que no solamente el pasado influye sobre el presente, sino que también, de alguna manera, el presente influye sobre el pasado: en efecto, en el trabajo analítico es posible ?resignificar? el pasado, desestructurarlo para volverlo a estructurar de otra manera, como si estuviéramos desarmando un pullover y, con las mismas hebras de lana, hacer un pullover nuevo. A su vez, un pasado resignificado operaría de otra manera sobre el comportamiento actual, supuestamente en la orientación deseable y produciendo la cura.

Durante el proceso terapéutico analítico es posible verificar también mecanismos de retroalimentación negativa (bucle ABCA), como los descriptos de resistencia al cambio. Interesa destacar que esta tendencia a volver, a no cambiar es espontánea, y requiere menor cantidad de energía que iniciar el deseable cambio. Podemos pensar que el paciente que se resiste al cambio no puede contar con la suficiente reserva energética porque la que necesitaría para cambiar está siendo consumida en la resolución de un conflicto interno, por ejemplo, en el sostenimiento permanente de una defensa para contrarrestar la persistente e intensa angustia implicada en el riesgo de la liberación pulsional.

En suma: mientras el sujeto se encuentra desestructurado, está en el punto de bifurcación, donde tiene dos opciones: o intenta volver a la estructura anterior por retroalimentación negativa neutralizando la ?desviación? introducida por el analista (resistencias), o intenta reestructurarse mediante retroalimentación positiva. En esa encrucijada es altamente sensible a la influencia del entorno (a la palabra del analista) y cualquier acontecimiento que se produzca por azar entre analista y analizado, por pequeño quie sea, podrá producir efectos importantes: una breve intervención interpretativa en este momento tan sensible provocará en el mejor de los casos la formación de una nueva estructura, la instauración de un nuevo orden que podrá eventualmente justificar el alta.

Horstein declara implícitamente la importancia de ese punto de bifurcación donde el acontecimiento fortuito tendrá una importante repercusión, o no: "¿El acontecimiento azaroso puede hacer surgir nuevas posibilidades de historia, o es sólo un disfraz que forja la compulsión de repetición, apenas un pretexto para el idéntico retorno a lo ya inscripto?".

Pensar, en síntesis, el procesos terapéutico en términos de un mecanismo de realimentación positiva donde el pasado influye sobre el presente y este sobre el pasado, es volver a una idea original de Freud, pero abortada por la influencia que sobre él ejerció la termodinámica de los sistemas cerrados, a comienzos del siglo. Como termina diciendo Horstein "Freud concibió al inconciente como un sistema abierto, pero lo modeló como un sistema cerrado".

Una última consideración: en la medida en que reconozcamos la influencia de los acontecimientos aleatorios en el punto de bifurcación, deberemos aceptar que el psiquismo es el producto del determinismo y del azar al mismo tiempo, lo que entre otras cosas explica porqué la conducta del hombre no es predecible con una seguridad del ciento por ciento. Desde ya, cuando hablamos de azar seguimos la idea de Prigogine según la cual el azar no es tanto un invento nuestro para justificar nuestra ignorancia sobre las causas de las cosas, como algo que forma parte de lo real, en forma objetiva. El azar como invención aparece por ejemplo en las explicaciones que dan los mismos pacientes sobre su propia compulsión a la repetición: "¡Qué maldita suerte! ¡Siempre me tocan para casarme mujeres dominantes!" o también "Tengo la suerte en contra: me echan de todos los trabajos que consigo". En estos casos, el azar es una forma de ocultar el determinismo propio de la compulsión a la repetición, y adjudicar las desgracias a factores externos más que a factores internos.

d) La psicología genética de Piaget.- Si examinamos la evolución de la inteligencia según Piaget, la veremos desarrollarse en términos de desestructuraciones o pérdidas de equilibrio, que conducirán a nuevas reestructuraciones o equilibrios superiores y más sutiles.

Las estructuras cognoscitivas de Piaget, tales como el grupo práctico de los desplazamientos y, más adelante, los reticulados y otras, pueden ser comprendidas como estructuras disipativas, en la terminología de Prigogine. Las razones para trazar semejante comparación son, por lo menos, las siguientes:

a) Piaget sostiene que cuando se produce un desequilibrio, el sistema mental existente hasta entonces buscará instrumentar medidas compensatorias que, lejos de retornar al equilibrio original, intenta un nuevo equilibrio mediante la construcción de una nueva estructura sobre la base de la anterior, nueva estructura que resulta evolutivamente más adaptativa. Cada nuevo estadio viene definido por una nueva estructura, es decir representa un salto hacia una nueva estructura disipativa. El retorno al equilibrio original es lo contrario de un proceso evolutivo.

b) En el periodo de tiempo donde se verifica el desequilibrio, el psiquismo resulta ser altamente sensible a las influencias del entorno. Un niño ocupado en afianzar una nueva estructura y que aún no entró en un nuevo desequilibrio, está en un momento de acomodación, donde cualquier estímulo externo es acomodado a la nueva estructura. Pero en un momento subsiguiente, el nuevo desequilibrio producido obligará al niño a buscar estímulos, se tornará más sensible a lo que ocurre en su entorno para poder generar una nueva estructura disipativa (asimilación). La acomodación es un tiempo de consolidación de estructuras, y la asimilación es un tiempo de búsqueda de estructuras nuevas y más complejas.

c) Estos nuevos estímulos ambientales suelen ser muy insignificantes y ocurrir por azar, pero producen consecuencias importantes a los efectos de la constitución de la nueva estructura. Un bebé puede tocar por azar, mientras agita incoordinadamente sus manos, una campanilla. Mediante un efecto de realimentación positiva esta influencia crece cada vez más permitiendo la instauración de reacciones circulares secundarias, y éstas a su vez las reacciones terciarias y finalmente ellas conducirán nada menos que a la construcción de la primera estructura cognoscitiva propiamente dicha: el grupo práctico de los desplazamientos.

En suma, la inteligencia se desarrollaría para Piaget de acuerdo al circuito de retroalimentación BCDB de nuestro esquema, donde cada nuevo agente externo fortuito estimula la génesis de nuevas estructuras disipativas.

e) La psicología sistémica.- Probablemente es en el ámbito de la psicología y la psicoterapia sistémica donde más influencia hayan ejercido algunas conceptualizaciones de la teoría del caos, toda vez que ambas comparten un punto de inspiración común: la Teoría General de los Sistemas. Como buenas hermanas de un padre en común, la psicoterapia sistémica y la teoría del caos tienen muchos elementos afines, y no resulta insólito que el proceso terapéutico sistémico pueda ser comprendido de acuerdo al esquema de Prigogine, que hemos sintetizado en el esquema que acompaña esta nota.

Estos intentos han tenido lugar especialmente a partir de 1980. Desde esa fecha, Fred Abraham y Larry Vandervert, cofundadores de la Society for Chaos Theory in Psychology, han venido trabajando en la aplicación de los conceptos de la teoría del caos al funcionamiento del psiquismo (j). En la misma orientación se sitúa William McDown, profesor asociado de Psicología Clínica de la Universidad de Hahnemann, quien sostiene que en el psiquismo hay sistemas que parecen comportarse aleatoriamente, pero que encierran un orden oculto que, aunque podamos conocerlo, es igualmente imposible hacer predicciones exactas. Las personas se parecen mucho al clima: tienen comportamientos predictibles pero también impredictibles, y nunca se pueden descubrir todos los factores que sobre ellas actúan.


Estas hipótesis fueron confirmadas por otros psicólogos como Butz. Así por ejemplo, una persona puede encontrarse en un punto de bifurcación, donde debe optar por mantener su equilibrio homeostático original, con lo cual está postergando el caos, o bien enfrentar el caos. El terapeuta debe en estos casos propiciar el caos, acentuar la desestructuración que intenta evitar la persona en cuestión, favorecer la proliferación de circuitos de retroalimentación positiva. Y al contrario, si la persona ya se encuentra en caos, la labor terapéutica será de contención, y buscará a ayudar a la persona a encontrar un símbolo personal que actúe como guía para organización una nueva estructura.

También los cognitivistas y los neurofisiólogos están interesados en el modelo del caos. Investigadores como Paul Rapp, en Pennsylvania, concluyó que, a juzgar por los registros electroencefalográficos y en comparación con el estado de reposo, el cerebro se vuelve más caótico cuando comienza a resolver problemas, lo que a nuestro entender coincide con los resultados de Prigogine para la química y las investigaciones de Piaget para la psicología, en el sentido de que un estado de desequilibrio induce a las personas a buscar información en el entorno para resolver el mismo mediante una nueva estructura cognoscitiva. En ese momento, la persona se encuentra altamente sensibilizada a cualquier influencia externa que, aún siendo pequeña, provocará grandes cambios, y el psiquismo funcionará caóticamente hasta el logro del nuevo estado de equilibrio.

Linda Chamberlain, psicóloga clínica del Colorado Family Center, en Denver (j) piensa que la teoría del caos ofrece una forma de entender cómo ocurren los cambios durante la terapia familiar. En la bibliografía que hemos consultado sobre esta cuestión no hay detalles específicos, pero procuraremos dar algunos ejemplos tomados de terapeutas sistémicos clásicos y entender sus propuestas desde la teoría del caos.
El esquema que estamos presentando puede muy bien considerarse como una descripción suscinta de los procesos de cambio o de no-cambio que pueden verificarse en el ser humano individual o en las familias, tanto los que ocurren en forma espontánea como los que son inducidos terapéuticamente.

En el esquema hay dos bucles o circuitos principales: el circuito ABCA es de retroalimentación negativa, y el circuito BCDB es de retroalimentación positiva. Mediante cualquiera de ambos circuitos pueden describirse procesos sanos y procesos enfermos, de manera que no siempre un circuito positivo es sano, ni uno negativo enfermo. Además, al estar ambos bucles interconectados en el punto de bifurcación, el proceso puede evolucionar combinando secuencias de retroalimentación negativa y positiva, o viceversa, tal como se ve en terapia familiar sistémica.

Watzlawick y su equipo de Palo Alto, California, hablan de dos tipos de cambio verificables en un contexto terapéutico: los cambios-1 y los cambios-2.
Los cambios-1 (bucle ABCA), no modifican la estructura del sistema ni de su funcionamiento cibernético, y consiguientemente hacen que el problema original persista e incluso se agrave. Los cambios-1 nacen de la misma lógica que generó el problema, y frecuentemente consiste en hacer exactamente lo contrario: si el problema son los atracones de comida de una bulímica, el cambio consistirá en hacer a continuación una dieta estricta y no volver a comer hasta el otro día. De alguna forma es la lógica del sentido común, que prescribe compensar una desviación con una conducta opuesta. Se trata, evidentemente, de un mecanismo de retroalimentación negativa, que busca neutralizar las desviaciones sintomáticas.

El bucle ABCA es característico de los comportamientos de resistencia al cambio, ya que por definición, la retroalimentación negativa busca retornar a una situación original, lo que permite a la bulímica volver a reiniciar su ciclo intempestivo de comidas.

Los cambios-2 (bucle BCDB), en contraste, afectan los parámetros mismos del sistema, cambian la estructura y recurren a soluciones que contradicen el sentido común. Así, las intervenciones paradójicas en vez de sugerir a la bulímica que haga una dieta estricta, le sugiere que no haga dieta, o que siga comiendo, o que coma solo un poco menos, etc, es decir, se busca amplificar la desviación mediante una retroalimentación positiva. Aunque discutidas, se supone que tales intervenciones pueden producir cambios-2 en cortos periodos de tiempo. La escuela interaccional de Palo Alto plantea que estos cambios, se supone deben ir acompañados de una reestructuración cognitiva: la prescripción paradójica debe ser comunicada a la familia de la paciente bulímica en su propio lenguaje, apelando a su propio modo de conceptualizar la realidad, lo que obviamente exige cierta capacidad de adaptación del terapeuta al punto de vista familiar.

En la medida en que la familia pueda pasar del cambio-1 al cambio-2, podrá solucionar su problema eficazmente, pasaje que se ha de verificar en el punto de bifurcación, donde la intervención del terapeuta impedirá que persista el ciclo hacia A, y pueda ser desviado hacia B.

Por lo demás, en el punto de bifurcación no siempre encontramos una intervención terapéutica, y aquí van dos ejemplos: a) un acontecimiento como la muerte de un progenitor fuerza al sujeto a elegir entre dos caminos alternativos: hacia A, en cuyo caso neutralizará la pérdida negándola, y seguirá su vida normalmente sin hacer ningún duelo. Esto implica retrotraerse a la situación anterior a la muerte, para recuperar el equilibrio original; hacia D, donde el sujeto sufre una desestructuración momentánea -su vida parece caotizarse- pero puede salir de la crisis beneficiosamente reestructurado. b) el segundo ejemplo son las curaciones espontáneas, donde el sujeto (o la familia) evolucionan hacia D sin terapia alguna. Muchas veces esto es asignado al azar, pero en esta asignación suele haber un fuerte componente subjetivo: el terapeuta puede atribuír sus éxitos a sus propias maniobras terapéuticas, y los éxitos de la naturaleza (o los de algún colega), al simple azar.
La retroalimentación positiva puede ser normal o beneficiosa, por ejemplo cuando advertimos que la misma actividad del ser vivo facilita el encuentro azaroso con estímulos que lo desestructuren, alcanzando así una estructuración más compleja y más adaptativa. La vida es un continuo reequilibramiento que conduce al cambio, es decir a nuevos desequilibrios, y así sucesivamente, y en este trayecto el ser va cumpliendo su plan evolutivo. De la misma manera, una familia en terapia que se desestructure es en principio un buen indicador del proceso de curación. De aquí que una de las técnicas empleadas en terapia sistémica, sobre todo por la escuela de Minuchin y Haley, sea la desequilibración.

Esta consiste esencialmente en que el terapeuta fomente una alianza intensa entre él mísmo y algún sub-sistema de la familia (por ejemplo con la madre y el hijo) a los efectos de obligar a la familia a una reestructuración de sus límites (camino hacia D). De esta manera, el terapeuta crea las condiciones para que la familia del paciente esquizofrénico frene su tendencia homeostática hacia A, o tendencia hacia el no-cambio.

Pero la retroalimentación positiva puede también ser perjudicial, como cuando dos personas interactúan de tal modo que van desequilibrándose cada vez más pudiendo llegarse a una situación potencialmente peligrosa para sus respectivas integridades, como ocurre en las escaladas simétricas y complementarias descriptas por Watzlawick (m), o en los comportamientos interactivos que Bateson englobó bajo la denominación de fenómenos de cismogénesis. Es, por ejemplo, el caso de la persona que insulta a otra y esta, en vez de morigerar la situación retornando al anterior equilibrio, a su vez vuelve a insultar a su interlocutor y así sucesivamente, hasta llegar, por retroalimentación positiva, a los límites peligrosos a que hacíamos referencia.
Nos resta ver un último ejemplo donde la retroalimentación negativa pueda ser beneficiosa, ejemplo que también nos lo provee la práctica terapéutica sistémica. Una vez que una familia completó su proceso de cura, está lo suficientemente estructurada como para que cualquier estímulo desequilibrante (una muerte, una enfermedad) , no precipite una nueva crisis que se vuelva a transformar en motivo de consulta. La familia sufrirá indudablemente un desequilibrio, pero está en condiciones de neutralizar las desviaciones por retroalimentación negativa y puede retornar al estado de equilibrio (o al estado constante, como lo llama Watzlawick), es decir, a aquel estado que pudo alcanzar mediante la psicoterapia.


14. Caos y orden en el lenguaje

Un análisis del lenguaje verbal como sistema cerrado y como sistema abierto permite asomarnos tímidamente a sus posibilidades de evolución predecibles e impredecibles. ¿Cómo puede ser visto el lenguaje desde la perspectiva de la teoría del caos? El ejemplo de la creación literaria y la científica.

a. Física y psicología.- ¿Puede la física explicar la conducta humana? De antemano no podemos responder esta pregunta, ya que todo dependerá de nuestras expectativas acerca de lo que esperamos de una explicación.

Si un colectivo frena abruptamente, el pasajero será arrojado hacia adelante. Se trata de una conducta humana, si consideramos a esta en sentido amplio como todo cambio que ocurre en una persona. Este comportamiento podrá ser explicado desde la física, más concretamente desde una de sus ramas: la dinámica de los sólidos (n), y aún más concretamente a partir del principio de inercia.

De este comportamiento no podríamos dar una explicación biológica, porque a pesar de ser una respuesta involuntaria producida por cierto estímulo, nadie diría que se trata de un reflejo. Tampoco podríamos ofrecer una explicación psicológica, salvo que nuestro hombre haya exagerado su movimiento o se haya dejado llevar por la inercia para caer justo encima de una señorita con la que quería entablar una relación.

Algunas teorías psicológicas utilizan el adjetivo ?dinámica?, como la teoría del campo de Lewin, o la teoría psicoanalítica. En estos casos, no se está haciendo alusión a fuerzas físicas, como la fuerza de la inercia o la fuerza de gravedad, sino a fuerzas psíquicas, como la motivación o las pulsiones. Las primeras actúan sobre objetos inertes, y las segundas sobre conductas que se buscan explicar desde la psicología.

Esta aclaración viene a cuento porque muestra ejemplos de teorías psicológicas que han tomado conceptos de la física, y los han transformado y adaptado a la realidad psíquica.

En esta nota vamos a explorar, un poco superficialmente, otra rama de la física y sus posibles aplicaciones en psicología: la termodinámica. Desde ya, este intento no es novedoso: cierta teoría grupal de roles (ñ), por dar un ejemplo, utiliza bastante implícitamente el primer principio de la termodinámica para describir el funcionamiento grupal en términos de procesos de locomoción y procesos de mantenimiento.

Otro ejemplo clásico es Freud: uno de los principios sobre los que descansa el psicoanálisis es el principio de constancia, basado a su vez, en los principios de la termodinámica.

Como ejemplo de fenómeno psíquico para explicar tomaremos la creación literaria, y para ello utilizaremos como marco de referencia la termodinámica, la teoría general de los sistemas y la teoría de las estructuras disipativas de Prigogine (vulgarmente llamada teoría del caos). Los tres sistemas teóricos están íntimamente relacionados: por ejemplo, la termodinámica estudia ?sistemas?, y la teoría de Prigogine es una teoría más dentro de vasto campo de la termodinámica.

Primeramente retomaremos algunas puntualizaciones sobre la aplicabilidad de la teoría del caos en psicología, luego nos referiremos al análisis del lenguaje y enseguida después, dentro de este último marco, al problema de la creación literaria.

b. La teoría del caos en psicología.- Sabemos que la conducta humana puede presentársenos en diversos grados como caótica y desorganizada. Tal el caso ostensible del neonato, del demente, del adolescente, pero también el adulto normal tiene momentos donde planifica actividades -por ejemplo para un fin de semana- y luego su plan no se cumple, procediendo de una manera errática y pareciendo estar regido únicamente por el principio del placer.

Frente a estos comportamientos desorganizados, la psicología ha intentado minimizar su importancia (para la teoría, no para la clínica) argumentando que detrás de ellos se esconde un orden regido por las leyes de la conducta (como el conductismo) o las leyes del inconciente (como el psicoanálisis). Es frecuente la expresión "parece un caos", con lo cual se asimila o se identifica siempre caos con apariencia. La teoría del caos viene a sugerirnos un punto de vista muy diferente: el comportamiento caótico tiene valor en sí mísmo, tiene la misma entidad, el mismo status ontológico que el orden, y nuestra actitud hacia ese caos ya no consistirá en soslayarlo intentando buscar un orden subyacente (verticalidad), sino en intentar verlo como parte de un proceso que proviene de un orden previo y que desemboca en un nuevo orden (horizontalidad). El orden ya no está debajo sino a los costados, la ?verdadera? realidad ya no es solamente el orden sino la alternancia orden-desorden, teniendo ambos polos la misma entidad. Se trata, entonces, por emplear un término de la filosofía, de hipostasiar el caos, o sea de elevarlo a la categoría de una instancia constitutiva de lo real - no de lo aparente- y por lo tanto ya no habrá de constituír un punto de partida para llegar a lo real subyacente y explicarlo desde allí, sino instituírlo como instancia explicativa (no explicada) del orden subsiguiente (y no subyacente).

Este planteo viene a oponerse en cierto sentido a nuestra tradición kantiana, según la cual seguimos considerando que somos nosotros desde nuestras ?formas de la sensibilidad? y desde nuestras ?categorías del entendimiento? quienes organizamos el mundo, cuando en realidad la organización y la desorganización de éste resultan ser independientes de un sujeto cognoscente. Se opone también al clásico principio de la uniformidad de la naturaleza, de tipo laplaceano, según el cual el mundo tiene un orden y, en cualquier caso, el desorden que percibimos no es algo constitutivo de él sino el resultado de un falencia perceptiva. ¡Los sentidos nos engañan! es la exclamación que viene resonando desde aquellos siglos cartesianos.

La teoría del caos nos habla de una secuencia orden-desorden-orden en la naturaleza. El lenguaje verbal no es la excepción, toda vez que es el resultado de nuestra actividad mental, producto a su vez del cerebro, y producto a su vez de la naturaleza.

c. Caos y lenguaje.- Hábito laríngeo según el conductismo, embrujador de la inteligencia para Wittgenstein, función semiótica de acuerdo a Piaget, sistema de oposiciones y diferencias según Saussure, producto de transformaciones sintácticas para Chomsky, apaciguador de la agresividad para Freud o modelo isomorfo del inconciente según Lacan, el lenguaje fue, desde los sofistas griegos hasta nuestros días, el objeto y el motivo de agudas reflexiones y perplejidades varias. Y tal vez sea mucho más lo que aún no se ha dicho.

Pero, ¿acaso tienen algo que decirnos la termodinámica y la teoría del caos acerca de la naturaleza de una de las más notables creaciones del cerebro humano, a su vez la entidad más compleja e impredecible del universo conocido? No está de más intentarlo: como dice Prigogine, las ciencias naturales y las ciencias humanas solamente tienen dos opciones: o progresan juntas, o juntas desaparecen. En este caso, obviamente, aludimos a la física y a la psicolingüística.
Sepa el lector que, para comprender lo que sigue, no está obligado a conocer abstrusas fórmulas de entropía o de energía interna: nada menos que para Einstein, la mayor parte de las ideas fundamentales de la ciencia son esencialmente sencillas. Lo son, sí, las ideas, agregamos, pero no tal vez las realidades a que ellas remiten, siendo que la claridad es apenas una ilusión útil que esconde toda la complejidad de los sucesos ?por fin? aclarados.

Organicémonos. El lenguaje humano -y, paradigmáticamente, el lenguaje verbal- puede ser concebido como un sistema cerrado o como un sistema abierto.


El lenguaje como sistema cerrado.- Sabemos que un sistema cerrado no intercambia materia, ni energía ni información con su entorno. Cuando el autor compone su texto, entrega información, y cuando el lector lo lee recibe información. Este intercambio de información hace que el lenguaje sea un sistema abierto, pero supongamos ahora que un trozo de discurso no tenga esa sublime posibilidad, debido a que poco a poco deje de recibir energía e información de su entorno.

El primer ejemplo es un discurso hablado por una persona. ¿Cómo va cambiando este texto, pongamos por caso, cada diez años? Conforme avanza el tiempo, y como consecuencia de la natural involución del sistema nervioso, ese texto va desintegrándose cada vez más, hasta constituír en el anciano, un conjunto amorfo de palabras donde los significados y la organización sintáctica se pierden cada vez más y más. Ellenguaje avanza hacia un estado de desorden cada vez más acentuado, y lo que supuestamente funciona como soporte material, esto es, la red neuronal, poco a poco y especialmente después de la muerte va convirtiéndose en materia inorgánica, y esta a su vez en polvo cósmico, si hemos de considerar que han pasado eones.
Nuestro segundo ejemplo es un texto escrito. Sus significantes son acúmulos de tinta que, si los dejamos estar sin suministro de energía o información del exterior, manteniéndolos aislados como sistemas cerrados, poco a poco evolucionarán también hacia un estado de máximo desorden, o como dicen los físicos, hacia un estado de máxima entropía: el papel que los soporta va desintegrándose con el paso del tiempo y el final es equivalente al final del lenguaje hablado abandonado a su suerte: el polvo cósmico. En un poema, J.L. Borges se preguntaba acerca de qué relación podían tener una biblioteca con el polvo estelar, y aquí la termodinámica viene a dar su propia respuesta.

Significantes y significados, aislados de su ambiente, tienen así un destino que resulta perfectamente predecible, lo que nos produce en todo caso más desazón que perplejidad: la termodinámica ya tiene previsto que los sistemas cerrados evolucionan hacia el desorden, porque no reciben del exterior el ?combustible? que les permite mantenerse organizados u organizarse aún más.

Para decir lo mismo desde otro punto de vista: considerado como sistema cerrado, el lenguaje tiende a evolucionar hacia un estado de máxima probabilidad: el estado de desorden. El punto de partida puede ser por ejemplo un estado de lengua organizado, donde cada letra no aparece por azar sino que tiene asignada una determinada probabilidad de aparición. Por ejemplo, es más probable que la siguiente letra de un texto sea una "e" y no una "z", como advirtieron los pensadores de la Teoría de la Información, con Shannon a la cabeza.

Sin embargo, en cuanto ese mismo lenguaje evoluciona (o si se prefiere, involuciona) hacia un estado de desorganizacíón cada vez mayor, ya dejan de existir razones valederas para pensar que unas letras tienen más probabilidad que otras: todas adquieren la misma probabilidad de aparecer, puesto que su distribución es al azar. Este estado de equiprobabilidad es perfectamente predecible y es, por lo demás, el estado final más probable. El lenguaje de un cerebro muy senil, por caso, es tan azaroso que cualquier letra tiene la misma probabilidad de seguir otra cualquiera.
Hasta aquí vamos extrayendo una conclusión: a medida que el lenguaje se desorganiza, se torna predecible su estado final, a saber, el máximo desorden, y al mismo tiempo y por eso mismo se tornan impredecibles las siguientes letras o palabras que aparecerán. Como decíamos, ¿acaso podemos predecir cuál es la próxima palabra que pronunciará un esquizofrénico delirando, o un sujeto con demencia senil? El lenguaje como sistema cerrado evoluciona hacia grados de impredecibilidad perfectamente predecibles. Ello ocurre porque el sistema se va ?cerrando? cada vez más, a medida que las neuronas dejan de recibir adecuadamente la energía proveniente de la glucosa, o a medida de dejan de recibir información a través de órganos sensoriales en decadencia.


El lenguaje como sistema abierto.- Si la idea del lenguaje como sistema cerrado nos producía desazón, la idea de un lenguaje como sistema abierto nos producirá mas bien perplejidad, en la medida en que, si consideramos al lenguaje como un sistema abierto, no evolucionará hacia estados predecibles sino hacia estados impredecibles, y es aquí donde podría suministrarnos respuestas plausibles la termodinámica irreversible y la teoría del caos de Ilya Prigogine.

Pero vayamos por partes, y tomemos como ejemplo la creación literaria. Según la teoría de Prigogine, los sistemas evolucionan del orden al caos, y del caos nuevamente al orden y así sucesivamente. La termodinámica prescribe que todo sistema evolucionará hacia el caos, se desorganizará y desintegrará cada vez más, a menos que reciba un aporte de energía y/o información del entorno. Si una planta no recibe la energía solar que desencadena el proceso anabólico fotosintético que la hace crecer, se termina pudriendo y desintegrando, degradándose al estado inorgánico.
En esta tendencia al caos de todo sistema existe entonces un punto de bifurcación, como lo llama Prigogine, donde el sistema tiene dos posibilidades: o bien continúa su proceso de caos progresivo y termina retornando a un estado anterior (por ejemplo el estado inorgánico), o bien ocurre por azar un acontecimiento que hará que el proceso evolucione hacia un orden creciente alcanzando un nuevo estado de equilibrio llamado estructura disipativa.

¿Cuál sería el equivalente en la investigación del lenguaje, del punto de bifurcación y de la estructura dispersiva de la que habla Prigogine? Tomemos dos ejemplos: uno de creación literaria y otro de creación científica.

a) El primero tiene que ver con un lenguaje cinematográfico, con el guión de la película "Titanic", de James Cameron, estrenada este año. En principio, hay dos posibilidades: un guión convencional y repetitivo, y un guión creativo y original.
El guión convencional hubiera consistido en narrar los hechos linealmente y en una forma casi totalmente predecible: el barco sale del puerto, luego lo vemos surcar el Atlántico, choca con un témpano, se hunde y algunos pasajeros se salvan. Mientras el guionista va pensando este argumento, se produce en su mente una especie de desorganización momentánea, de caos donde evoca imágenes diferentes, como si fuera un rompecabezas de debe armar. Poco a poco va llegando al punto de bifurcación, donde el guionista convencional encuentra una salida que implica un retorno al estado anterior: narrar los hechos tal como sucedieron, en la forma antes indicada, o los narra como también lo había hecho la película anterior. Otro guionista más creativo, al llegar al punto de bifurcación genera una nueva estructura argumental. Para generar y mantener esta estructura disipativa se requiere aporte externo de energía e información, esta última,por ejemplo, bajo la forma de imágenes alternativas que surgen de ideas personales o de ideas sugeridas por cosas que vió o leyó. La solución que dio Cameron a su película resulta original. El film no comienza con la clásica salida del puerto del Titanic, sino con un cazafortunas que busca en el barco ya hundido un supuesto tesoro escondido en una caja. Cuando la abre, no hay tal tesoro pero en su lugar hay un retrato, una foto en color sepia de una mujer joven. La siguiente imagen es esa misma mujer cuando ya es anciana, y rememora su romance a bordo del Titanic. A partir de aquí, el argumento retrocede hasta la época en que ocurrieron los hechos. Todas estas imágenes que aparecen desde el comienzo no permiten casi prever cuál será la siguiente (ni siquiera la primera imagen del cazafortunas es predecible): la estructura disipativa es un orden que no puede predecirse a partir del caos anterior. Si el día de mañana se decide hacer una nueva película sobre el tema, el nuevo guionista podrá partir de la última línea argumental, ahora clásica, y, o bien repetirla volviendo al estado anterior, o bien generando una nueva estructura disipativa, es decir, un nuevo diseño argumental.

b) El segundo ejemplo tiene que ver con la tarea que emprende quien debe escribir una monografía o una tesis. Lo primero que aparece es un estado de confusión, de caos. El texto científico aparece primero tal vez como una idea difusa, un sueño, una inspiración o incluso simplemente una simple voluntad por querer escribir algo. En esta etapa, el pensamiento se mueve erráticamente, toma y abandona ideas con facilidad, y hasta puede cambiar hasta su propósito original. Esta confusión inicial progresa hacia el punto de bifurcación, donde una posibilidad es escribir algo ya escrito (hay monografías que son simples transcripciones textuales), y otra posibilidad es, en vez de la repetición, la creación de una nueva estructura disipativa, un nuevo orden, de manera que queda una distancia entre el texto imaginado, garrapateado, corregido y finalmente publicado. Mientras tanto el texto sufre diversas correcciones. El primer lector de un autor es él mísmo, y es también su primer crítico, a veces feroz y despiadado. Un buen escritor, dijo alguien, es aquel que escribe veinte hojas y tira diez y nueve.

El resultado final es una estructura ordenada donde nada sobra ni nada falta. Un buen cuento, para Isidoro Blainstein, es como un reloj: no sobre ninguna pieza-palabra, ni tampoco falta ninguna. Es predecible un orden, pero no qué clase de orden: una misma consigna para distintos escritores, darán diferentes productos terminados. La impredecibilidad del tipo de orden al que se llega está dada por la incertidumbre o la intriga acerca de cuál será el siguiente párrafo. El escritor original busca nuevas combinaciones porque ello, al hacer más improbable, incierto o impredecible el próximo párrafo, lo hace también más informativo, según la idea de Shannon.

Aunque es más difícil, también puede estructurarse el discurso de manera que sea incierta no el próximo párrafo sino la próxima palabra, y, aún más difícil, que lo incierto sea la siguiente letra dentro de la palabra.

En síntesis, podríamos decir que desde que el sujeto incorpora las primeras letras del alfabeto hasta que termina escribiendo una tesis, va aprendiendo a administrar los recursos entrópicos del lenguaje. Si quiere un texto más creativo, aprenderá que debe consumir más energía, y si quiere ahorrarla, se transformará en un repetidor. Para ello cuenta con un patrimonio colectivo constituído por 28 letras, en el caso del castellano. Si solamente con las diferentes combinaciones de unas pocas bases cíclicas nitrogenadas del ADN se pueden generar tantos seres vivos diferentes, ¿que esperar de las 28 unidades de nuestro lenguaje?

"DEL ORDEN AL CAOS"
"DE LORD ENA LCA"OS
E"DCA DEN LO RA L S"O
E" D A C E N D O R L A S " L O
DEL"CA AL OS D E"N OR
"DEL CASOALO RDE"N
"DEL CAOS AL ORDEN"


Pablo Cazau