Capra, Fritjof (1998): La trama de la vida. Una nueva perspectiva de los sistemas vivos


CAPRA, Fritjof (1998): La trama de la vida. Una nueva perspectiva de los sistemas vivos, Anagrama


31
Resulta aquí interesante señalar la sorprendente conexión entre los cambios de pensamiento y de valores. Ambos pueden ser contemplados como cambios desde la asertividad a la integración. Ambas tendencias - la asertiva y la integrativa- son aspectos esenciales de todos los sistemas vivos. Ninguna es intrínsecamente buena o mala. Lo bueno o saludable es un equilibrio dinámico entre ambas y lo malo o insalubre es su desequilibrio, el enfatizar desproporcionadamente una en detrimento de la otra. Si contemplamos desde esta perspectiva nuestra cultura industrial occidental, veremos que hemos enfatizado las tendencias asertivas a costa de las integrativas. Ello resulta evidente al mismo tiempo en nuestro pensamiento y en nuestros valores y resulta muy instructivo emparejar estas tendencias opuestas:

Pensamiento              

Asertivo                      Integrativo
racional                       intuitivo
analítico                      sintético
reduccionista             holístico
lineal                           no-lineal

Valores

Asertivo                      Integrativo
expansión                   conservación
competición                cooperación
cantidad                      Calidad
dominación                asociación                            

34
"El vínculo entre ecología y psicología establecido desde el concepto del «sí mismo ecológico» ha sido explorado recientemente por varios autores. La ecóloga profunda Joanna Macy escribe sobre el «reverdecimiento del sí mismo», el filósofo Warwick Fox ha acuñado el término «ecología transpersonal» y el historiador cultural Theodore Roszak utiliza el término «ecopsicología» para expresar la profunda conexión entre ambos campos, que hasta hace poco se veían completamente separados."

38
La tensión entre mecanicismo y holismo ha sido tema recurrente a lo largo de la historia de la biología y es una consecuencia inevitable de la vieja dicotomía entre substancia (materia, estructura, cantidad) y forma (patrón, orden cualidad). El aspecto biológico es más que una forma, más que una configuración estática de componentes en un todo. Hay un flujo continuo de materia a través de un organismo vivo mientras que su forma se mantiene. Hay desarrollo y hay evolución. Por lo tanto, la comprensión del aspecto biológico está inextricablemente ligada a la comprensión de los procesos metabólicos y relativos al desarrollo.

En el alba de la filosofía y la ciencia occidentales, los pitagóricos distinguían «número» o patrón, de substancia o materia, y lo veían como algo que limitaba la materia y le daba forma. En palabras de Gregory Bateson:

El asunto tomó la forma de «¿Preguntas de qué está hecho -tierra, fuego, agua, etc.?», o preguntas «¿Cuál es su patrón?» Los pitagóricos preferían inquirir sobre el patrón a hacerlo sobre la substancia.

Aristóteles, el primer biólogo de la tradición occidental, distinguía también entre materia y forma pero al mismo tiempo las vinculaba mediante el proceso de desarrollo. En contraste con Platón, Aristóteles creía que la forma no tenía una existencia separada sino que era inmanente en la materia y que ésta tampoco podía existir aisladamente de la forma. La materia, según Aristóteles, contenía la naturaleza esencial de todas las cosas, pero sólo como potencialidad. Por medio de la forma, esta esencia se convertía en real o actual. El proceso de la autorrealización de la esencia en el fenómeno real fue denominado por Aristóteles enteleqitia («autocompleción»)* Se trata de un proceso de desarrollo, un empuje hacia la plena autorrealización. Materia y forma son caras de dicho proceso, separables sólo mediante la abstracción.

* En la filosofía aristotélica, estado de perfección hacia el cual tiende cada especie de ser. (N. del T.)


39
EL  MECANICISMO CARTESIANO

En los siglos XVI y XVII la visión medieval del mundo, basada en la filosofía aristotélica y en la teología cristiana, cambió radicalmente. La noción de un universo orgánico, viviente y espiritual fue reemplazada por la del mundo como máquina, y ésta se convirtió en la metáfora dominante de la era moderna. Este cambio radical fue propiciado por los nuevos descubrimientos en física, astronomía y matemáticas conocidos como la Revolución científica y asociados con los nombres de Copérnico, Galileo, Descartes, Bacon y Newton.

Galileo Galilei excluyó la cualidad de la ciencia, restringiendo ésta al estudio de fenómenos que pudiesen ser medidos y cuantificados. Ésta ha sido una estrategia muy exitosa en la ciencia moderna, pero nuestra obsesión por la medición y la cuantificación ha tenido también importantes costes, como erráticamente describe el psiquiatra R. D. Laing:

El programa de Galileo nos ofrece un mundo muerto: fuera quedan la vista, el sonido, el gusto, el tacto y el olor y con ellos desaparecen la sensibilidad estética y ética, los valores, las cualidades, el alma, la consciencia y el espíritu. La experiencia como tal queda excluida del reino del discurso científico. Probablemente nada haya cambiado tanto nuestro mundo en los últimos cuatrocientos años como el ambicioso programa de Galileo. Teníamos que destruir el mundo primero en teoría, para poder hacerlo después en la práctica.

René Descartes creó el método de pensamiento analítico, consistente en desmenuzar los fenómenos complejos en partes para comprender, desde las propiedades de éstas, el funcionamiento del todo. Descartes basó su visión de la naturaleza en la fundamental división entre dos reinos independientes y separados: el de la mente y el de la materia. El universo material, incluyendo los organismos vivos, era para Descartes una máquina que podía ser enteramente comprendida analizándola en términos de sus parles más pequeñas.

40
El marco conceptual creado por Galileo y Descartes -el mundo como una máquina perfecta gobernada por leyes matemáticas exactas- fue triunfalmente completado por Isaac Newton, cuya gran síntesis - la mecánica newtoniana- constituyó el logro culminante de la ciencia del siglo XVII.
...

Simultáneamente, la rígida fisiología mecanicista encontró su más potente y elaborada expresión en el polémico tratado de Julien de La Mettrie El hombre máquina, que mantuvo su fama más allá del siglo XVIII y generó múltiples debates y controversias, algunas de las cuales alcanzaron hasta el siglo XX.

...

EL  MOVIMIENTO ROMÁNTICO

La primera oposición frontal al paradigma cartesiano mecanicista partió del movimiento romántico en el arte, la literatura y la filosofía a finales del siglo XVIII y en el siglo XIX. William Blake, el gran poeta místico y pintor que ejerció una fuerte influencia en el Romanticismo británico, fue un apasionado crítico de Newton. Resumió su crítica en estas celebradas líneas:

41
Líbrenos Dios de la visión simplista y del sueño de Newton' *
*La rima en inglés es como sigue: «May God us keep / from single vision and Newton's sleep.» (N. del T.)

Los poetas y filósofos románticos alemanes volvieron a la tradición aristotélica, concentrándose en la naturaleza de la forma orgánica. Goethe, la figura central de este movimiento, fue uno de los primeros en utilizar el término «morfología» para el estudio de la forma biológica desde una perspectiva dinámica y del desarrollo. Admiraba el «orden en movimiento» (bewegliche ordnung) de la naturaleza y concebía la forma como un patrón de relaciones en el seno de un todo organizado, concepto que está en la vanguardia del pensamiento sistémico contemporáneo. «Cada criatura», escribía Goethe, «no es sino una gradación pautada (schattierung) de un gran y armonioso todo.»

La comprensión de la forma orgánica jugó también un papel primordial en la filosofía de Emmanuel Kant, considerado frecuentemente el más grande de los filósofos modernos. Idealista, Kant separaba el mundo de los fenómenos de un mundo de «las-cosas-en-sí-mismas». Creía que la ciencia podía ofrecer únicamente explicaciones mecanicistas y afirmaba que, en áreas en las que tales explicaciones resultasen insuficientes, el conocimiento científico debía ser completado con la consideración del propio propósito de la naturaleza. La más importante de estas áreas, según Kant, sería la comprensión de la vida.

En su Crítica a la razón, Kant discutió la naturaleza de los organismos. Argumentaba que éstos, en contraste con las máquinas, son autorreproductores y autoorganizadores. En una máquina, según Kant, las partes sólo existen unas para las otras, en el sentido de apoyarse mutuamente dentro de un todo funcional, mientras que en un organismo, las partes existen además por medio de las otras, en el sentido de producirse entre sí." «Debemos ver cada parte como un órgano», decía Kant, «que produce las otras partes (de modo que cada una produce recíprocamente las otras)... Debido a esto, [el organismo] será a la vez un ser organizado y autoorganizador». Con esta afirmación, Kant se convertía no sólo en el primero en utilizar el término «autoorganización» para definir la naturaleza de los organismos vivos, sino que además lo usaba de modo notablemente similar a algunos de los conceptos contemporáneos.

43
Durante la segunda mitad del siglo XIX, el péndulo retrocedió hacia el mecanicismo cuando el recientemente perfeccionado microscopio condujo a notables avances en biología. El siglo XIX es más conocido por el desarrollo del pensamiento evolucionista, pero también vio la formulación de la teoría celular, el principio de la moderna embriología, el ascenso de la microbiología y el descubrimiento de las leyes de la herencia genética. Estos nuevos descubrimientos anclaron firmemente la biología en la Física y la química y los científicos redoblaron sus esfuerzos en la búsqueda de explicaciones físico-químicas para la vida.

44
Las limitaciones del modelo reduccionista se evidenciaron aún más espectacularmente en el análisis del desarrollo y diferenciación celular. En los primeros estadios del desarrollo de los organismos superiores, el número de células se incrementa de una a dos, a cuatro, a ocho y así sucesivamente, doblándose a cada paso. Puesto que la información genética es idéntica para cada célula, ¿cómo pueden éstas especializarse en distintas vías, convirtiéndose en células musculares, sanguíneas, óseas, nerviosas, etc.? Este problema básico del desarrollo, que se repite bajo diversos aspectos en biología, desafía claramente la visión mecanicista de la vida. 

46
LA BIOLOGÍA ORGANICISTA

A principios del siglo XX los biólogos organicistas, en oposición al mecanicismo y al vitalismo, tomaron el problema de la forma biológica con nuevo entusiasmo, elaborando y redefiniendo muchos de los conceptos clave de Aristóteles, Goethe, Kant y Cuvier. Algunas de las principales características de lo que hoy llamamos pensamiento sistémico surgieron de sus extensas reflexiones.

Ross Harrison, uno de los exponentes tempranos de la escuela organicista, exploró el concepto de organización, que había ido reemplazando gradualmente la vieja noción de función en fisiología. Este cambio de función a organización representó un desplazamiento del pensamiento mecanicista al sistémico, al ser la función un concepto esencialmente mecanicista.

47
El bioquímico Lawrence Henderson influenció con su temprano uso del término «sistema» para denominar organismos vivos y sistemas sociales. A partir de aquel momento, «sistema» ha venido a definir un todo integrado cuyas propiedades esenciales surgen de las relaciones entre sus partes, y «pensamiento sistémico» la comprensión de un fenómeno en el contexto de un todo superior. Esta es, en efecto, la raíz de la palabra «sistema» que deriva del griego synistánai («reunir», «juntar», «colocar juntos»). Comprender las cosas sistémicamente significa literalmente colocarlas en un contexto, establecer la naturaleza de sus relaciones.

Woodger y muchos otros subrayaron que una de las características clave de la organización de los organismos vivos era su naturaleza jerárquica. Efectivamente, una de las propiedades sobresalientes de toda manifestación de vida es la tendencia a constituir estructuras multinivel de sistemas dentro de sistemas. Cada uno de ellos forma un todo con respecto a sus partes, siendo al mismo tiempo parte de un todo superior. Así las células se combinan para formar tejidos, éstos para formar óiganos y éstos a su vez para formar organismos. Éstos a su vez existen en el seno de sistemas sociales y ecosistemas. A través de todo el mundo viviente nos encontramos con sistemas vivos anidando dentro de otros sistemas vivos.

48
Algo que los primeros pensadores sistémicos admitieron muy claramente fue la existencia de diferentes niveles de complejidad con diferentes leyes operando en cada nivel. En efecto, el concepto de «complejidad organizada» se convirtió en el protagonista del planteamiento sistémico. A cada nivel de complejidad los fenómenos observados evidencian propiedades que no se dan en el nivel inferior. Por ejemplo, el concepto de temperatura, crucial en termodinámica, carece de sentido al nivel de átomos individuales, donde reinan las leyes de la teoría cuántica. Del mismo modo, el sabor del azúcar no está presente en los átomos de carbón, hidrógeno y oxígeno que lo constituyen. A principios de los años veinte, el filósofo C. D. Broad acuñó el término «propiedades emergentes» para estas propiedades que surgen a un cierto nivel de complejidad pero que no se dan en niveles inferiores.

...

E L PENSAMIENTO SISTÉMICO

Las ideas propuestas por los biólogos organicistas durante la primera mitad del siglo contribuyeron al nacimiento de una nueva manera de pensar-«pensamiento sistémico»- en términos de conectividad, relaciones y contexto. Según la visión sistémica, las propiedades esenciales de un organismo o sistema viviente, son propiedades del todo que ninguna de las partes posee. Emergen de las interacciones y relaciones entre las partes. Estas propiedades son destruidas cuando el sistema es diseccionado, ya sea física o teóricamente, en elementos aislados. Si bien podemos discernir partes individuales en todo sistema, estas partes no están aisladas y la naturaleza del conjunto es siempre distinta de la mera suma de sus partes.

...

El gran shock para la ciencia del siglo XX ha sido la constatación de que los sistemas no pueden ser comprendidos por medio del análisis. Las propiedades de las partes no son propiedades intrínsecas, sino que sólo pueden ser comprendidas en el contexto de un conjunto mayor. En consecuencia, la relación entre las partes y el todo ha quedado invertida. En el planteamiento sistémico las propiedades de las partes sólo se pueden comprender desde la organización del conjunto, por lo tanto, el pensamiento sistémico no se concentra en los componentes básicos, sino en los principios esenciales de organización. El pensamiento sistémico es «contextual», en contrapartida al analítico. Análisis significa aislar algo para estudiarlo y comprenderlo, mientras que el pensamiento sistémico encuadra este algo dentro del contexto de un todo superior.



LA FÍSICA CUÁNTICA

La constatación de que los sistemas son totalidades integradas que no pueden ser comprendidas desde el análisis fue aún más chocante en física que en biología. Desde Newton, los físicos habían pensado que todos los fenómenos físicos podían ser reducidos a las propiedades de sólidas y concretas partículas materiales. En los años veinte no obstante, la teoría cuántica les forzó a aceptar el hecho de que los objetos materiales sólidos de la física clásica se disuelven al nivel subatómico en pautas de probabilidades en forma de ondas. Estas pautas o patrones, además, no representan probabilidades de cosas, sino más bien de interconexiones. Las partículas subatómicas carecen de significado como entidades aisladas y sólo pueden ser entendidas como interconexiones o correlaciones entre varios procesos de observación y medición. En otras palabras, las partículas subatómicas no son «cosas» sino interconexiones entre cosas y éstas, a su vez, son interconexiones entre otras cosas y así sucesivamente. En teoría cuántica nunca terminamos con «cosas», sino que constantemente tratamos con interconexiones.

50
En el formalismo de la teoría cuántica, estas relaciones se expresan en términos de probabilidades y éstas quedan determinadas por la dinámica de todo el sistema. Mientras que en la mecánica clásica las propiedades y el comportamiento de las partes determinan las del conjunto, en la mecánica cuántica la situación se invierte: es el todo el que determina el comportamiento de las partes.

52
La ecología -del griego oikos («casa»)- es el estudio del Hogar Tierra. Más concretamente, es el estudio de las relaciones que vinculan a todos los miembros de este Hogar Tierra. El término fue acuñado en 1866 por el biólogo alemán Ernst Haeckel, quien la definió como «la ciencia de las relaciones entre el organismo y el mundo exterior que le rodea.» En 1909 la palabra umwelt («entorno») fue utilizada por primera vez por el biólogo báltico y pionero ecológico Jakob von Uexküll. 

...

Puesto que el lenguaje utilizado por los primeros ecólogos no era muy distinto del de la biología organicista, no resulta sorprendente que comparasen comunidades biológicas con organismos. Por ejemplo, Frederic Clements, un ecólogo botánico americano pionero en el estudio de la sucesión, veía las comunidades de plantas como «superorganismos». Este concepto desencadenó un vivo debate, que se prolongó durante más de una década hasta que el ecólogo botánico británico A. G. Tansley refutó la noción de superorganismo y acuñó el término «ecosistema» para describir a las comunidades de animales y plantas. El concepto de ecosistema -definido hoy en día como «una comunidad de organismos y su entorno físico, interactuando como una unidad ecológica»-  conformó todo el pensamiento ecológico subsiguiente y promovió una aproximación sistémica a la ecología.


53
Sabemos hoy que la mayoría de los organismos no sólo son miembros de comunidades ecológicas, sino que son también complejos ecosistemas en sí mismos, conteniendo huestes de organismos más pequeños dotados de considerable autonomía, pero integrados armoniosamente en un todo funcional. Hay pues tres clases de sistemas vivos: organismos, partes de organismos y comunidades de organismos; todos ellos totalidades integradas cuyas propiedades esenciales surgen de las interacciones e interdependencia de sus partes.

A lo largo de miles de millones de años de evolución, múltiples especies han ido tejiendo comunidades tan estrechas que el sistema se asemeja a un enorme, multicriatural organismo.

Abejas y hormigas, por ejemplo, son incapaces de sobrevivir aisladamente pero en masa, actúan casi como las células de un complejo organismo dotado de inteligencia colectiva

54
A medida que el concepto de red fue adquiriendo mayor relevancia en ecología, los pensadores sistémicos empezaron a aplicar los modelos de redes a todos los niveles sistémicos, contemplando a los organismos como redes de células, órganos y sistemas de órganos, al igual que los ecosistemas son entendidos como redes de organismos individuales. Consecuentemente, los flujos de materia y energía a través de los ecosistemas se perciben como la continuación de las vías metabólicas a través de los organismos. 

La visión de los sistemas vivos como redes proporciona una nueva perspectiva sobre las llamadas jerarquías de la naturaleza. Puesto que los sistemas vivos son redes a todos los niveles, debemos visualizar la trama de la vida como sistemas vivos (redes) interactuando en forma de red con otros sistemas (redes). Por ejemplo, podemos representar esquemáticamente un ecosistema como una red con unos cuantos nodos. Cada nodo representa un organismo y ampliado aparecerá como otra red. Cada nodo en la nueva red representará un órgano, que a su vez aparecerá como una red al ser ampliado y así sucesivamente.

En otras palabras, la trama de la vida está constituida por redes dentro de redes. En cada escala y bajo un escrutinio más cercano, los nodos de una red se revelan como redes más pequeñas. Tendemos a organizar estos sistemas, todos ellos anidando en sistemas mayores, en un esquema jerárquico situando los mayores por encima de los menores a modo de pirámide invertida, pero esto no es más que una proyección humana. En la naturaleza no hay un «arriba» ni un «abajo» ni se dan jerarquías. Sólo hay redes dentro de redes.

TEORIA DE SISTEMAS
58
Durante milenios, los científicos y filósofos occidentales han usado la metáfora del conocimiento como un edificio, junto con muchas otras metáforas arquitectónicas derivadas de la primera. Hablamos de leyes fundamentales, principios fundamentales, componentes básicos y demás, afirmando que el edificio de la ciencia debe ser construido sobre firmes cimientos. Cada vez que se producía una revolución científica mayor, se veían temblar los cimientos de la ciencia. Descartes escribía en su Discurso del método:

Mientras que las [ciencias] tomen prestados sus principios a la filosofía, considero que nada sólido podrá ser edificado sobre tan inestables cimientos.

...

En el nuevo pensamiento sistémico, la metáfora del conocimiento como construcción queda reemplazada por la de la red. Al percibir la realidad como una red de relaciones, nuestras descripciones forman también una red interconectada de conceptos y modelos en la que no existen cimientos. Para la mayoría de científicos, esta visión del conocimiento como red sin cimientos firmes resulta aún sumamente inquietante. Pero, a medida que el planteamiento de red se expanda por la comunidad científica, la idea del conocimiento como red encontrará sin duda una creciente aceptación.

60
Si imaginamos la red (...) como mucho más intrincada, quizás parecida de algún modo a la mancha de tinta del test de Rorschach, podemos comprender fácilmente que aislar un patrón dentro de esta compleja red dibujando una frontera aleatoria a su alrededor y denominarlo un «objeto» resulta un tanto arbitrario.

Efectivamente, esto es lo que sucede cuando nos referimos a objetos de nuestro entorno. Por ejemplo, cuando vemos una red de relaciones entre hojas, ramitas, ramas y tronco, la denominamos «árbol». Al dibujar un árbol, la mayoría de nosotros olvidará las raíces, si bien éstas son a menudo tanto o más extensas que las partes del árbol que vemos. En un bosque, además, las raíces de todos sus árboles están entremezcladas, formando una densa red subterránea en la que no existen fronteras precisas entre árboles individuales.

Dicho brevemente, lo que denominamos árbol depende de nuestras percepciones. Depende, como decimos en ciencia, de nuestro método, de nuestra observación y de nuestras mediciones. En palabras de Heisenberg: «Lo que observamos, no es la naturaleza en sí misma, sino la naturaleza expuesta a nuestro método de observación.» Así pues, el pensamiento sistémico comporta un cambio de ciencia objetiva a ciencia «epistémica», a un marco en el que la epistemología -«el método de cuestionar»- se convierte en parte integrante de las teorías científicas.

Esta novedosa aproximación a la ciencia plantea de inmediato una importante cuestión. Si todo está conectado con todo, ¿cómo podemos esperar comprender algo jamás? Puesto que todos los fenómenos están interconectados, para explicar cualquiera de ellos precisaremos comprender todos los demás, lo que obviamente resulta imposible.

61
En el nuevo paradigma se admite que lodos los conceptos y teorías científicas son limitados y aproximados; la ciencia nunca puede facilitar una comprensión completa y definitiva.

61
Este sencillo ejemplo demuestra cómo la caída de un objeto está conectada de múltiples maneras a su entorno y en última instancia al resto del universo. No importa cuántas conexiones tomemos en consideración para describir un fenómeno, siempre estaremos obligados a excluir otras. Por tanto, los científicos jamás pueden tratar con la verdad, en el sentido de una correspondencia precisa entre la descripción y el fenómeno descrito. En ciencia tratamos siempre con descripciones aproximadas de la realidad. Esto puede parecer frustrante, pero para los pensadores sistémicos el hecho de que podamos obtener un conocimiento aproximado sobre una red infinita de patrones interconectados es una fuente de confianza y fortaleza.



62
PENSAMIENTO PROCESAL

Todos los conceptos sistémicos discutidos hasta este punto pueden ser vistos como diferentes aspectos de una gran rama del pensamiento sistémico, que podríamos denominar pensamiento contextual. Hay otra rama de igual importancia que de algún modo surge en la ciencia de finales del siglo XX. Esta segunda rama es el pensamiento procesal. En el marco mecanicista de la ciencia cartesiana hay estructuras fundamentales y luego hay fuerzas y mecanismos a través de los cuales éstas interactúan, dando lugar a los procesos. En la ciencia sistémica cada estructura es vista como la manifestación de procesos subyacentes. El pensamiento sistémico siempre es pensamiento procesal.

63
TEKTOLOGÍA

Normalmente se adjudica a Ludwig von Bertalanffy la primera formulación de un marco teórico comprensible para describir los principios de organización de los sistemas vivos. Sin embargo, veinte o treinta años antes de que publicase sus primeros escritos sobre su «teoría general de los sistemas», Alexander Bogdanov, médico, investigador, filósofo y economista ruso, desarrolló una teoría de sistemas de igual sofisticación y alcance que, desafortunadamente, es aún muy poco conocida fuera de Rusia. Bogdanov llamó a su teoría «tektología», del griego tekton («constructor»), lo que podría ser traducido como «la ciencia de las estructuras». El objetivo principal de Bogdanov era clarificar y generalizar los principios de organización de todas las estructuras vivientes y no vivientes (...)

64
El objetivo de Bogdanov era formular una «ciencia universal de la organización». Definía la forma organizadora como la «totalidad de conexiones entre elementos sistémicos», lo que resulta virtualmente idéntico a nuestra definición contemporánea de patrón de organización. Intercambiando los términos «complejo» y «sistema», Bogdanov distinguía tres clases de sistemas: complejos organizados, donde el todo es mayor que la suma de sus partes; complejos desorganizados, donde el todo es menor que la suma de sus partes, y complejos neutros, donde las actividades organizadoras y desorganizadoras se cancelan mutuamente.

...

Al igual que Bertalanffy, Bogdanov reconoce que los sistemas vivos son sistemas abiertos que operan lejos del equilibrio y estudia cuidadosamente sus procesos de regulación y autorregulación. Un sistema que no precisa de regulación externa ya que se autorregula, es el denominado «birregulador» en el lenguaje de Bogdanov. Utilizando el ejemplo del motor a vapor, como harían los cibernéticos varias décadas después, Bogdanov describe esencialmente el mecanismo definido como retroalimentación por Norbert Wiener, concepto que sería básico para la cibernética.

66
LA TEORÍA GENERAL DE SISTEMAS

Ludwig von Bertalanffy empezó su carrera como biólogo en la Viena de los años veinte. Pronto se unió a un grupo de científicos y filósofos conocido internacionalmente como el Círculo de Viena y su trabajo incluyó desde sus inicios amplios temas filosóficos (...) Se dispuso a reemplazar los fundamentos mecanicistas de la ciencia por una visión holística:

La teoría general de sistemas es una ciencia general de «totalidad», concepto que hasta ahora ha sido considerado vago, confuso y semimetafísico. En forma elaborada sería una disciplina matemática puramente formal en sí misma, pero aplicable a las diversas ciencias empíricas. Para las ciencias relacionadas con «totalidades organizadas» tendría semejante significación, como la teoría de probabilidades para las ciencias relacionadas con «sucesos aleatorios».

...

Mientras que la mecánica newtoniana era una ciencia de fuerzas y trayectorias, el pensamiento evolucionista -pensamiento en términos de cambio, crecimiento y desarrollo requería una nueva ciencia de la complejidad. La primera formulación de esta nueva ciencia fue la termodinámica clásica con su celebrada «segunda ley», la ley de la disipación de la energía. De acuerdo con la segunda ley de la termodinámica, formulada primero por el físico francés Sadi Carnot en términos de tecnología para motores térmicos, hay una tendencia en los fenómenos físicos desde el orden hacia el desorden. Todo sistema físico aislado o «cerrado» procederá espontáneamente en la dirección de un creciente desorden. Para expresar en términos matemáticos precisos esta dirección en la evolución de los sistemas físicos, los físicos introdujeron una nueva medida que llamaron «entropía». según la segunda ley, la entropía de un sistema físico cerrado irá incrementándose, y dado que esta evolución viene acompañada de desorden creciente, la entropía puede ser también considerada como una medida de desorden. Con el concepto de entropía y la formulación de la segunda ley, la termodinámica introducía la idea de procesos irreversibles, de un «vector de tiempo», en la ciencia. Según la segunda ley, alguna energía mecánica queda siempre disipada en forma de calor y no puede ser recuperada por completo. Así pues, el mundo-máquina estaría inmerso en un proceso de agotamiento que le llevaría irremisiblemente a un punto final. Esta sórdida imagen de la evolución cósmica contrastaba completamente con el pensamiento evolucionista compartido por los biólogos del siglo XIX, quienes observaban que el universo viviente evolucionaba del desorden al orden, hacia estados de creciente complejidad. Así pues, al final del siglo XIX, la mecánica newtoniana, la ciencia de las eternas trayectorias reversibles, había sido reemplazada por dos visiones del cambio evolutivo diametralmente opuestas: la de un mundo vivo desplegándose hacia un creciente orden y complejidad y la de un motor en agotamiento, un mundo en creciente desorden. ¿Quién tenía razón, Darwin o Carnot? Ludwig von Bertalanffy no podía resolver este dilema, pero dio el primer paso crucial al afirmar que los organismos vivos son organismos abiertos que no pueden ser descritos por la termodinámica clásica. Los llamó «abiertos» porque, para seguir vivos, necesitan alimentarse de un flujo continuo de materia y energía proveniente de su entorno:

El organismo no es un sistema estático cerrado al exterior, conteniendo siempre los mismos elementos; es un sistema abierto en un estado (cuasi)estable... en el que la materia continuamente entra desde, y sale hacia, el medio exterior.

68
A diferencia de los sistemas cerrados, que se instalan en un estado de equilibrio térmico, los sistemas abiertos se mantienen lejos del equilibrio en este estado «estable» caracterizado por un continuo flujo y cambio. Bertalanffy acuñó el término alemán fliessgleichgewicht («equilibrio fluyente») para describir este estado de equilibrio dinámico. Vio claramente que la termodinámica clásica, que trata de sistemas cerrados en o cerca del estado de equilibrio, resultaba inadecuada para describir sistemas abiertos en estados estables lejos del equilibrio.

En los sistemas abiertos, especulaba Bertalanffy, la entropía (o desorden) puede decrecer y la segunda ley de la termodinámica puede no ser de aplicación. Postulaba que la ciencia clásica debería ser complementada por alguna nueva termodinámica de sistemas abiertos (...) La formulación de la nueva termodinámica de sistemas abiertos debería esperar hasta los años setenta. Éste fue el gran logro de Ilya Prigogine, quien usó unas nuevas matemáticas para reevaluar la segunda ley, repensando radicalmente los conceptos científicos tradicionales de orden y desorden, lo que le permitió resolver sin ambigüedades la contradicción entre las dos visiones de la evolución del siglo XIX.

Bertalanffy identificó correctamente las características del estado estable con las del proceso del metabolismo, lo que le llevó a postular la autorregulación como otra propiedad clave de los sistemas abiertos. Esta idea fue redefinida por Prigogine treinta años después en términos de la autorregulación de las «estructuras disipativas».

La visión de Ludwig von Bertalanffy sobre una «ciencia general de la totalidad» se basaba en su observación de que los conceptos y principios sistémicos podían ser de aplicación en distintos campos de estudio: «El paralelismo de conceptos generales o incluso de leyes específicas en distintos campos», explicaba, «es consecuencia del hecho de que éstos están relacionados con "sis-temas" y que ciertos principios generales son de aplicación a los sistemas con independencia de su naturaleza.»

4. LA LÓGICA DE LA MENTE
70
Mientras Ludwig von Bertalanfíy trabajaba en su teoría general de sistemas, los intentos de desarrollar máquinas autoconducidas y autorreguladas llevaban a un campo de investigación enteramente nuevo, llamado a tener un impacto de la mayor importancia en la expansión de la visión sistémica de la vida. Nutriéndose de diversas disciplinas, la nueva ciencia representaba un enfoque unificado de los problemas de comunicación y control, involucrando todo un conjunto de ideas novedosas que inspiró a Norbert Wiener a inventar para ella un nombre específico: «cibernética». Esta palabra deriva del término griego kibernetes («timonel») y Wiener definió la cibernética como la ciencia del «control y comunicación en el animal y en la máquina».

La cibernética
(...) Trataban con un nivel distinto de descripción, que se concentraba en patrones de comunicación, especialmente en redes y bucles cerrados. Sus investigaciones les condujeron a los conceptos de retroalimentación y autorregulación y, más adelante, al de autoorganización.

...

Wiener, en especial, reconocía que las nuevas nociones de mensaje, control y retroalimentación se referían a pautas de organización -es decir, entidades inmateriales- cruciales para una descripción científica completa de la vida (...) «No somos sino remolinos en un río de incesante corriente», escribía en 1950. «No somos materia perdurable, sino pautas que se perpetúan a sí mismas.»

...

Su intención desde el principio fue crear una ciencia exacta de la mente.

...

75
Un bucle de retroalimentación es una disposición circular de elementos conectados causalmente, en la que una causa inicial se propaga alrededor de los eslabones sucesivos del bucle, de tal modo que cada elemento tiene un efecto sobre el siguiente, hasta que el último «retroalimenta» el efecto sobre el primer eslabón en que se inició el proceso. La consecuencia de esta disposición es que el primer eslabón
(«input») se ve afectado por el último («output»), lo que se traduce en la autorregulación de todo el sistema, al verse modificado el estímulo inicial a lo largo de cada recorrido por el circuito. Retro-alimentación, en palabras de Wiener, es el «control de una máquina en base a su comportamiento real, y no al esperado». En un sentido más amplio, retroalimentación ha venido a significar el retorno de la información a su punto de origen, a través del desarrollo de un proceso o actividad.


77
La primera discusión detallada sobre bucles de retroalimentación apareció en un artículo suscrito por Norbert Wiener, Julian Bigelow y Arturo Rosenblueth, publicado en 1943 bajo el título de «Comportamiento, propósito y teleología». En él, los autores no sólo introducían la idea de la causalidad circular como patrón lógico subyacente en el concepto de ingeniería de retroalimentación, sino que aplicaban por primera vez para ilustrar el comportamiento de los organismos vivos. Desde una postura estrictamente conductista, argumentaban que el comportamiento de toda máquina u organismo comprendiendo la autorregulación desde la retroalimentación podía denominarse «intencionado», al tratarse de comportamiento dirigido a un objetivo. Ilustraban su modelo de semejante comportamiento dirigido a un objetivo (...)

Wiener y sus colegas reconocían además a la retroalimentación como el mecanismo esencial de la homeostasis, la autorregulación que permite a los organismos vivos mantenerse en un estado de equilibrio dinámico (...) el concepto de bucle de retroalimentación introducido por los cibernéticos condujo a nuevas percepciones sobre los múltiples procesos autorreguladores característicos de la vida, gracias a las que hoy entendemos que los bucles de retroalimentación están omnipresentes en el mundo vivo, constituyendo una característica especial de los patrones de red no-lineal propios de los sistemas vivos.

...

Los cibernéticos distinguían dos clases de retroalimentación: la autoequilibrante (o «negativa») y la autorreforzadora (o «positiva»). Como ejemplos de esta última podemos citar los círculos viciosos, en los que el efecto inicial va ampliándose a medida que circula repetidamente por el bucle.

80
Desde el principio de la cibernética, Norbert Wiener se dio cuenta de la importancia del principio de retroalimentación como modelo no sólo de organismos vivos, sino también de sistemas sociales. Así, escribió en Cibernética:.

Es sin duda cierto que el sistema social es una organización como el individual, unida por un sistema de comunicación e imbuida de una dinámica en la que los procesos circulares de naturaleza retroalimentadora tienen un papel principal.

...

A través de la historia de las ciencias sociales se han usado numerosas metáforas para describir procesos autorreguladores en la vida social. Los más conocidos son quizás la «mano invisible» reguladora del mercado de la teoría económica de Adam Smith, los «frenos y equilibrios» de la Constitución de los Estados Unidos de América y la interacción entre tesis y antítesis de la dialéctica de Hegel y Marx. Todos los fenómenos descritos por estos modelos y metáforas implican pautas circulares de causalidad que se pueden expresar mediante bucles de retroalimentación, si bien ninguno de sus autores lo hizo explícitamente.

...

A pesar del conocimiento extensivo de la sabiduría popular sobre la retroalimentación autorreforzadora, ésta tuvo muy escaso protagonismo en la primera etapa de la cibernética (...)

82
Desde el punto de vista de la historia del pensamiento sistémico, uno de los aspectos más importantes del estudio exhaustivo de los bucles de retroalimentación realizado por los cibernéticos, fue el reconocimiento de que describen patrones de organización. (...) Por primera vez en la historia del pensamiento sistémico, los cibernéticos distinguieron claramente el patrón de organización de un sistema de su estructura física, distinción crucial para la teoría contemporánea de los sistemas vivos.

86
Los científicos informáticos contribuyeron significativamente al firme establecimiento del dogma del proceso de información al utilizar palabras tales como «inteligencia», «memoria» y «lenguaje» para describir a las computadoras, lo que ha inducido a la mayoría de personas -incluyendo a los mismos científicos- a pensar que dichos términos se refieren a los equivalentes y bien conocidos fenómenos humanos. Esto, no obstante, es un grave malentendido que ha ayudado a perpetuar y aun reforzar la imagen cartesiana de los seres humanos como máquinas.

...

Recientes progresos de la ciencia cognitiva han dejado claro que la inteligencia humana es radicalmente distinta a la inteligencia de las máquinas o inteligencia «artificial». El sistema nervioso humano no procesa información alguna - en el sentido de discretos elementos prefabricados existentes en el mundo exterior, listos para ser atrapados por el sistema cognitivo- sino que interactúa con el entorno por medio de una constante modulación de su estructura.

Es más, los neurocientíficos han encontrado seria evidencia de que la inteligencia, la memoria y las decisiones humanas no son nunca enteramente racionales, sino que siempre están influenciadas por emociones, como sabemos por propia experiencia. Nuestro pensamiento está siempre acompañado por sensaciones y procesos corporales, y aunque a menudo tendamos a intentar suprimirlos, pensamos también con nuestro cuerpo. Puesto que los ordenadores carecen de tal cuerpo, los verdaderos problemas humanos siempre permanecerán extraños a su inteligencia.

...

Hay que trazar una línea divisoria entre la inteligencia humana y la de la máquina. Si tal línea no existe, los que abogan por la psicoterapia computarizada podrían ser meramente los heraldos de una era en la que el hombre sería finalmente reconocido como nada más que un mecanismo de relojería... El mismo hecho de preguntar «¿Qué sabe un juez (o un psiquiatra) que no le podamos decir a una computadora?» es una monstruosa obscenidad.

87
Norbert Wiener predijo estos cambios -que han sido a menudo equiparados a una segunda revolución industrial- durante los primeros años de la cibernética. Más aún, percibió claramente el lado oscuro de la nueva tecnología que había ayudado a crear:

Aquellos de entre nosotros que hemos contribuido a la nueva ciencia de la cibernética (...) nos hallamos en una situación moral que no es, por decirlo suavemente, muy confortable. Hemos contribuido al inicio de una nueva ciencia que... combina desarrollos técnicos con grandes posibilidades para el bien y para el mal.

No debemos olvidar que la máquina automática (...) es el equivalente exacto del trabajo de esclavos. Toda mano de obra que deba competir con el trabajo de esclavos, deberá aceptar las condiciones económicas de éste. Está perfectamente claro que esto producirá una situación de desempleo, en comparación con la cual la recesión actual e incluso la depresión de los años treinta parecerán bromas graciosas.


Resulta evidente en éste y en otros pasajes similares de los escritos de Wiener, que éste mostraba mucha mayor sabiduría y visión en su valoración del impacto social de los ordenadores que sus sucesores. Hoy, cuarenta años después, los ordenadores y muchas otras «tecnologías de la información» desarrolladas en este lapso se convierten rápidamente en autónomas y totalitarias, redefiniendo nuestros conceptos básicos y eliminando puntos de vista alternativos. Como Neil Postman, Jerry Mander y otros críticos de la tecnología han puesto de manifiesto, ello es típico de las «megatecnologías» que han llegado a dominarlas sociedades industriales alrededor del mundo. Cada vez más, toda forma de cultura queda subordinada a la tecnología, y la innovación tecnológica, más que el aumento del bienestar humano, se ha convertido en sinónimo de progreso.

88
El uso de ordenadores en la escuela está basado en la ya desfasada visión de los seres humanos como procesadores de información, que refuerza a su vez constantemente erróneos conceptos mecanicistas sobre pensamiento, conocimiento y comunicación. La información es presentada como la base del pensamiento mientras que, en realidad, la mente humana piensa con ideas, no con información. Como Theodore Roszak demuestra en detalle en The Cult of Information (El culto a la información), ésta no crea ideas; las ideas crean la información. Las ideas son patrones integradores que no derivan de la información, sino de la experiencia.
98
Para entender el fenómeno de la autoorganización, debemos comprender primero la importancia del patrón. La idea de un patrón de organización-una configuración de relaciones características de un determinado sistema- se convirtió en el centro explícito del pensamiento sistémico en cibernética y desde entonces ha sido un concepto crucial. Desde el punto de vista sistémico, la comprensión de la vida empieza con la comprensión del patrón.

Ya hemos visto que, a través de la historia de la ciencia y de la filosofía occidentales, ha existido una tensión entre el estudio de la substancia y el estudio de la forma. El estudio de la substancia empieza con la pregunta: ¿de qué está hecho?; por el contrario, el estudio de la forma inquiere: ¿Cuál es su patrón? Ambos son acercamientos muy distintos que han venido compitiendo a lo largo de nuestra tradición científica y filosófica.

99
Entiendo que la llave de una teoría completa de los sistemas vivos radica en la síntesis de estos planteamientos tan dispares: el estudio de la substancia (o estructura) y el estudio de la forma (o patrón). En el estudio de la estructura medimos y pesamos cosas. Los patrones, en cambio, no pueden ser medidos ni pesados; deben ser cartografiados. Para comprender un patrón debemos cartografiar una configuración de relaciones. En otras palabras: estructura implica cantidades, mientras que patrón implica cualidades.

...

La mayoría de científicos reduccionistas no pueden comprender las críticas al reduccionismo porque no llegan a entender la importancia del patrón. Afirman que todos los organismos vivos están hechos en última instancia de los mismos átomos y moléculas que componen la materia inorgánica y que, por tanto, las leyes de la biología pueden ser reducidas a las de la física y la química. Si bien es cierto que todos los organismos vivos están hechos en última instancia de átomos y moléculas, son «algo más» que átomos y moléculas. Existe algo más en la vida, algo inmaterial e irreducible: el patrón de organización

...

REDES: LOS PATRONES DE LA VIDA

Una vez apreciada la importancia del patrón para la comprensión de la vida, podemos preguntarnos: ¿hay un patrón de organización común que pueda ser identificado en todos los seres vivos? Veremos que, efectivamente, así es (...) Dondequiera que encontremos sistemas vivos -organismos, partes de organismos o comunidades de organismos-, podremos observar que sus componentes están dispuestos en forma de red. Si vemos vida, vemos redes.

100
La primera y más obvia propiedad de cualquier red es su no-linealidad, va en todas direcciones. Por lo tanto, las relaciones en un patrón en red son relaciones no-lineales. En particular, un estímulo o mensaje puede viajar en un camino cíclico, que puede convertirse en un bucle de retroalimentación. El concepto de retroalimentación está íntimamente ligado al de patrón en red.

Puesto que las redes de comunicación pueden generar bucles de retroalimentación, son capaces también de adquirir la habilidad de regularse a sí mismas. Por ejemplo, una comunidad que mantiene una red de comunicaciones activa aprenderá de sus errores, ya que las consecuencias de un error se extenderán por toda la red, volviendo al origen a lo largo de bucles de retroalimentación. Así la comunidad podrá corregir sus errores, regular-se a sí misma y organizarse. En realidad, la autorregulación ha emergido quizás como el concepto central de la visión sistémica de la vida y al igual que los conceptos de retroalimentación y autorregulación, está íntimamente ligado a las redes. El patrón para la vida, podríamos decir, es un patrón capaz de autoorganizarse. Ésta es una sencilla definición, pero se basa en los recientes descubrimientos de la mismísima vanguardia de la ciencia.

101
LA APARICIÓN DEL CONCEPTO DE AUTOORGANIZACIÓN

El concepto de autoorganización se originó en los primeros años de la cibernética, cuando los científicos comenzaron a construir modelos matemáticos para representar la lógica inherente en las redes neuronales. En 1943, el neurocientífico Warren Mc-Culloch y el matemático Walter Pitts publicaban un trabajo pionero titulado «Un cálculo lógico de las ideas inmanentes en la actividad nerviosa», en el que demostraban que la lógica de todo proceso, de cualquier comportamiento, puede ser transformada en reglas para la construcción de una red.

En su publicación, los autores introducían neuronas idealizadas representadas por elementos conmutadores binarios -es decir, elementos que pueden ser conectados en «marcha» o «paro»-* y modelaron el sistema nervioso como complejas redes de estos elementos conmutadores binarios. En una red McCulloch-Pitts, los nodos «marcha-paro» están acoplados de tal modo que la actividad de cada nodo está comandada por la actividad previa de otros, según una determinada «regla de conexión». Por ejemplo, un nodo podrá conectarse en «marcha» en un determinado momento, sólo si en aquel momento un cierto número de nodos están en posición de «marcha». McCulloch y Pitts fueron capaces de demostrar que, si bien semejantes redes binarias constituyen modelos simplificados, no obstante son buenas aproximaciones a las redes embebidas en el sistema nervioso.

En los años cincuenta, los científicos empezaron a construir modelos reales de estas redes binarias, incluyendo algunas con pequeñas bombillas que se encendían y apagaban en los nodos. Para su gran asombro, descubrieron que, tras algún tiempo de parpadeos aleatorios, emergían algunos patrones ordenados en la mayoría de redes. Podían observar ondas de parpadeos fluyendo a través de la red, o bien ciclos repetidos. Aun cuando el estado inicial de la red fue escogido al azar, al cabo de un tiempo emergían espontáneamente los patrones ordenados. A esta emergencia espontánea de orden, se la denominó «autoorganización»

102
La propia contribución de Heinz von Foerster a la comprensión teórica de la autoorganización llegó muy pronto y estaba relacionada con el concepto de orden. Se preguntó: ¿Existe una medida de orden que pueda ser utilizada para definir el incremento de orden implicado por Ia «organización»? Para resolver este problema, Foerster empleó el concepto de «redundancia», definido matemáticamente en la teoría de la información por Claude Shannon y que mide el orden relativo del sistema en relación con el máximo desorden posible en el mismo.

Con el tiempo, este planteamiento se ha visto superado por las nuevas matemáticas de la complejidad, pero a finales de los años cincuenta, permitió a Foerster desarrollar un primer modelo cualitativo de autoorganización en los sistemas vivos.

...

Durante los años setenta y ochenta, las ideas clave de este modelo inicial fueron redefinadas y elaboradas por investigadores en varios países, quienes exploraron los fenómenos de autoorganización en muchos sistemas distintos, desde los muy pequeños hasta los muy grandes: Ilya Prigogine en Bélgica, Hermann Haken y Manfred Eigen en Alemania, James Lovelock en Inglaterra, Lynn Margulis en Estados Unidos, Humberto Maturana y Francisco Varela en Chile.

103
Los últimos modelos, en cambio, incluyen la creación de nuevas estructuras y modos de comportamiento en los procesos de desarrollo, aprendizaje y evolución.

...

Una segunda característica común a estos modelos de auto-organización es que se tratan de sistemas abiertos operando lejos del equilibrio. Es necesario un flujo constante de materia y energía a través del sistema para que tenga lugar la autoorganización. La sorprendente emergencia de nuevas estructuras y nuevos modos de comportamiento, que es el sello de la autoorganización, se da únicamente cuando el sistema está alejado del equilibrio.

La tercera característica de la autoorganización, común a todos los modelos, es la interconectividad no-lineal de los componentes del sistema. Esta pauta de no-linealidad se traduce físicamente en bucles de retroalimentación, y es descrita matemáticamente en términos de ecuaciones no-lineales. Resumiendo estas tres características de los sistemas autoorganizadores, podemos decir que autoorganización es la aparición espontánea de nuevas estructuras y nuevos modos de comporta-miento en sistemas lejos del equilibrio, caracterizada por bucles de retroalimentación internos y descrita matemáticamente en términos de ecuaciones no-lineales.

ESTRUCTURAS DISIPATIVAS

La primera y quizás más influyente descripción detallada de los sistemas autoorganizadores fue la teoría de las «estructuras disipativas» de Ilya Prigogine, químico y físico ruso de nacimiento, premio Nobel y profesor de química física en la Universidad Libre de Bruselas. Prigogine desarrolló su teoría a partir de estudios de sistemas físicos y químicos pero, según sus propios recuerdos, se vio impulsado a ello tras ponderar la naturaleza de la vida:

Estaba muy interesado en el problema de la vida (...). Siempre pensé que la existencia de vida nos dice algo muy importante sobre la naturaleza.

Lo que más intrigaba a Prigogine, era que los organismos vivos fuesen capaces de mantener sus procesos vitales bajo condiciones de no-equilibrio. Quedó fascinado por sistemas alejados del equilibrio térmico e inició una exhaustiva investigación para averiguar exactamente qué condiciones precisas de desequilibrio pueden ser estables.

El descubrimiento crucial se produjo para Prigogine a principios de los años sesenta, cuando se dio cuenta de que los sistemas que están lejos del equilibrio deben ser descritos por ecuaciones no-lineales. El claro reconocimiento de la relación entre «lejos del equilibrio» y «no-linealidad», abrió a Prigogine una vía de investigación que culminaría una década después en su teoría de la autoorganización.

En orden a resolver el puzzle de la estabilidad lejos del equilibrio, Prigogine no estudió los sistemas vivos, sino que se concentró en el fenómeno mucho más sencillo de la convección térmica conocido como la «inestabilidad de Bénard», considerado actualmente como un caso clásico de autoorganización. A principios de siglo, el físico francés Henri Bénard descubrió que el calentamiento de una fina capa de líquido puede originar estructuras extrañamente ordenadas (...)

106
(...) este comportamiento coherente emerge espontáneamente en puntos críticos de inestabilidad lejos del equilibrio.

Durante los años sesenta, Prigogine desarrolló una nueva termodinámica no-lineal para describir el fenómeno de la autoorganización en sistemas abiertos lejos del equilibrio. «La termodinámica clásica», explica, «conduce al concepto de "estructuras en equilibrio" tales como los cristales. Las células de Bénard son también estructuras, pero de muy distinta índole. Ésta es la razón por la que hemos introducido el concepto de "estructuras disipativas", para enfatizar la íntima relación, al principio paradójica, en dichas situaciones, entre estructura y orden por un lado y disipación... por el otro. En termodinámica clásica, la disipación de energía en transferencia de calor, fricción y demás, se asociaba siempre con pérdida. El concepto de Prigogine de estructuras disipativas introdujo un cambio radical en esta visión, demostrando que en los sistemas abiertos, la disipación es una fuente de orden.


108
Mientras estudiaba intensamente este fenómeno durante los años sesenta, Haken descubrió varios paralelismos con otros sistemas alejados del equilibrio, lo que le llevó a especular que la transición de luz normal a luz láser podía ser un ejemplo de los procesos de autoorganización típicos de los sistemas lejos del equilibrio.

Haken acuñó el término «sinergética» para indicar la necesidad de un nuevo campo de estudio sistemático de dichos procesos, en los que las acciones combinadas de múltiples partes individua-les, como los átomos de un láser, producen un comportamiento coherente del todo. En una entrevista concedida en 1985, Haken explicaba:

En física, existe el término «efectos cooperativos», pero se usa principalmente para sistemas en equilibrio térmico (...). Pensé que debía acuñar un término para la cooperación [en] sistemas alejados del equilibrio térmico (...). Deseaba enfatizar que necesitamos una nueva disciplina para tales procesos (...). Así podríamos ver a la sinergética como la ciencia que trata, quizás no exclusivamente, el fenómeno de la autoorganización.

109
En un simposium en honor de Haken en ocasión de su sexagésimo aniversario, su colaborador Robert Graham rendía así homenaje a su trabajo:

Una de las grandes contribuciones de Haken ha sido el reconocimiento de los láseres no sólo como herramientas tecnológicas extremadamente útiles, sino también como sistemas físicos interesantes por sí mismos, capaces de enseñarnos lecciones importantes (...). Los láser ocupan un espacio muy interesante entre los mundos cuántico y clásico y la teoría de Haken nos dice cómo estos mundos pueden ser conectados (...). El láser puede situarse en la encrucijada entre física cuántica y clásica, entre los fenómenos en equilibrio y en no-equilibrio, entre las transiciones de fase y la autoorganización y entre la dinámica ordinaria y la del caos. Al mismo tiempo, es un sistema que podemos comprender a la vez en los niveles microscópico-cuántico-mecánico y clásico-macroscópico. Es un firme terreno para el descubrimiento de conceptos generales de física del no-equilibrio.

HYPERCICLOS

Mientras que Prigogine y Haken llegaron al concepto de auto-organización a través del estudio de sistemas físicos y químicos que atraviesan puntos de inestabilidad y generan nuevas formas de orden, el bioquímico Manfred Eigen utilizó el mismo concepto para arrojar luz sobre el rompecabezas del origen de la vida, Según la teoría darwiniana corriente, los organismos vivos se formarían desde el «caos molecular» a través de mutaciones aleatorias y selección natural. No obstante, se ha señalado a menudo que la probabilidad de que aparezcan incluso simples células de este modo durante la edad conocida de la Tierra es cada vez más remota.

110
Manfred Eigen, premio Nobel de Química y director del Instituto Max Planck de Química Física de Göttingen, propuso a principios de los setenta que el origen de la vida sobre la Tierra podría ser el resultado de un proceso de organización progresiva en sistemas químicos alejados del equilibrio, involucrando «hyperciclos» de bucles de retroalimentación múltiples. Eigen, en efecto, postulaba una fase prebiológica de evolución, en la que los procesos de selección ocurrirían en el ámbito molecular «como propiedad material inherente en sistemas de reacciones especiales», y acuñaba el término «autoorganización molecular» para describir estos procesos evolutivos prebiológicos.

Los sistemas de reacciones especiales estudiados por Eigen son conocidos como «ciclos catalíticos». Un catalizador es una substancia que incrementa el nivel de una reacción química, sin cambiar en sí mismo durante el proceso. 

Las reacciones catalíticas son procesos cruciales en la química de la vida. Los catalizadores más comunes y eficientes son los enzimas, componentes celulares esenciales que promueven procesos metabólicos vitales.

...

Estos ciclos catalíticos son el centro de los sistemas químicos autoorganizadores tales como los relojes químicos, estudiados por Prigogine, y tienen también un papel esencial en las funciones metabólicas de los organismos vivos. Son notablemente estables y pueden persistir bajo un amplio abanico de condiciones.

Eigen descubrió que, con el tiempo suficiente y un flujo continuo de energía, los ciclos catalíticos tienden a entrelazarse para formar bucles cerrados en los que los enzimas producidos en un ciclo actúan como catalizadores del ciclo subsiguiente. Acuñó el término «hyperciclos» para tales bucles, en los que cada vínculo es un ciclo catalítico. 

111
Los hyperciclos resultan ser no sólo notablemente estables, sino capaces de autorreproducirse exactamente y de corregir errores de reproducción, lo que significa que pueden conservar y transmitir información compleja. La teoría de Eigen demuestra que esta autorréplica -bien conocida en los organismos vivos-puede haber ocurrido en sistemas químicos antes de que apareciera la vida, con anterioridad a la formación de la estructura genética. Estos hyperciclos químicos serían pues sistemas autoorganizadores que no pueden ser denominados «vivos», por carecer de algunas características clave para la vida, pero que no obstante deben ser vistos como precursores de los sistemas vivos. Según esto, la vida tendría sus raíces profundas en el reino de la materia muerta.

112
La teoría de los hyperciclos de Manfred Eigen comparte con la de las estructuras disipativas de Ilya Prigogine y con la teoría láser de Hermann Haken los mismos conceptos clave de autoorganización: el estado de alejamiento del equilibrio del sistema, el desarrollo de procesos de amplificación mediante bucles de retroalimentación positiva y la aparición de inestabilidades que conducen a la creación de nuevas formas de organización. Además, Eigen dio el paso revolucionario de adoptar un planteamiento darwiniano para describir los fenómenos de evolución en el nivel prebiológico y molecular.

AUTOPOIESIS: LA ORGANIZACIÓN DE LO VIVO

Los hyperciclos estudiados por Eigen se autoorganizan, se autorreproducen y evolucionan, pero aun así dudamos en denominar «vivos» a estos ciclos de reacciones químicas. ¿Qué propiedades, pues, debe poseer un sistema para poder ser considerado verdaderamente vivo? ¿Podemos establecer una clara distinción entre sistemas vivos y no vivos? ¿Cuál es la conexión precisa entre autoorganización y vida?

Estas eran las cuestiones que el neurocientífico chileno Humberto Maturana se planteaba durante los años sesenta.

114
Según Maturana, la percepción y de modo más general la cognición, no representan una realidad externa, sino que más bien la especifican a través de los procesos del sistema nervioso de organización circular. Desde esta premisa, Maturana dio luego el paso radical de postular que el proceso de organización circular en sí mismo - con o sin sistema nervioso- es idéntico al proceso de cognición:

Los sistemas vivos son sistemas cognitivos y el proceso de vivir es un proceso de cognición. Esta afirmación es válida para todos los organismos, tengan o no sistema nervioso.

...

Tras publicar sus ideas en 1970, Maturana inició una larga colaboración con Francisco Varela, un neurocientífico más joven de la Universidad de Santiago que había sido alumno suyo antes de convertirse en su colaborador. Según Maturana, esta colaboración empezó cuando Varela le desafió en una conversación a hallar una descripción más formal y completa para el concepto de organización circular. Se pusieron de inmediato a trabajar en el desarrollo de una descripción verbal completa de la idea de Maturana antes de Intentar la construcción de un modelo matemático, y para ello empezaron por darle un nuevo nombre: autopoiesis.

115
Auto, por supuesto, significa «sí mismo» y se refiere a la autonomía de los sistemas autoorganizadores. Poiesis, que tiene la misma raíz griega que «poesía», significa «creación». Así pues, autopoiesis significa «creación de sí mismo».

...

Siguen luego refinando su posición con la importante distinción entre «organización» y «estructura», que ha sido un tema implícito a lo largo de toda la historia del pensamiento sistémico, no tratado explícitamente hasta el desarrollo de la cibernética.

Maturana y Varela dejan la distinción cristalinamente clara. La organización en un sistema vivo, explican, es un conjunto de relaciones entre sus componentes que caracteriza el sistema como perteneciente a una clase determinada: bacteria, girasol, gato o cerebro humano. La descripción de dicha organización es una descripción abstracta de relaciones y no identifica a los componentes. Los autores asumen que la autopoiesis es un patrón general de organización común a todos los sistemas vivos, cualquiera que sea la naturaleza de sus componentes. La estructura de un sistema está constituida en cambio por las propias relaciones entre los componentes físicos. En otras palabras, la estructura del sistema es la manifestación física de su organización. Maturana y Varela enfatizan que la organización del sistema es independiente de las propiedades de sus componentes, de modo que una determinada organización puede ser encarnada de muy distintas maneras por muy distintas clases de componentes.

116
Una vez aclarado que su objetivo es la organización y no la estructura, los autores proceden a definir la autopoiesis, la organización común a todos los sistemas vivos. Se trata de una red de procesos de producción, en la que la función de cada componente es participar en la producción o transformación de otros componentes de la red. De este modo toda la red se «hace a sí misma» continuamente. Es producida por sus componentes y, a su vez, los produce. «En un sistema vivo», explican los autores, «el producto de su operación es su propia organización.»

...

Una importante característica de los sistemas vivos es que su organización autopoiésica incluye la creación de un perímetro que especifica el territorio de las operaciones de la red y define el sistema como una unidad. Los autores señalan que los ciclos catalíticos en particular no constituyen sistemas vivos ya que sus fronteras están determinadas por factores ajenos al proceso catalítico, por ejemplo, el recipiente físico en que tienen lugar.

117
GAIA, LA TIERRA VIVA

Al mismo tiempo, el químico atmosférico James Lovelock tenía una intuición iluminadora que le conduciría a formular un modelo que es quizás la más sorprendente y hermosa expresión de autoorganización: la idea de que el planeta Tierra, como un todo, es un sistema autoorganizador vivo.

118
Analizando este problema, Lovelock llegó a la conclusión de que el hecho de que todos los organismos vivos tomen materia y energía y expulsen desechos, era la característica de vida más general que podía encontrar. De modo muy similar a Prigogine, pensó que debía ser posible expresar matemáticamente esta característica fundamental en términos de entropía, pero después su razonamiento progresó en otra dirección.

119
Estas especulaciones se vieron confirmadas cuando Lovelock y su colega Dian Hitchcock iniciaron un análisis sistemático de la atmósfera marciana mediante observaciones realizadas desde la Tierra, comparándolo con un análisis similar de la atmósfera terrestre. Descubrieron que las composiciones químicas de ambas atmósferas son sorprendentemente distintas. Mientras que hay muy poco oxígeno, mucho dióxido de carbono (C0 2) y nada de metano en la atmósfera marciana, la de la Tierra contiene cantidades masivas de oxígeno, casi nada de carbono y mucho metano.

Lovelock se dio cuenta de que la razón del particular perfil atmosférico de Marte es que, en un planeta sin vida, todas las reacciones químicas posibles entre los gases de la atmósfera habían sido completadas mucho tiempo atrás. Hoy no son posibles nuevas reacciones químicas en Marte ya que existe un completo equilibrio químico en su atmósfera.

...

En otras palabras, Lovelock reconoció la atmósfera terrestre como un sistema abierto lejos del estado de equilibrio, caracterizado por un flujo constante de materia y energía. Su análisis químico identificaba el sello mismo de la vida.

...

El proceso de autorregulación es la clave de la idea de Lovelock. Sabía por los astrofísicos que el calor del Sol se ha incrementado en un 25 % desde el inicio de la vida sobre la Tierra y que, a pesar de dicho aumento, la temperatura en la superficie de la Tierra se ha mantenido constante, a un nivel confortable para la vida, durante estos cuatro mil millones de años. ¿Y si la Tierra fuese capaz de regular su temperatura - se preguntó- así como otras condiciones planetarias (la composición de su atmósfera, la salinidad de sus océanos, etc.), al igual que los organismos vivos son capaces de autorregularse y mantener constante su temperatura corporal y otras variables vitales? Lovelock se dio cuenta de que su hipótesis equivalía a una ruptura radical con la ciencia convencional:

Considerad la teoría Gaia como una alternativa a la creencia convencional que ve la Tierra como un planeta muerto, hecho de rocas inanimadas, océanos y atmósfera, meramente habitado por vida. Consideradlo como un sistema real incluyendo toda su vida y todo su entorno, íntimamente acoplados para formar una entidad autorreguladora.

120
La capacidad primordial de estos bucles de retroalimentación consiste en vincular sistemas vivos con sistemas no vivos. No podemos ya pensar en rocas, animales y plantas separadamente. La teoría Gaia demuestra que existe una íntima relación entre las partes vivas del planeta (plantas, microorganismos y animales) y las no vivas (rocas, océanos y atmósfera).

123
La teoría Gaia contempla la vida de un modo sistémico, uniendo geología, microbiología, química atmosférica y otras disciplinas, cuyos especialistas no están acostumbrados a comunicarse entre sí. Lovelock y Margulis desafiaron los conceptos establecidos de que éstas son disciplinas separadas, que las fuerzas de la geología marcan las condiciones para la vida sobre la Tierra y que animales y plantas son meros pasajeros que hallaron, por pura casualidad, las condiciones adecuadas para su evolución. Según la teoría Gaia, es la vida la que crea las condiciones aptas para su propia existencia. En palabras de Lynn Margulis:

124
Dicho simplemente, la hipótesis [Gaia] dice que la superficie de la Tierra, que siempre hemos considerado como el entorno de la vida, es en realidad parte de ésta. El manto de aire - la troposfera- debe ser considerado como un sistema circulatorio, producido y mantenido por la vida... Cuando los científicos nos dicen que la vida se adapta a un entorno esencialmente pasivo de química, física y rocas, están perpetuando una visión seriamente distorsionada. En realidad, la vida hace, conforma y cambia el entorno al que se adapta. Este entorno a su vez, retroalimenta a la vida que cambia, actúa y crece en él. Hay interacciones cíclicas constantes.

...

Efectivamente, la imagen de Gaia como un ser simiente fue el principal argumento implícito en el rechazo de la teoría Gaia tras su publicación. Los científicos lo expresaban proclamando que la hipótesis no podía ser científica ya que era ideológica, es decir, que implicaba la idea de los procesos naturales conformados por un propósito... «Ni Lynn Margulis ni yo hemos propuesto nunca que la autorregulación planetaria esté dotada de un propósito», protesta Lovelock. «No obstante, nos encontramos con la persistente, casi dogmática crítica de que nuestra hipótesis es teleológica.»

...

La teleología -del griego telos, «propósito»- afirma que el agente causal postulado por los vitalistas es determinista, que hay designio y propósito en la naturaleza.

129
LAS MATEMÁTICAS DE LA COMPLEJIDAD

(...) El descubrimiento de estas nuevas «matemáticas de la complejidad» está siendo cada vez más reconocido como uno de los acontecimientos más importantes de la ciencia del siglo XX.

...

A lo largo de las tres últimas décadas, ha aparecido un nuevo conjunto de conceptos y técnicas para tratar con esta enorme complejidad, conjunto que ha empezado a formar un marco matemático coherente. No existe aún un nombre definitivo para estas matemáticas. Se conocen popularmente como «matemáticas de la complejidad» y técnicamente como «teoría de los sistemas dinámicos», «dinámica sistemática», «dinámica compleja» o «dinámica no-lineal». El término «teoría de los sistemas dinámicos» es quizás el más usado.

130
Las nuevas matemáticas, como veremos en detalle, son unas matemáticas de relaciones y patrones. Son cualitativas más que cuantitativas y, por lo tanto, encarnan el cambio de énfasis característico del pensamiento sistémico: de objetos a relaciones, de cantidad a cualidad, de substancia a patrón.

LA CIENCIA CLÁSICA

...

Galileo había heredado esta visión de los filósofos de la antigua Grecia, quienes tendían a geometrizar todos los problemas matemáticos y a buscar sus respuestas en términos de figuras geométricas. Se dice que la Academia de Platón de Atenas, la principal escuela griega de ciencia y filosofía durante nueve siglos, tenía la siguiente inscripción sobre su entrada: «No entre el que no esté familiarizado con la geometría.»

137
En la práctica, por supuesto, las limitaciones de la aplicación de las ecuaciones newtonianas del movimiento como modelo para la naturaleza pronto se hicieron evidentes. Como señala el matemático británico Ian Stewart, «plantear las ecuaciones es una cosa, resolverlas otra muy distinta». Las soluciones exactas se limitaban a unos pocos, simples y regulares fenómenos, mientras que la complejidad de vastas áreas de la naturaleza parecía eludir lodo modelaje mecanicista. El movimiento relativo de dos cuerpos sometidos a la fuerza de la gravedad, por ejemplo, podía calcularse exactamente, el de tres cuerpos era ya demasiado complicado para la obtención de un resultado exacto, mientras que si se trataba de gases con millones de partículas, el problema parecía irresoluble.

138
En el siglo XIX, el gran físico James Clerk Maxwell encontró la respuesta. Si bien el comportamiento exacto de las moléculas de un gas no podía ser determinado, su comportamiento medio podía ser la causa de las regularidades observadas. Maxwell propuso el uso de métodos estadísticos para la formulación de las leyes de los gases:

La menor porción de materia que podemos someter a experimentación consta de millones de moléculas, ninguna de las cuales será jamás individualmente perceptible para nosotros. Así pues, no podemos determinar el movimiento real de ninguna de dichas moléculas, por tanto, debemos abandonar el método histórico estricto y adoptar el método estadístico para tratar con grandes grupos de moléculas.

El método de Maxwell resultó efectivamente muy útil. Permitió inmediatamente a los físicos explicar las propiedades básicas de un gas en términos del comportamiento medio de sus moléculas. Por ejemplo, quedó claro que la presión de un gas es la fuerza originada por la media del empuje de sus moléculas, mientras que la temperatura resultó ser proporcional a su energía media de movimiento. La estadística y su base teórica, la ley de probabilidades, habían sido desarrolladas desde el siglo XVII y podían ser fácilmente aplicadas a la teoría de los gases. La combinación de métodos estadísticos con la mecánica newtoniana dio lugar a una nueva rama de la ciencia, adecuadamente denominada «mecánica estadística», que se convirtió en la base teórica de la termodinámica, la teoría del calor.

139
NO-LINEALIDAD

El cambio decisivo a lo largo de las tres últimas décadas ha sido el reconocimiento de que la naturaleza, como dice Steward, es «inexorablemente no-lineal». Los fenómenos no-lineales dominan mucho más el mundo inanimado de lo que creíamos y constituyen un aspecto esencial de los patrones en red de los sistemas vivos. La teoría de sistemas dinámicos es la primera matemática que capacita a los científicos para tratar la plena complejidad de estos fenómenos no-lineales.


140
RETROALIMENTACIÓN E INTERACIONES

La tercera propiedad importante de los sistemas no-lineales es la consecuencia de la frecuente ocurrencia de procesos de retroalimentación autorreforzadora. En los sistemas lineales, pequeños cambios producen pequeños efectos, mientras que los grandes cambios son resultado de grandes cambios o bien de la suma de muchos pequeños cambios. Por el contrario, en los sistemas no-lineales los pequeños cambios pueden tener efectos espectaculares, ya que pueden ser repetidamente amplificados por la retroalimentación autorreforzadora. Matemáticamente, un bucle de retroalimentación corresponde a una determinada clase de proceso no-lineal conocido como iteración (del latín iterare, «repetir», «reiterar»), en el que una función opera reiteradamente sobre sí misma.

142
POINCARÉ Y LAS HUELLAS DEL CAOS

143
No obstante, las matemáticas visuales de Poincaré, no son la geometría de Euclides. Es una geometría de una nueva especie, unas matemáticas de patrones y relaciones conocidas como topología. La topología es una geometría en la que todas las longitudes, ángulos y áreas pueden ser distorsionados a voluntad. Así, un triángulo puede ser transformado en continuidad en un rectángulo, éste en un cuadrado y éste en un círculo. De igual modo, un cubo puede convertirse en un cilindro, éste en un cono y éste en una esfera. Debido a estas transformaciones continuas, la topología es conocida popularmente como la «geometría elástica». Todas las figuras que se pueden convertir en otras mediante doblado, estirado y retorcido continuos, reciben la calificación de «topológicamente equivalentes».

Sin embargo, no todo es modificable en estas transformaciones topológicas. De hecho, la topología trata precisamente de estas propiedades de las figuras geométricas que no cambian cuando la figura es transformada. Las intersecciones de líneas, por ejemplo, siguen siendo intersecciones y el agujero de un donut no puede ser transformado. Así, un donut puede ser transformado topológicamente en una taza de café (el agujero convirtiéndose en el mango), pero nunca en un pastelito. La topología es realmente las matemáticas de las relaciones, de los patrones inmutables o «invariantes».

Poincaré usaba los conceptos topológicos para analizar las características cualitativas de problemas dinámicos complejos y así sentaba las bases para las matemáticas de la complejidad que emergerían un siglo después. Entre los problemas que Poincaré analizó de este modo estaba el célebre problema de los tres cuerpos en mecánica celeste -el movimiento relativo de tres cuerpos sometidos a sus respectivas atracciones gravitatorias-, que nadie había sido capaz de resolver. Aplicando su método topológico a una versión ligeramente simplificada del problema de los tres cuerpos, Poincaré fue capaz de determinar el aspecto general de sus trayectorias y quedó asombrado por su complejidad:

Cuando uno trata de describir la figura formada por estas tres curvas y sus infinitas intersecciones... [uno descubre que] estas intersecciones forman una especie de red, trama o malla infinitamente espesa; ninguna de las curvas puede cruzarse a sí misma, pero se repliega de un modo muy complejo para pasar por los nudos de la red un número infinito de veces. Uno queda sorprendido ante la complejidad de esta figura que no puedo ni siquiera intentar dibujar.

Lo que Poincaré visualizaba en su mente se conoce ahora como un «atractor extraño». En palabras de lan Stewart, «Poincaré vislumbraba las huellas del caos».

(...) Al demostrar que simples ecuaciones deterministas de movimiento pueden producir una increíble complejidad que supera todo intento de predicción, Poincaré desafiaba las mismas bases de la mecánica newtoniana.

144
TRAYECTORIAS EN ESPACIOS ABSTRACTOS

145
Como la mayoría de lectores recordará de su etapa escolar, una ecuación se resuelve mediante su manipulación hasta conseguir la solución en forma de una fórmula. A esto se le llama resolver la ecuación «analíticamente». El resultado es siempre una fórmula. La mayoría de ecuaciones no-lineales que describen procesos naturales son demasiado difíciles para ser resueltas analíticamente, pero pueden ser solucionadas de otro modo, «numéricamente». Este sistema implica prueba y error. Hay que ir probando distintas combinaciones de números para las variables, hasta dar con las que encajan en la ecuación.

...

Todo esto cambió con la llegada a escena de los nuevos y poderosos ordenadores. Disponemos ahora de equipos y programas informáticos para la solución numérica de ecuaciones con gran rapidez y exactitud. Con los nuevos métodos, las ecuaciones no-lineales pueden ser resueltas a cualquier nivel de aproximación. No obstante, las soluciones son de una clase muy distinta, el resultado no es ya una fórmula, sino una larga lista de los valores para las variables que satisfacen la ecuación. El ordenador puede ser programado para trazar la solución en forma de curva o conjunto de curvas en un gráfico. Esta técnica ha permitido a los científicos resolver las complejas ecuaciones no-lineales asociadas con los fenómenos caóticos y así descubrir orden tras el aparente caos. Para desvelar estos patrones ordenados, las variables de un sistema complejo se presentan en un espacio matemático abstracto llamado «espacio fase»." Ésta es una técnica bien conocida desarrollada en termodinámica a principios de siglo. Cada variable del sistema se asocia con una distinta coordenada de este espacio abstracto...

148
ATRACTORES EXTRAÑOS

Volvamos a nuestro péndulo y démonos cuenta de que se trataba de un péndulo idealizado, sin fricción, balanceándose en movimiento perpetuo. Éste es un ejemplo típico de la física clásica, donde la fricción es generalmente olvidada. Un péndulo real experimentará siempre alguna fricción que lo irá frenando hasta que, en algún momento, se detendrá. En el espacio fase bidimensional, este movimiento queda representado por una curva abierta que se cierra en espiral hacia el centro, como puede apreciarse en la figura 6-9. Esta trayectoria recibe el nombre de «atractor» puesto que, metafóricamente hablando, los matemáticos dicen que el punto fijo en el centro del sistema «atrae» la trayectoria. La metáfora se ha extendido incluso a los bucles cerrados, como el que representa al péndulo libre de fricción. Las trayectorias de bucle cerrado reciben el nombre de «atractores periódicos», mientras que las trayectorias en espiral hacia adentro se denominan «atractores puntuales». En los últimos veinte años, la técnica del espacio fase ha sido utilizada para explorar una gran variedad de sistemas complejos. Caso tras caso, los científicos y matemáticos crearon ecuaciones no-lineales, las resolvieron numéricamente e hicieron que los ordenadores trazaran las soluciones en espacio fase.

Para su gran sorpresa, descubrieron que existe un número muy reducido de diferentes atractores. Sus formas pueden ser clasificadas topológicamente y las propiedades dinámicas generales de un sistema pueden deducirse de la forma de su correspondiente atractor. Existen tres modelos básicos de atractor: atractores puntuales, correspondientes a sistemas dirigidos hacia un equilibrio estable; atractores periódicos, correspondientes a oscilaciones periódicas, y los llamados atractores extraños, correspondientes a sistemas caóticos. Un ejemplo típico de un sistema con atractor extraño es el del «péndulo caótico», estudiado por primera vez por el matemático japonés Yoshisuke Ueda a finales de los años setenta. Se trata de un circuito electrónico no-lineal dotado de una unidad de disco externa, relativamente sencilla, pero que produce un comportamiento extremadamente complejo. Cada balanceo de este oscilador caótico es único. El sistema nunca se repite, con lo que cada ciclo cubre una nueva región de espacio fase. No obstante, y a pesar del aparentemente errático movimiento, los puntos en espacio fase no se distribuyen aleatoriamente, sino que conforman un patrón complejo y altamente organizado, un atractor extraño actualmente denominado Ueda.  

150
Un hecho sorprendente de los atractores extraños es que tienden a tener una dimensionalidad muy baja, incluso en un espacio fase altamente dimensional. Por ejemplo, un sistema puede tener cincuenta variables, pero su movimiento puede quedar restringido a un atractor extraño de tres dimensiones: una superficie plegada en este espacio de cincuenta dimensiones. Ello significa, por supuesto, un elevado nivel de orden.

Vemos pues que el comportamiento caótico, en el nuevo sentido científico del término, es muy distinto del movimiento aleatorio o errático. Con la ayuda de los atractores extraños, podemos distinguir entre la mera aleatoriedad o «ruido» y el caos. El comportamiento caótico es determinista y pautado y los atractores extraños nos ayudan a transformar los datos aparentemente aleatorios en claras formas visibles.


EL «EFECTO MARIPOSA»

Como hemos visto en el caso de la «transformación del panadero», los sistemas caóticos se caracterizan por una extrema sensibilidad a las condiciones iniciales. Cambios minúsculos en el estado inicial del sistema conducirán con el tiempo a consecuencias en gran escala. En la teoría del caos esto se conoce con el nombre de «efecto mariposa» por la afirmación, medio en broma, de que una mariposa aleteando hoy en Pekín puede originar una tormenta en Nueva York el mes que viene. El efecto mariposa fue descubierto a principios de los años sesenta por el meteorólogo Edward Lorenz, quien diseñó un sencillo modelo de condiciones meteorológicas consistente en tres ecuaciones no-lineales vinculadas. Descubrió que las soluciones de sus ecuaciones eran extremadamente sensibles a las condiciones iniciales. Desde prácticamente el mismo punto de origen, dos trayectorias se desarrollaban de modo completamente distinto, haciendo imposible toda predicción a largo plazo.

152
DE CANTIDAD A CUALIDAD

La imposibilidad de predecir por qué punto del espacio fase pasará la trayectoria del atractor de Lorenz. en un momento determinado, incluso aunque el sistema esté gobernado por ecuaciones deterministas, es una característica común a todos los sistemas caóticos. Ello no significa, sin embargo, que la teoría del caos no sea capaz de ofrecer predicciones. Podemos establecer predicciones muy ajustadas, pero estarán en relación con las características cualitativas del comportamiento del sistema, más que con sus valores precisos en un momento determinado. Las nuevas matemáticas representan, pues, el cambio de cantidad a cualidad que caracteriza al pensamiento sistémico en general. Mientras que las matemáticas convencionales se ocupan de cantidades y fórmulas, la teoría de sistemas dinámicos lo hace de cualidad y patrón.

...

En realidad, el análisis de sistemas no-lineales en términos de las características topológicas de sus atractores, se conoce como «análisis cualitativo». Un sistema no-lineal puede tener varios atractores que podrán ser de distinto tipo: «caóticos» o «extraños» y no caóticos. Todas las trayectorias iniciadas dentro de una cierta región de espacio fase, desembocarán antes o después en un mismo atractor. Dicha región de espacio fase recibe el nombre de «cuenca de atracción» de este mismo atractor. Así, el espacio fase de un sistema no-lineal está compartimentado en varias cuencas de atracción, cada una de ellas con su propio atractor.

153
Smale utilizó su técnica no sólo para analizar sistemas descritos por un determinado conjunto de ecuaciones no-lineales, sino también para estudiar cómo estos sistemas se comportan bajo pequeñas alteraciones de sus ecuaciones. A medida que los parámetros de éstas cambian lentamente, el retrato fase -por ejemplo, las formas de sus atractores y cuencas de atracción- generalmente sufrirá las correspondientes suaves alteraciones, sin experimentar ningún cambio en sus características básicas. Smale utilizó el término «estructuralmente estables» para definir estos sistemas en los que pequeños cambios en las ecuaciones dejan intacto el carácter básico del retrato fase.

En muchos sistemas no-lineales, sin embargo, pequeños cambios de ciertos parámetros pueden producir espectaculares cambios en las características básicas de su retrato fase. Los atractores pueden desaparecer o intercambiarse y nuevos atractores pueden aparecer súbitamente. Tales sistemas se definen como estructuralmente inestables y los puntos críticos de inestabilidad se denominan «puntos de bifurcación», ya que son puntos en la evolución del sistema en que aparece repentinamente un desvío por el que el sistema se encamina en una nueva dirección. Matemáticamente, los puntos de bifurcación marcan cambios súbitos en el retrato fase del sistema.

Físicamente corresponden a puntos de inestabilidad en los que el sistema cambia abruptamente y aparecen de repente nuevas formas de orden. Como demostró Prigogine, tales inestabilidades sólo se pueden dar en sistemas abiertos operando lejos del equilibrio.

Así como hay un número reducido de diferentes tipos de atractores, hay también pocos tipos distintos de ocasiones de bifurcación, y al igual que los atractores, las bifurcaciones pueden ser clasificadas topológicamente. Uno de los primeros en hacerlo fue el francés René Thom en los años setenta, quien usó el término «catástrofes» en lugar de «bifurcaciones» e identificó siete catástrofes elementales. Los matemáticos de hoy en día conocen aproximadamente el triple de tipos de bifurcación. Ralph Abraham, profesor de matemáticas de la Universidad de California en Santa Cruz, y el grafista Christofer Shaw han creado una serie de textos matemáticos visuales sin ecuaciones ni fórmulas, a los que consideran el principio de una enciclopedia de bifurcaciones.



154
GEOMETRÍA FRACTAL

Mientras los primeros atractores extraños eran explorados, durante los años sesenta y setenta nacía, independientemente de la teoría del caos, una nueva geometría llamada «geometría fractal», que iba a proveer de un poderoso lenguaje matemático idóneo para describir las minuciosas estructuras de los atractores caóticos. El creador de este nuevo lenguaje fue el matemático francés Benoit Mandelbrot. A finales de los años cincuenta, Mandelbrot empezó a estudiar la geometría de una gran variedad de fenómenos naturales irregulares y, durante los sesenta, se dio cuenta de que todas aquellas formas geométricas compartían algunas características comunes muy sorprendentes. Durante los siguientes diez años, Mandelbrot inventó un nuevo tipo de matemáticas para describir y analizar estas características. Acuñó el término «fractal» para describir su invento y publicó sus resultados en un espectacular libro, Los objetos fractales, que tuvo una tremenda influencia en la nueva generación de matemáticos que estaba desarrollando la teoría del caos y otras ramas de la teoría de sistemas dinámicos.

...

La mayor parte de la naturaleza es muy, muy complicada. ¿Como describir una nube? No es una esfera... es como una pelota pero muy irregular. ¿Y una montaña? No es un cono... Si quieres hablar de nubes, montañas, ríos o relámpagos, el lenguaje geométrico de la escuela resulta inadecuado.

Así que Mandelbrot creó la geometría fractal - «un lenguaje para hablar de nubes»- para describir y analizar la complejidad del mundo natural que nos rodea. La propiedad más sorprendente de estas formas «fractales» es que sus patrones característicos se encuentran repetidamente en escalas descendentes, de modo que sus partes, en cualquier escala, son semejantes en forma al conjunto. Mandelbrot ilustra esta característica de «autosemejanza» cortando un trozo de coliflor y señalando que, en sí mismo, el trozo parece una pequeña coliflor. Repite la operación dividiendo el trozo y tomando una parte que sigue pareciendo una diminuta coliflor. Así, cada parte se parece al vegetal completo, la forma del todo es semejante a sí misma a todos los niveles de escala.

155
Hay múltiples ejemplos de autosemejanza en la naturaleza. Rocas en montañas que se asemejan a pequeñas montañas, ramas de relámpago o bordes de nube que repiten el mismo patrón una y otra vez (...)

Cuando Mandelbrot publicó su libro pionero a mitad de los años setenta, no se había dado cuenta de las conexiones entre geometría fractal y teoría del caos, pero ni él ni sus colegas matemáticos necesitaron mucho tiempo para descubrir que los atractores extraños son ejemplos exquisitos de fractales. Si se amplían fragmentos de su estructura, revelan una subestructura multinivel en la que los mismos patrones se repiten una y otra vez, hasta tal punto que se define comúnmente a los atractores extraños como trayectorias en espacio fase que exhiben geometría fractal.

Otro importante vínculo entre la teoría del caos y la geometría fractal es el cambio de cantidad a cualidad. Como hemos visto, resulta imposible predecir los valores de las variables de un sistema caótico en un momento determinado, pero podemos predecir las características cualitativas del comportamiento del sistema. De igual forma, es imposible calcular la longitud o área exactas de una figura fractal, pero podemos definir de un modo cualitativo su grado de «mellado».

Mandelbrot subrayó esta espectacular característica de las figuras fractales planteando una provocadora cuestión: ¿Qué longitud exacta tiene la línea costera británica? Demostró que, puesto que la longitud medida puede extenderse indefinidamente descendiendo progresivamente de escala, no existe una respuesta definitiva a la cuestión planteada. No obstante, sí es posible definir un número entre 1 y 2 que caracterice el grado de mellado+ de dicha costa. Para la línea costera británica, dicho número es aproximadamente 1,58, mientras que para la noruega, mucho más accidentada, es aproximadamente 1,70. 

156
Como se puede demostrar que dicho número tiene algunas propiedades de dimensión, Mandelbrot lo llamó una dimensión fractal. Podemos comprender esta idea intuitivamente si nos damos cuenta de que una línea quebrada sobre un plano llena más espacio que una línea recta, con dimensión 1, pero menos que el plano, con dimensión 2. Cuanto más quebrada la línea, más se acercará su dimensión fractal a 2. De igual manera, una hoja de papel arrugada ocupa más espacio que un plano, pero menos que una esfera. Así, cuanto más arrugada esté la hoja, más cerca de 3 estará su dimensión fractal.

157
Con estas nuevas técnicas matemáticas, los científicos han podido construir modelos muy precisos de una gran variedad de formas naturales irregulares, descubriendo al hacerlo la aparición generalizada de fractales. De todos estos modelos, es quizás el patrón fractal de las nubes, que inspiraran a Mandelbrot la búsqueda de un nuevo lenguaje matemático, el más asombroso. Su autosemejanza alcanza hasta siete órdenes de magnitud, lo que significa que el borde de una nube, ampliado diez millones de veces, sigue mostrando el mismo aspecto conocido.

158
NÚMEROS COMPLEJOS

La culminación de la geometría fractal ha sido el descubrimiento por Mandelbrot de una estructura matemática que, aun siendo de una enorme complejidad, puede ser generada con un procedimiento iterativo muy simple. Para comprender esta asombrosa figura fractal, conocida como la serie de Mandelbrot, debemos familiarizarnos primero con uno de los más importantes conceptos matemáticos: los números complejos.




167
No obstante, esta estructura cuya riqueza desafía a la imaginación humana, está generada por unas pocas reglas muy simples. Así, la geometría fractal, al igual que la teoría del caos, ha obligado a científicos y matemáticos a revisar el concepto mismo de complejidad.
...

169
Cuarta parte

La naturaleza de la vida

171
7 . UNA NUEVA SÍNTESIS

Volvamos por un momento al tema central del presente libro: ¿qué es vida? En mi tesis, he argumentado que está emergiendo en la actualidad una teoría de sistemas vivos que es consecuente con el marco filosófico de la ecología profunda, que comprende un lenguaje matemático adecuado y que implica una comprensión no mecanicista y poscartesiana de la vida.

PATRÓN Y ESTRUCTURA

La aparición y elaboración del concepto de «patrón de organización» ha sido un elemento crucial en el desarrollo de esta nueva forma de pensar. Desde Pitágoras hasta Aristóteles, Goethe y los biólogos organicistas, hay una continua tradición intelectual que se debate por la comprensión de la forma viviente. Alexander Bogdanov fue el primero en intentar la integración de los conceptos de organización, patrón y complejidad en una teoría de sistemas coherente. Los cibernéticos se centraron en los patrones de comunicación y control -en particular en las pautas de circularidad causal subyacentes en el concepto de retroalimentación-, y al hacerlo, fueron los primeros en distinguir claramente el patrón de organización de un sistema, de su estructura física. Las «piezas del rompecabezas» que faltaban -el concepto de autoorganización y las nuevas matemáticas de la complejidad-han sido identificadas y analizadas a lo largo de los últimos veinte años. Una vez más, la noción de patrón ha sido fundamental para ambos acontecimientos. El concepto de autoorganización se originó en el reconocimiento de la red como patrón general de vida, refinado posteriormente por Maturana y Várela en su concepto de autopoiesis. Las nuevas matemáticas de la complejidad son esencialmente unas matemáticas de patrones visuales -atractores extraños, retratos fase, fractales, etc.-, que se analizan dentro del marco de la topología planteado por Poincaré.

172
La comprensión del patrón será pues de crucial importancia para la comprensión científica de la vida. No obstante, para el completo entendimiento de un sistema vivo, la comprensión de su patrón de organización -si bien críticamente importante- no resulta suficiente. Necesitamos también comprender la estructura del sistema. De hecho, hemos visto cómo el estudio de la estructura ha sido el principal planteamiento de la ciencia occidental, eclipsando una y otra vez el estudio del patrón.

He llegado a la convicción de que la clave para una teoría completa de los sistemas vivos estriba precisamente en la síntesis de estos dos planteamientos: el estudio del patrón (forma, orden, cualidad) y el de la estructura (substancia, materia, cantidad). Seguiré a Humberto Maturana y Francisco Varela en sus definiciones para ambos criterios clave de un sistema vivo: su patrón de organización y su estructura. El patrón de organización de cualquier sistema, vivo o no, es la configuración de las relaciones entre sus componentes, que determina las características esenciales del sistema. Dicho de otro modo, ciertas relaciones deben estar presentes para que algo sea reconocible como una silla, una bicicleta o un árbol. Esta configuración de relaciones que le otorga al sistema sus características esenciales es lo que entendemos como su patrón de organización.

La estructura de un sistema es la corporeización física de su patrón de organización. Mientras que la descripción del patrón de organización implica una cartografía abstracta de relaciones, la descripción de la estructura implica la de sus componentes físicos presentes: sus formas, sus composiciones químicas, etc.

Para ilustrar la diferencia entre patrón y estructura, tomemos un sistema no vivo bien conocido: una bicicleta. Para que algo pueda ser llamado una bicicleta, deberá existir un número de relaciones funcionales entre sus componentes conocidos como cuadro, pedales, manillar, ruedas, cadena, ruedas dentadas, etc. La configuración completa de estas relaciones funcionales constituye el patrón de organización de la bicicleta.

La estructura de la bicicleta es la manifestación física de su patrón de organización en términos de componentes de formas específicas, hechos de materiales específicos. El mismo patrón «bicicleta» puede manifestarse a través de muchas estructuras distintas.

173
LOS TRES CRITERIOS CLAVES

En una máquina tal como una bicicleta, las partes han sido diseñadas, fabricadas y ensambladas para formar una estructura con componentes fijos. En un sistema vivo, por el contrario, los componentes cambian continuamente. Hay un flujo incesante de materia y energía a través del organismo. Cada célula sintetiza y disuelve continuamente estructuras y elimina productos de desecho. Tejidos y organismos reemplazan sus células en ciclos continuos. Hay crecimiento, desarrollo y evolución. Así, desde el mismo inicio de la biología, la comprensión de la estructura viva ha sido inseparable del entendimiento de los procesos metabólicos y relativos al desarrollo.

Esta sorprendente propiedad de los sistemas vivos sugiere el proceso como tercer criterio para una completa descripción de la naturaleza de la vida. El proceso vital es la actividad que se ocupa de la continua corporeización del patrón de organización del sistema. Así pues, el criterio de proceso constituye el vínculo entre patrón y estructura. En el caso de nuestra bicicleta, el patrón de organización está representado por los dibujos de proyecto necesarios para su construcción, la estructura por la bicicleta específica física y el vínculo entre patrón y estructura por el proceso mental de su diseñador. En el caso de un organismo vivo, en cambio, el patrón de organización siempre está corporeizado por la estructura del sistema, mientras que el vínculo entre patrón y estructura reside en el proceso de continua corporeización.

174
En pocas palabras, propongo el entendimiento de: la autopoiesis -tal como es definida por Maturana y Varela - como el patrón de vida (es decir, el patrón de organización de los sistemas vivos); la estructura disipativa -tal como es definida por Prigogine - como la estructura de los sistemas vivos; y la cognición -tal como es definida inicialmente por Gregory Bateson y más plenamente por Maturana y Varela - como el proceso vital.

El patrón de organización determina las características esen-ciales de un sistema. En particular, determina si el sistema es vivo o no vivo. La autopoiesis -el patrón de organización de los sistemas vivos- es pues la característica definitoria de vida en la nueva teoría. Para determinar si un sistema - u n cristal, un virus, una célula o el planeta Tierra - está o no vivo, todo lo que debemos averiguar es si su patrón de organización corresponde al de una red autopoiésica. Si es así, estaremos tratando con un sistema vivo; en caso contrario, se tratará de un sistema no vivo.

La cognición -el proceso de vida - está inextricablemente unida a la autopoiesis, como veremos más adelante. La autopoiesis y la cognición son dos aspectos distintos del mismo proceso de vida. En la nueva teoría, todos los sistemas vivos son sistemas cognitivos y la cognición implica siempre la existencia de una red autopoiésica.

Con el tercer criterio de vida - la estructura de los sistemas vivos-, la situación es ligeramente distinta. Si bien la estructura de un sistema vivo es siempre una estructura disipativa, no todas las estructuras disipativas son redes autopoiésicas. Así pues, una estructura disipativa podrá ser un sistema vivo o no vivo. Por ejemplo, las células de Bénard y los relojes químicos estudiados extensamente por Prigogine, son estructuras disipativas pero no son sistemas vivos.


175
Criterios clave de un sistema vivo

patrón de organización:
la configuración de las relaciones que determina las características esenciales del sistema

estructura:
la corporeización física del patrón de organización del sistema

proceso vital:
la actividad involucrada en la continua corporeización física del patrón de organización del sistema

181
Un sutil pero importante punto en la definición de autopoiesis es el hecho de que una red autopoiésica no es un conjunto de relaciones entre componentes estáticos (como, por ejemplo, el patrón de organización de un cristal), sino un conjunto de relaciones entre procesos ¿le producción de componentes. Si estos procesos se detienen, lo hace también toda la organización. En otras palabras, las redes autopoiésicas deben regenerarse continuamente para mantener su organización. Ésta es, por supuesto, una característica bien conocida de la vida. 

Maturana y Varela ven la diferencia entre relaciones de componentes estáticos y relaciones entre procesos, como la distinción clave entre fenómenos físicos y fenómenos biológicos.

185
COGNICIÓN: EL PROCESO DE LA VIDA

Los tres criterios clave para la vida -patrón, estructura y proceso- están tan íntimamente entrelazados que resulta difícil su análisis por separado, si bien es importante distinguirlos. La autopoiesis, el patrón de vida, es un conjunto de relaciones entre procesos de producción, y una estructura disipativa sólo puede ser entendida en términos de procesos metabólicos y de desarrollo. La dimensión proceso está pues implícita, tanto en el criterio de patrón como en el de estructura.
En la teoría emergente de los sistemas vivos, los procesos vitales - la continua corporeización de un patrón autopoiésico de organización en una estructura disipativa- son identificados con la cognición, el proceso de conocer. Ello implica un concepto radicalmente nuevo de mente, que es quizás el más revolucionario y apasionante aspecto de esta teoría, ya que conlleva la promesa de la trascendencia de la división cartesiana entre mente y materia.
De acuerdo con la teoría de los sistemas vivos, la mente no es una cosa, sino un proceso: el proceso mismo de la vida. En otras palabras, la actividad organizadora de los sistemas vivos, a todos los niveles de vida, es una actividad mental. Las interacciones de un organismo vivo -planta, animal o humano- con su entorno son interacciones cognitivas, mentales. Así, vida y cognición que-dan inseparablemente vinculadas. La mente -o más precisamente el proceso mental- es inmanente en la materia a todos los niveles de vida.

186
Bateson estableció una serie de criterios que los sistemas deben cumplir para que pueda existir la mente.16 Todo sistema que satisfaga dichos criterios será capaz de desarrollar los procesos que asociamos con la mente: aprendizaje, memorización, toma de decisiones, etc. De acuerdo con Bateson, estos procesos mentales son una consecuencia necesaria e inevitable de una cierta complejidad, que empieza mucho antes de que los organismos desarrollen cerebros y sistemas nerviosos superiores. Enfatizó también que la mente se manifiesta no sólo en organismos individuales, sino también en sistemas sociales y ecosistemas.

187
Bateson desarrolló su criterio de proceso mental intuitivamente desde su atenta observación del mundo vivo. Estaba claro para él que el fenómeno de la mente se hallaba inseparablemente vinculado al fenómeno de la vida. Cuando observaba el mundo vivo, veía su actividad organizadora como esencialmente mental. En sus propias palabras, «la mente es la esencia de estar vivo».

A pesar de su claro reconocimiento de la unidad de mente y vida -o mente y naturaleza, como él diría-, Bateson nunca preguntó: ¿qué es vida? Nunca sintió la necesidad de formular una teoría, ni tan sólo un modelo, de sistemas vivos que ofreciera un marco conceptual para sus criterios de proceso mental. El desarrollo de dicho marco fue precisamente el planteamiento de Maturana.

Por coincidencia -o quizás intuición-, Maturana se debatía simultáneamente con dos cuestiones que parecían conducirle en direcciones opuestas: ¿cuál es la naturaleza de la vida?, y ¿qué es cognición? Eventualmente descubrió que la respuesta a la primera -autopoiesis- le proporcionaba el marco teórico para responder a la segunda. El resultado es una teoría sistémica de cognición desarrollada por Maturana y Varela, llamada en ocasiones la teoría de Santiago.

El tema central de la teoría de Santiago es el mismo que el de la de Bateson: la identificación de la cognición -el proceso de conocer-, con el proceso de vivir. Esto representa una radical expansión del concepto de mente. Según la teoría de Santiago, el
cerebro no es necesario para que exista la mente. Una bacteria o una planta no tienen cerebro, pero tienen mente. Los organismos más simples son capaces de percepción y, por tanto, de cognición. No ven, pero aun así, perciben los cambios en su entorno: diferencias entre luz y oscuridad, frío y calor, concentraciones más altas o más bajas de compuestos químicos, etc.

El nuevo concepto de cognición es pues mucho más amplio que el de pensamiento. Incluye percepción, emoción y acción: todo el proceso vital. En el reino humano, la cognición incluye también lenguaje, pensamiento conceptual y todos los demás atributos de la consciencia humana. El concepto general, no obstante, es mucho más amplio y no incluye necesariamente al pensamiento. 

188
En la teoría de Santiago, la relación entre mente y cerebro es simple y clara. La caracterización de la mente hecha por Descartes como «la cosa que piensa» "res cogitans" es por fin abandonada. La mente no es ya una cosa, sino un proceso: el proceso de cognición, que se identifica con el proceso de la vida. El cerebro es una estructura específica a través de la cual este proceso opera. La relación entre mente y cerebro es pues una relación entre proceso y estructura.

El cerebro no es, por supuesto, la única estructura a través de la cual opera el proceso de cognición. La entera estructura disipativa del organismo participa en dicho proceso, con independencia de que el organismo tenga o no un cerebro y un sistema nervioso superior. Más aún, investigaciones recientes indican firmemente que en el organismo humano, el sistema nervioso, el sistema inmunológico y el sistema endocrino -que tradicionalmente eran vistos como sistemas separados- forman en realidad una única red cognitiva.

8. ESTRUCTURAS DISIPATIVAS

190
ESTRUCTURA Y CAMBIO

Desde los inicios de la biología, filósofos y científicos se habían dado cuenta de que las formas vivas, de múltiples y misteriosas maneras, combinan la estabilidad de la estructura con la fluidez del cambio. Como los remolinos, dependen de un flujo constante de materia; como las llamas, transforman los materia-les de los que se nutren para mantener su actividad y crecer; pero a diferencia de remolinos y llamas, las estructuras vivas también se desarrollan, se reproducen y evolucionan.

En los años cuarenta, Ludwig von Bertalanffy llamó «sistemas abiertos» a tales estructuras, para enfatizar su dependencia de flujos continuos de energía y recursos. Acuñó el término fliess-gleichgewicht («balance fluyente») para expresar esta coexistencia de balance y flujo, de estructura y cambio, presente en todas las formas de vida. Subsecuentemente, los ecólogos empezaron a representar ecosistemas en términos de diagramas de flujos, cartografiando los caminos seguidos por materia y energía a través de diversas redes tróficas. Estos estudios establecieron el recicla-je como el principio clave de la ecología. Como sistemas abiertos, todos los organismos de un ecosistema producen residuos, pero lo que es desperdicio para una especie, es alimento para otra, de modo que los residuos son continuamente reciclados y el ecosistema como un todo no produce generalmente desperdicios. 

191
(...) Al ser comidas las plantas por animales que a su vez son comidos por otros animales, los nutrientes de las plantas pasan a través de la red trófica, mientras que la energía es disipada en forma de calor a través de la respiración y en forma de residuo a través de la excreción. Los residuos, así como los animales y plantas muertos, son descompuestos por los llamados organismos de descomposición (insectos y bacterias), que los desintegran en nutrientes básicos, que serán absorbidos de nuevo por plantas verdes. De este modo los nutrientes y otros elementos básicos circulan continuamente por el ecosistema, mientras que la energía es disipada en cada paso. De ahí el dicho de Eugene Odum: «La materia circula, la energía se disipa.» El único desperdicio generado por el ecosistema como un todo es la energía térmica desprendida en la respiración, que es irradiada a la atmósfera y realimentada constantemente por el sol a través de la fotosíntesis.

193
La teoría de Prigogine interconecta las principales características de las formas vivas en un marco conceptual y matemático coherente que implica una reconceptualización radical de mu-chas de las ideas fundamentales asociadas con la estructura: un cambio de percepción de estabilidad a inestabilidad, de orden a desorden, de equilibrio a desequilibrio, de ser a devenir. En el centro de la visión de Prigogine reside la coexistencia entre estructura y cambio, «quietud y movimiento» (...)

NO-EQUILIBRIO Y NO-LINEALIDAD

193
(...) Un organismo vivo se caracteriza por un flujo y un cambio continuos en su metabolismo, comprendiendo miles de reacciones químicas. El equilibrio químico y térmico se da únicamente cuando estos procesos se detienen. En otras palabras, un organismo en equilibrio es un organismo muerto. Los organismos vivos se mantienen constantemente en un estado alejado del equilibrio, en el estado de vida. Siendo muy distinto del equilibrio, este esta-do es sin embargo estable a lo largo de períodos prolongados de tiempo, lo que significa que, como en el remolino, se mantiene la misma estructura general a pesar del incesante flujo y cambio de componentes.

194
Prigogine comprendió que la termodinámica clásica - la primera ciencia de la complejidad- resultaba inadecuada para la descripción de sistemas alejados del equilibrio, debido a la naturaleza lineal de su estructura matemática. Cerca del equilibrio -en el ámbito de la termodinámica clásica-, hay procesos fluyentes denominados «flujos», pero son débiles. El sistema evolucionará siempre hacia un estado estacionario en el que la generación de entropía (o desorden) sea lo más pequeña posible. En otras palabras, el sistema minimizará sus flujos, manteniéndose tan próximo al estado de equilibrio como le sea posible. En este ámbito limitado, los procesos fluctuantes pueden ser descritos con ecuaciones lineales.
Más lejos del equilibrio los flujos son más fuertes, la producción de entropía aumenta y el sistema ya no tiende al equilibrio. Bien al contrario, podrá encontrarse con inestabilidades que le conduzcan a nuevas formas de orden que alejarán al sistema más y más del estado de equilibrio. En otras palabras, lejos del equilibrio las estructuras disipativas pueden desarrollarse hacia formas de complejidad creciente. Prigogine enfatiza que las características de una estructura disipativa no pueden deducirse de las propiedades de sus partes, sino que son consecuencia de su «organización supramolecular». Aparecen correlaciones de largo alcance en el mismo punto de transición de equilibrio a no-equilibrio, y a partir de este punto, el sistema se comporta como un todo.

195
Las ecuaciones lineales de la termodinámica clásica -señaló Prigogine- pueden ser analizadas en términos de atractores puntuales. Cualquiera que sea el estado inicial del sistema, será «atraído» hacia un estado estacionario de mínima entropía lo más cercano posible al equilibrio y su comportamiento será completamente predecible. Como explica Prigogine, los sistemas en el ámbito lineal tienden a «olvidar sus condiciones iniciales». 

Fuera de la región lineal, la situación es espectacularmente distinta. Las ecuaciones no-lineales tienen por regla general más de una solución; a mayor no-linealidad, mayor número de soluciones. Ello significa que en cualquier momento pueden surgir nuevas situaciones. Matemáticamente hablando, en tales momentos el sistema se encuentra con un punto de bifurcación en el que puede desviarse hacia un estado completamente nuevo. Veremos más adelante cómo el comportamiento del sistema en el punto de bifurcación (es decir, cuál de los caminos que se le presentan tomará) depende del historial previo del sistema. En el ámbito no-lineal, las condiciones iniciales ya no son «olvidadas».

Además, la teoría de Prigogine demuestra que el comportamiento de una estructura disipativa alejada del equilibrio no sigue ninguna ley universal, sino que es exclusivo del sistema específico. Cerca del equilibrio, podemos encontrar fenómenos repetitivos y leyes universales. A medida que nos alejamos de él, nos desplazamos de lo universal a lo único, hacia la riqueza y la variedad. Ésta, sin duda, es una característica bien conocida de la vida.

La existencia de bifurcaciones en las que el sistema puede tomar una entre varias direcciones, implica que la indeterminación es otra característica de la teoría de Prigogine. Llegado al punto de bifurcación, el sistema puede «escoger» -metafóricamente hablando- entre varios caminos o estados posibles. La «elección», que no puede en ningún caso ser pronosticada, dependerá de los antecedentes del sistema y de varias condiciones externas. Existe pues un elemento irreductible de aleatoriedad en cada punto de bifurcación.

Esta indeterminación en las bifurcaciones es una de las dos clases de impredecibilidad de la teoría de las estructuras disipativas. La otra, presente también en la teoría del caos, se debe a la naturaleza altamente no-lineal de las ecuaciones, y se da incluso en ausencia de puntos de bifurcación. Debido a la reiteración de bucles de retroalimentación -o matemáticamente, repetidas iteraciones-, el más mínimo error en los cálculos, causado por la necesidad práctica de redondear cifras a algún nivel de decimales, añadirá inevitablemente suficiente incertidumbre para hacer imposible toda predicción.

Esta indeterminación en los puntos de bifurcación y la impredecibilidad «tipo caos» debida a las repetidas iteraciones, implican que el comportamiento de una estructura disipativa sólo puede ser pronosticado para un corto lapso de tiempo. Tras éste, la trayectoria del sistema nos elude. Así, la teoría de Prigogine, al igual que la teoría cuántica y la teoría del caos, nos recuerda una vez más que el conocimiento científico no puede ofrecernos más que «una limitada ventana al universo».

196
EL VECTOR TIEMPO

Según Prigogine, el reconocimiento de la indeterminación como característica clave de los fenómenos naturales es parte de una profunda reconceptualización de la ciencia. Un aspecto íntmamente unido a este cambio conceptual afecta a las nociones científicas de irreversibilidad y tiempo.  

En el paradigma mecanicista de la ciencia newtoniana, el mundo era visto como completamente causal y determinado. Todo lo que acontecía tenía una causa definida y daba lugar a un electo determinado. El futuro de cualquier parte del sistema, al igual que su pasado, podía ser en principio calculado con absoluta certeza si su estado en un momento dado era conocido con todo detalle. Este determinismo riguroso halló su más clara expresión en las célebres palabras de Pierre Simón Laplace:

Un intelecto que en un momento dado conociese todas las fuerzas actuantes en la naturaleza y la posición de todas las cosas de que el mundo consiste -suponiendo que el mencionado intelecto fuese suficientemente vasto para someter todos estos datos a análisis-, abarcaría en la misma fórmula el movimiento de los mayores cuerpos del universo y los de los más pequeños átomos; nada sería incierto para él y el futuro, al igual que el pasado, esta-ría presente ante sus ojos.

En este determinismo Laplaciano, no hay diferencia entre pasado y futuro. Ambos se hallan implícitos en el estado presente del mundo y en las ecuaciones newtonianas del movimiento. Todos los procesos son estrictamente reversibles. Tanto futuro como pasado son intercambiables, no hay lugar para la historia, la novedad ni la creación.

197
Los efectos irreversibles (como la fricción) se conocían en la física clásica newtoniana, pero eran despreciados sistemáticamente (...)

En termodinámica clásica, la irreversibilidad, aun siendo una característica importante, se asocia siempre con pérdidas de energía y desperdicio. Prigogine introdujo un cambio fundamental a esta visión en su teoría de estructuras disipativas demostrando que, en los sistemas vivos que operan lejos del equilibrio, los procesos irreversibles juegan un papel indispensable. Las reacciones químicas -los procesos básicos para la v i d a -son el prototipo de proceso irreversible. En el mundo newtoniano, no cabían la química ni la vida. La teoría de Prigogine de-muestra cómo un determinado tipo de procesos químicos -los bucles catalíticos esenciales para los organismos vivos- conduce a inestabilidades mediante la reiterada retroalimentación auto-amplificadora y cómo emergen nuevas estructuras de creciente complejidad en los sucesivos puntos de bifurcación. «La irreversibilidad», decía Prigogine, «es el mecanismo que extrae orden del caos.»

198
ORDEN Y DESORDEN

El vector tiempo introducido en termodinámica clásica no apuntaba hacia un creciente orden, sino en dirección contraria. Según la segunda ley de termodinámica, hay en los fenómenos físicos una tendencia del orden al desorden, hacia una creciente entropía. Uno de los logros capitales de Prigogine fue la resolución de la paradoja de las dos visiones contradictorias de la evolución en física y en biología: la una como un motor abocado a la detención final, la otra como un mundo vivo desplegándose hacia un orden y complejidad crecientes. En palabras del mismo Prigogine: «Existe [una] pregunta que nos ha perseguido durante más de un siglo: ¿qué significado tiene la evolución de un ser vivo en el mundo descrito por la termodinámica, un mundo en desorden creciente?»

En la teoría de Prigogine, la segunda ley de termodinámica sigue siendo válida, pero la relación entre entropía y desorden se contempla bajo una nueva luz. Para comprender esta nueva percepción, resulta útil recordarlas definiciones clásicas de entropía y orden. El concepto de entropía fue introducido en el siglo XIX por el físico y matemático alemán Rudolf Clausius para medir la disipación de energía en forma de calor y fricción. Clausius definía la entropía generada en un proceso térmico como la energía disipada, dividida por la temperatura a la que ocurre el proceso. Según la segunda ley, la entropía sigue aumentando a medida que progresa el fenómeno térmico, la energía disipada no puede ser recuperada, y es esta dirección hacia una creciente entropía la que define el vector tiempo.

...

199
Ludwig Boltzmann, uno de los grandes teóricos de la termodinámica clásica, quien otorgó un nuevo significado al concepto de entropía y estableció el vínculo entre entropía y orden. Siguiendo la línea de razonamiento iniciada por James Clerk Maxwell, fundador de la mecánica estadística, Boltzmann diseñó un ingenioso experimento mental para examinar el concepto de entropía a nivel molecular.

Supongamos que tenemos una caja -razonaba Boltzmann-dividida en dos compartimentos iguales por una partición central imaginaria y ocho moléculas identificables, numeradas del uno al ocho como bolas de billar. ¿De cuántas formas podemos distribuir estas partículas en la caja, de modo que unas queden en el compartimento de la izquierda y otras en el de la derecha?

Primero pongamos todas las partículas en el lado izquierdo. Hay una única manera de hacerlo. En cambio, si ponemos siete a la izquierda y una a la derecha, dado que la partícula de la derecha puede ser cualquiera de las ocho, tendremos ocho posibilidades distintas, cada una de las cuales contará como una distribución distinta al ser las partículas diferenciables entre sí.

De forma parecida, hay veintiocho distribuciones distintas para seis partículas en la izquierda y dos en la derecha. Puede deducirse fácilmente una fórmula general para todas estas permutaciones, que demuestra que el número de posibilidades aumenta a medida que disminuye la diferencia entre las partículas de ambos lados, alcanzando un máximo de setenta combinaciones para un número igual de moléculas, cuatro a cada lado.

'Boltzmann denominó «complexiones» a las distintas combinaciones y las asoció con el concepto de orden: a menor número de complexiones, más elevado el nivel de orden. Así pues, en nuestro ejemplo, el primer estadio con todas las partículas agrupadas en un mismo lado, presenta el máximo nivel de orden, mientras que la distribución simétrica, con cuatro partículas en cada lado, representa el máximo nivel de desorden.

200
Esta definición de orden en termodinámica es muy distinta de los rígidos conceptos de orden y equilibrio de la mecánica newtoniana.

201
De este modo, el número de posibles complexiones para una determinada disposición de las moléculas, da la medición tanto del grado de orden de dicho estado como de la probabilidad de su existencia. Cuanto más alto sea el número de complexiones, mayores serán el desorden y la probabilidad de que el gas esté en aquel estado. En consecuencia, Boltzmann concluyó que el movimiento de orden a desorden es un movimiento de estado improbable a estado probable. Al identificar entropía y desorden con número de complexiones, introdujo una definición de entropía en términos de probabilidades.

201
En el lenguaje de Boltzmann, la segunda ley de termodinámica significa que todo sistema cerrado tiende al estado de máxima probabilidad, que se corresponde con el estado de máximo desorden. Matemáticamente, este estado puede definirse como el estado atractor de equilibrio térmico. Una vez alcanzado el equilibrio, el sistema no se alejará de él. Ocasionalmente el movimiento molecular aleatorio dará lugar a distintos estados, pero éstos serán próximos al equilibrio y sólo existirán durante breves períodos de tiempo. En otras palabras, el sistema meramente fluctuará alrededor del estado de equilibrio térmico.

La termodinámica clásica resulta pues inadecuada para la descripción de los fenómenos en equilibrio o cerca de él. La teoría de Prigogine de las estructuras disipativas, en cambio, se puede aplicar a los fenómenos termodinámicos alejados del equilibrio, en los que las moléculas no se hallan en estado de movimiento aleatorio, sino entrelazadas a través de múltiples bucles de retroalimentación, descritos por ecuaciones no-lineales. Dichas ecuaciones ya no están dominadas por atractores puntuales, lo que significa que el sistema no tiende ya al equilibrio. Una estructura disipativa se mantiene alejada del equilibrio y puede incluso alejarse más y más mediante una serie de bifurcaciones.

202
En los puntos de bifurcación, pueden surgir espontáneamente estados de orden (en el sentido otorgado por Boltzmann a este término) superior lo que, no obstante, no contradice la segunda ley de la termodinámica. La entropía total del sistema sigue aumentando, pero este aumento en entropía no significa un aumento uniforme en desorden. En el mundo vivo, orden y desorden son siempre creados simultáneamente.

Según Prigogine, las estructuras disipativas son islas de orden en un mar de desorden, manteniendo e incluso aumentando su orden a expensas del creciente desorden de su entorno. Por ejemplo, los organismos vivos toman estructuras ordenadas (alimentos) de su entorno, las utilizan como recursos para sus procesos metabólicos y disipan estructuras de orden inferior (desechos) hacia el entorno. De este modo, el orden «flota en el desorden», en palabras de Prigogine, mientras que la entropía total sigue aumentando de acuerdo con la segunda ley.


Comentarios

Entradas más populares de este blog

Pallasmaa, Juhani (2018): Habitar.

Sautu, Ruth (2005): Todo es Teoría. Objetivos y Métodos de Investigación (parcial)

SALINGAROS, Nikos (2013): Teoría Unificada de la Arquitectura