Capra, Fritjof (1998): La trama de la vida. Una nueva perspectiva de los sistemas vivos
CAPRA, Fritjof
(1998): La trama de la vida. Una nueva perspectiva de los sistemas vivos,
Anagrama
31
Resulta aquí
interesante señalar la sorprendente conexión entre los cambios de pensamiento y
de valores. Ambos pueden ser contemplados como cambios desde la asertividad a
la integración. Ambas tendencias - la asertiva y la integrativa- son aspectos
esenciales de todos los sistemas vivos. Ninguna es intrínsecamente buena o
mala. Lo bueno o saludable es un equilibrio dinámico entre ambas y lo malo o
insalubre es su desequilibrio, el enfatizar desproporcionadamente una en
detrimento de la otra. Si contemplamos desde esta perspectiva nuestra cultura
industrial occidental, veremos que hemos enfatizado las tendencias asertivas a
costa de las integrativas. Ello resulta evidente al mismo tiempo en nuestro
pensamiento y en nuestros valores y resulta muy instructivo emparejar estas
tendencias opuestas:
Pensamiento
Asertivo Integrativo
racional intuitivo
analítico sintético
reduccionista holístico
lineal no-lineal
Valores
Asertivo Integrativo
expansión conservación
competición cooperación
cantidad Calidad
dominación asociación
34
"El vínculo
entre ecología y psicología establecido desde el concepto del «sí mismo
ecológico» ha sido explorado recientemente por varios autores. La ecóloga
profunda Joanna Macy escribe sobre el «reverdecimiento del sí mismo», el
filósofo Warwick Fox ha acuñado el término «ecología transpersonal» y el
historiador cultural Theodore Roszak utiliza el término «ecopsicología» para
expresar la profunda conexión entre ambos campos, que hasta hace poco se veían
completamente separados."
38
La tensión entre
mecanicismo y holismo ha sido tema recurrente a lo largo de la historia de la
biología y es una consecuencia inevitable de la vieja dicotomía entre
substancia (materia, estructura, cantidad) y forma (patrón, orden cualidad). El
aspecto biológico es más que una forma, más que una configuración estática de
componentes en un todo. Hay un flujo continuo de materia a través de un
organismo vivo mientras que su forma se mantiene. Hay desarrollo y hay
evolución. Por lo tanto, la comprensión del aspecto biológico está
inextricablemente ligada a la comprensión de los procesos metabólicos y
relativos al desarrollo.
En el alba de la
filosofía y la ciencia occidentales, los pitagóricos distinguían «número» o
patrón, de substancia o materia, y lo veían como algo que limitaba la materia y
le daba forma. En palabras de Gregory Bateson:
El
asunto tomó la forma de «¿Preguntas de qué está hecho -tierra, fuego, agua,
etc.?», o preguntas «¿Cuál es su patrón?» Los pitagóricos preferían inquirir
sobre el patrón a hacerlo sobre la substancia.
Aristóteles, el
primer biólogo de la tradición occidental, distinguía también entre materia y
forma pero al mismo tiempo las vinculaba mediante el proceso de desarrollo. En
contraste con Platón, Aristóteles creía que la forma no tenía una existencia
separada sino que era inmanente en la materia y que ésta tampoco podía existir
aisladamente de la forma. La materia, según Aristóteles, contenía la naturaleza
esencial de todas las cosas, pero sólo como potencialidad. Por medio de la
forma, esta esencia se convertía en real o actual. El proceso de la
autorrealización de la esencia en el fenómeno real fue denominado por
Aristóteles enteleqitia
(«autocompleción»)* Se trata de un proceso de desarrollo, un empuje hacia la
plena autorrealización. Materia y forma son caras de dicho proceso, separables
sólo mediante la abstracción.
* En la filosofía
aristotélica, estado de perfección hacia el cual tiende cada especie de ser.
(N. del T.)
39
EL MECANICISMO CARTESIANO
En los siglos XVI
y XVII la visión medieval del mundo, basada en la filosofía aristotélica y en
la teología cristiana, cambió radicalmente. La noción de un universo orgánico,
viviente y espiritual fue reemplazada por la del mundo como máquina, y ésta se
convirtió en la metáfora dominante de la era moderna. Este cambio radical fue
propiciado por los nuevos descubrimientos en física, astronomía y matemáticas
conocidos como la Revolución científica y asociados con los nombres de
Copérnico, Galileo, Descartes, Bacon y Newton.
Galileo Galilei
excluyó la cualidad de la ciencia, restringiendo ésta al estudio de fenómenos
que pudiesen ser medidos y cuantificados. Ésta ha sido una estrategia muy
exitosa en la ciencia moderna, pero nuestra obsesión por la medición y la
cuantificación ha tenido también importantes costes, como erráticamente
describe el psiquiatra R. D. Laing:
El
programa de Galileo nos ofrece un mundo muerto: fuera quedan la vista, el
sonido, el gusto, el tacto y el olor y con ellos desaparecen la sensibilidad
estética y ética, los valores, las cualidades, el alma, la consciencia y el
espíritu. La experiencia como tal queda excluida del reino del discurso
científico. Probablemente nada haya cambiado tanto nuestro mundo en los últimos
cuatrocientos años como el ambicioso programa de Galileo. Teníamos que destruir
el mundo primero en teoría, para poder hacerlo después en la práctica.
René Descartes
creó el método de pensamiento analítico, consistente en desmenuzar los
fenómenos complejos en partes para comprender, desde las propiedades de éstas,
el funcionamiento del todo. Descartes basó su visión de la naturaleza en la
fundamental división entre dos reinos independientes y separados: el de la
mente y el de la materia. El universo material, incluyendo los organismos
vivos, era para Descartes una máquina que podía ser enteramente comprendida
analizándola en términos de sus parles más pequeñas.
40
El marco
conceptual creado por Galileo y Descartes -el mundo como una máquina perfecta
gobernada por leyes matemáticas exactas- fue triunfalmente completado por Isaac
Newton, cuya gran síntesis - la mecánica newtoniana- constituyó el logro
culminante de la ciencia del siglo XVII.
...
Simultáneamente,
la rígida fisiología mecanicista encontró su más potente y elaborada expresión
en el polémico tratado de Julien de La Mettrie El hombre máquina, que mantuvo su fama más allá del siglo XVIII y
generó múltiples debates y controversias, algunas de las cuales alcanzaron
hasta el siglo XX.
...
EL MOVIMIENTO ROMÁNTICO
La primera
oposición frontal al paradigma cartesiano mecanicista partió del movimiento
romántico en el arte, la literatura y la filosofía a finales del siglo XVIII y
en el siglo XIX. William Blake, el gran poeta místico y pintor que ejerció una
fuerte influencia en el Romanticismo británico, fue un apasionado crítico de
Newton. Resumió su crítica en estas celebradas líneas:
41
Líbrenos Dios de
la visión simplista y del sueño de Newton' *
*La rima en
inglés es como sigue: «May God us keep / from single vision and Newton's
sleep.» (N. del T.)
Los poetas y
filósofos románticos alemanes volvieron a la tradición aristotélica,
concentrándose en la naturaleza de la forma orgánica. Goethe, la figura central
de este movimiento, fue uno de los primeros en utilizar el término «morfología»
para el estudio de la forma biológica desde una perspectiva dinámica y del
desarrollo. Admiraba el «orden en movimiento» (bewegliche ordnung) de la
naturaleza y concebía la forma como un patrón de relaciones en el seno de un
todo organizado, concepto que está en la vanguardia del pensamiento sistémico
contemporáneo. «Cada criatura», escribía Goethe, «no es sino una gradación
pautada (schattierung) de un gran y armonioso todo.»
La comprensión de
la forma orgánica jugó también un papel primordial en la filosofía de Emmanuel
Kant, considerado frecuentemente el más grande de los filósofos modernos.
Idealista, Kant separaba el mundo de los fenómenos de un mundo de
«las-cosas-en-sí-mismas». Creía que la ciencia podía ofrecer únicamente
explicaciones mecanicistas y afirmaba que, en áreas en las que tales
explicaciones resultasen insuficientes, el conocimiento científico debía ser completado
con la consideración del propio propósito de la naturaleza. La más importante
de estas áreas, según Kant, sería la comprensión de la vida.
En su Crítica a
la razón, Kant discutió la naturaleza de los organismos. Argumentaba que éstos,
en contraste con las máquinas, son autorreproductores y autoorganizadores. En
una máquina, según Kant, las partes sólo existen unas para las otras, en el
sentido de apoyarse mutuamente dentro de un todo funcional, mientras que en un
organismo, las partes existen además por medio de las otras, en el sentido de
producirse entre sí." «Debemos ver cada parte como un órgano», decía Kant,
«que produce las otras partes (de modo que cada una produce recíprocamente las
otras)... Debido a esto, [el organismo] será a la vez un ser organizado y
autoorganizador». Con esta afirmación, Kant se convertía no sólo en el primero
en utilizar el término «autoorganización» para definir la naturaleza de los
organismos vivos, sino que además lo usaba de modo notablemente similar a
algunos de los conceptos contemporáneos.
43
Durante la
segunda mitad del siglo XIX, el péndulo retrocedió hacia el mecanicismo cuando
el recientemente perfeccionado microscopio condujo a notables avances en
biología. El siglo XIX es más conocido por el desarrollo del pensamiento
evolucionista, pero también vio la formulación de la teoría celular, el
principio de la moderna embriología, el ascenso de la microbiología y el
descubrimiento de las leyes de la herencia genética. Estos nuevos
descubrimientos anclaron firmemente la biología en la Física y la química y los
científicos redoblaron sus esfuerzos en la búsqueda de explicaciones
físico-químicas para la vida.
44
Las limitaciones
del modelo reduccionista se evidenciaron aún más espectacularmente en el
análisis del desarrollo y diferenciación celular. En los primeros estadios del
desarrollo de los organismos superiores, el número de células se incrementa de
una a dos, a cuatro, a ocho y así sucesivamente, doblándose a cada paso. Puesto
que la información genética es idéntica para cada célula, ¿cómo pueden éstas
especializarse en distintas vías, convirtiéndose en células musculares,
sanguíneas, óseas, nerviosas, etc.? Este problema básico del desarrollo, que se
repite bajo diversos aspectos en biología, desafía claramente la visión
mecanicista de la vida.
46
LA BIOLOGÍA
ORGANICISTA
A principios del
siglo XX los biólogos organicistas, en oposición al mecanicismo y al vitalismo,
tomaron el problema de la forma biológica con nuevo entusiasmo, elaborando y
redefiniendo muchos de los conceptos clave de Aristóteles, Goethe, Kant y
Cuvier. Algunas de las principales características de lo que hoy llamamos
pensamiento sistémico surgieron de sus extensas reflexiones.
Ross Harrison,
uno de los exponentes tempranos de la escuela organicista, exploró el concepto
de organización, que había ido reemplazando gradualmente la vieja noción de
función en fisiología. Este cambio de función a organización representó un
desplazamiento del pensamiento mecanicista al sistémico, al ser la función un
concepto esencialmente mecanicista.
47
El bioquímico
Lawrence Henderson influenció con su temprano uso del término «sistema» para
denominar organismos vivos y sistemas sociales. A partir de aquel momento,
«sistema» ha venido a definir un todo integrado cuyas propiedades esenciales
surgen de las relaciones entre sus partes, y «pensamiento sistémico» la
comprensión de un fenómeno en el contexto de un todo superior. Esta es, en
efecto, la raíz de la palabra «sistema» que deriva del griego synistánai
(«reunir», «juntar», «colocar juntos»). Comprender las cosas sistémicamente
significa literalmente colocarlas en un contexto, establecer la naturaleza de
sus relaciones.
Woodger y muchos
otros subrayaron que una de las características clave de la organización de los
organismos vivos era su naturaleza jerárquica. Efectivamente, una de las
propiedades sobresalientes de toda manifestación de vida es la tendencia a
constituir estructuras multinivel de sistemas dentro de sistemas. Cada uno de
ellos forma un todo con respecto a sus partes, siendo al mismo tiempo parte de
un todo superior. Así las células se combinan para formar tejidos, éstos para
formar óiganos y éstos a su vez para formar organismos. Éstos a su vez existen
en el seno de sistemas sociales y ecosistemas. A través de todo el mundo
viviente nos encontramos con sistemas vivos anidando dentro de otros sistemas
vivos.
48
Algo que los
primeros pensadores sistémicos admitieron muy claramente fue la existencia de
diferentes niveles de complejidad con diferentes leyes operando en cada nivel.
En efecto, el concepto de «complejidad organizada» se convirtió en el
protagonista del planteamiento sistémico. A cada nivel de complejidad los
fenómenos observados evidencian propiedades que no se dan en el nivel inferior.
Por ejemplo, el concepto de temperatura, crucial en termodinámica, carece de
sentido al nivel de átomos individuales, donde reinan las leyes de la teoría
cuántica. Del mismo modo, el sabor del azúcar no está presente en los átomos de
carbón, hidrógeno y oxígeno que lo constituyen. A principios de los años
veinte, el filósofo C. D. Broad acuñó el término «propiedades emergentes» para
estas propiedades que surgen a un cierto nivel de complejidad pero que no se
dan en niveles inferiores.
...
E L PENSAMIENTO
SISTÉMICO
Las ideas
propuestas por los biólogos organicistas durante la primera mitad del siglo
contribuyeron al nacimiento de una nueva manera de pensar-«pensamiento
sistémico»- en términos de conectividad, relaciones y contexto. Según la visión
sistémica, las propiedades esenciales de un organismo o sistema viviente, son
propiedades del todo que ninguna de las partes posee. Emergen de las
interacciones y relaciones entre las partes. Estas propiedades son destruidas
cuando el sistema es diseccionado, ya sea física o teóricamente, en elementos
aislados. Si bien podemos discernir partes individuales en todo sistema, estas
partes no están aisladas y la naturaleza del conjunto es siempre distinta de la
mera suma de sus partes.
...
El gran shock para
la ciencia del siglo XX ha sido la constatación de que los sistemas no pueden
ser comprendidos por medio del análisis. Las propiedades de las partes no son
propiedades intrínsecas, sino que sólo pueden ser comprendidas en el contexto
de un conjunto mayor. En consecuencia, la relación entre las partes y el todo
ha quedado invertida. En el planteamiento sistémico las propiedades de las
partes sólo se pueden comprender desde la organización del conjunto, por lo
tanto, el pensamiento sistémico no se concentra en los componentes básicos,
sino en los principios esenciales de organización. El pensamiento sistémico es
«contextual», en contrapartida al analítico. Análisis significa aislar algo
para estudiarlo y comprenderlo, mientras que el pensamiento sistémico encuadra
este algo dentro del contexto de un todo superior.
LA FÍSICA
CUÁNTICA
La constatación
de que los sistemas son totalidades integradas que no pueden ser comprendidas
desde el análisis fue aún más chocante en física que en biología. Desde Newton,
los físicos habían pensado que todos los fenómenos físicos podían ser reducidos
a las propiedades de sólidas y concretas partículas materiales. En los años
veinte no obstante, la teoría cuántica les forzó a aceptar el hecho de que los
objetos materiales sólidos de la física clásica se disuelven al nivel
subatómico en pautas de probabilidades en forma de ondas. Estas pautas o
patrones, además, no representan probabilidades de cosas, sino más bien de
interconexiones. Las partículas subatómicas carecen de significado como
entidades aisladas y sólo pueden ser entendidas como interconexiones o
correlaciones entre varios procesos de observación y medición. En otras
palabras, las partículas subatómicas no son «cosas» sino interconexiones entre
cosas y éstas, a su vez, son interconexiones entre otras cosas y así
sucesivamente. En teoría cuántica nunca terminamos con «cosas», sino que
constantemente tratamos con interconexiones.
50
En el formalismo
de la teoría cuántica, estas relaciones se expresan en términos de
probabilidades y éstas quedan determinadas por la dinámica de todo el sistema.
Mientras que en la mecánica clásica las propiedades y el comportamiento de las
partes determinan las del conjunto, en la mecánica cuántica la situación se
invierte: es el todo el que determina el comportamiento de las partes.
52
La ecología -del
griego oikos («casa»)- es el estudio del Hogar Tierra. Más concretamente, es el
estudio de las relaciones que vinculan a todos los miembros de este Hogar
Tierra. El término fue acuñado en 1866 por el biólogo alemán Ernst Haeckel,
quien la definió como «la ciencia de las relaciones entre el organismo y el
mundo exterior que le rodea.» En 1909 la palabra umwelt («entorno») fue
utilizada por primera vez por el biólogo báltico y pionero ecológico Jakob von
Uexküll.
...
Puesto que el
lenguaje utilizado por los primeros ecólogos no era muy distinto del de la
biología organicista, no resulta sorprendente que comparasen comunidades
biológicas con organismos. Por ejemplo, Frederic Clements, un ecólogo botánico
americano pionero en el estudio de la sucesión, veía las comunidades de plantas
como «superorganismos». Este concepto desencadenó un vivo debate, que se
prolongó durante más de una década hasta que el ecólogo botánico británico A.
G. Tansley refutó la noción de superorganismo y acuñó el término «ecosistema»
para describir a las comunidades de animales y plantas. El concepto de
ecosistema -definido hoy en día como «una comunidad de organismos y su entorno
físico, interactuando como una unidad ecológica»- conformó todo el pensamiento ecológico
subsiguiente y promovió una aproximación sistémica a la ecología.
53
Sabemos hoy que
la mayoría de los organismos no sólo son miembros de comunidades ecológicas,
sino que son también complejos ecosistemas en sí mismos, conteniendo huestes de
organismos más pequeños dotados de considerable autonomía, pero integrados
armoniosamente en un todo funcional. Hay pues tres clases de sistemas vivos:
organismos, partes de organismos y comunidades de organismos; todos ellos
totalidades integradas cuyas propiedades esenciales surgen de las interacciones
e interdependencia de sus partes.
A lo largo de
miles de millones de años de evolución, múltiples especies han ido tejiendo
comunidades tan estrechas que el sistema se asemeja a un enorme, multicriatural
organismo.
Abejas y
hormigas, por ejemplo, son incapaces de sobrevivir aisladamente pero en masa,
actúan casi como las células de un complejo organismo dotado de inteligencia
colectiva
54
A medida que el
concepto de red fue adquiriendo mayor relevancia en ecología, los pensadores
sistémicos empezaron a aplicar los modelos de redes a todos los niveles
sistémicos, contemplando a los organismos como redes de células, órganos y
sistemas de órganos, al igual que los ecosistemas son entendidos como redes de
organismos individuales. Consecuentemente, los flujos de materia y energía a
través de los ecosistemas se perciben como la continuación de las vías
metabólicas a través de los organismos.
La visión de los
sistemas vivos como redes proporciona una nueva perspectiva sobre las llamadas
jerarquías de la naturaleza. Puesto que los sistemas vivos son redes a todos
los niveles, debemos visualizar la trama de la vida como sistemas vivos (redes)
interactuando en forma de red con otros sistemas (redes). Por ejemplo, podemos
representar esquemáticamente un ecosistema como una red con unos cuantos nodos.
Cada nodo representa un organismo y ampliado aparecerá como otra red. Cada nodo
en la nueva red representará un órgano, que a su vez aparecerá como una red al
ser ampliado y así sucesivamente.
En otras
palabras, la trama de la vida está constituida por redes dentro de redes. En
cada escala y bajo un escrutinio más cercano, los nodos de una red se revelan
como redes más pequeñas. Tendemos a organizar estos sistemas, todos ellos
anidando en sistemas mayores, en un esquema jerárquico situando los mayores por
encima de los menores a modo de pirámide invertida, pero esto no es más que una
proyección humana. En la naturaleza no hay un «arriba» ni un «abajo» ni se dan
jerarquías. Sólo hay redes dentro de redes.
TEORIA DE
SISTEMAS
58
Durante milenios,
los científicos y filósofos occidentales han usado la metáfora del conocimiento
como un edificio, junto con muchas otras metáforas arquitectónicas derivadas de
la primera. Hablamos de leyes fundamentales, principios fundamentales,
componentes básicos y demás, afirmando que el edificio de la ciencia debe ser
construido sobre firmes cimientos. Cada vez que se producía una revolución científica
mayor, se veían temblar los cimientos de la ciencia. Descartes escribía en su
Discurso del método:
Mientras
que las [ciencias] tomen prestados sus principios a la filosofía, considero que
nada sólido podrá ser edificado sobre tan inestables cimientos.
...
En el nuevo
pensamiento sistémico, la metáfora del conocimiento como construcción queda
reemplazada por la de la red. Al percibir la realidad como una red de
relaciones, nuestras descripciones forman también una red interconectada de
conceptos y modelos en la que no existen cimientos. Para la mayoría de
científicos, esta visión del conocimiento como red sin cimientos firmes resulta
aún sumamente inquietante. Pero, a medida que el planteamiento de red se
expanda por la comunidad científica, la idea del conocimiento como red
encontrará sin duda una creciente aceptación.
60
Si imaginamos la
red (...) como mucho más intrincada, quizás parecida de algún modo a la mancha
de tinta del test de Rorschach, podemos comprender fácilmente que aislar un
patrón dentro de esta compleja red dibujando una frontera aleatoria a su
alrededor y denominarlo un «objeto» resulta un tanto arbitrario.
Efectivamente,
esto es lo que sucede cuando nos referimos a objetos de nuestro entorno. Por
ejemplo, cuando vemos una red de relaciones entre hojas, ramitas, ramas y
tronco, la denominamos «árbol». Al dibujar un árbol, la mayoría de nosotros
olvidará las raíces, si bien éstas son a menudo tanto o más extensas que las
partes del árbol que vemos. En un bosque, además, las raíces de todos sus
árboles están entremezcladas, formando una densa red subterránea en la que no
existen fronteras precisas entre árboles individuales.
Dicho brevemente,
lo que denominamos árbol depende de nuestras percepciones. Depende, como
decimos en ciencia, de nuestro método, de nuestra observación y de nuestras
mediciones. En palabras de Heisenberg: «Lo que observamos, no es la naturaleza
en sí misma, sino la naturaleza expuesta a nuestro método de observación.» Así
pues, el pensamiento sistémico comporta un cambio de ciencia objetiva a ciencia
«epistémica», a un marco en el que la epistemología -«el método de cuestionar»-
se convierte en parte integrante de las teorías científicas.
Esta novedosa
aproximación a la ciencia plantea de inmediato una importante cuestión. Si todo
está conectado con todo, ¿cómo podemos esperar comprender algo jamás? Puesto
que todos los fenómenos están interconectados, para explicar cualquiera de
ellos precisaremos comprender todos los demás, lo que obviamente resulta imposible.
61
En el nuevo
paradigma se admite que lodos los conceptos y teorías científicas son limitados
y aproximados; la ciencia nunca puede facilitar una comprensión completa y
definitiva.
61
Este sencillo
ejemplo demuestra cómo la caída de un objeto está conectada de múltiples
maneras a su entorno y en última instancia al resto del universo. No importa
cuántas conexiones tomemos en consideración para describir un fenómeno, siempre
estaremos obligados a excluir otras. Por tanto, los científicos jamás pueden
tratar con la verdad, en el sentido de una correspondencia precisa entre la
descripción y el fenómeno descrito. En ciencia tratamos siempre con
descripciones aproximadas de la realidad. Esto puede parecer frustrante, pero
para los pensadores sistémicos el hecho de que podamos obtener un conocimiento
aproximado sobre una red infinita de patrones interconectados es una fuente de
confianza y fortaleza.
62
PENSAMIENTO
PROCESAL
Todos los
conceptos sistémicos discutidos hasta este punto pueden ser vistos como
diferentes aspectos de una gran rama del pensamiento sistémico, que podríamos
denominar pensamiento contextual. Hay otra rama de igual importancia que de
algún modo surge en la ciencia de finales del siglo XX. Esta segunda rama es el
pensamiento procesal. En el marco mecanicista de la ciencia cartesiana hay
estructuras fundamentales y luego hay fuerzas y mecanismos a través de los
cuales éstas interactúan, dando lugar a los procesos. En la ciencia sistémica
cada estructura es vista como la manifestación de procesos subyacentes. El
pensamiento sistémico siempre es pensamiento procesal.
63
TEKTOLOGÍA
Normalmente se
adjudica a Ludwig von Bertalanffy la primera formulación de un marco teórico
comprensible para describir los principios de organización de los sistemas
vivos. Sin embargo, veinte o treinta años antes de que publicase sus primeros
escritos sobre su «teoría general de los sistemas», Alexander Bogdanov, médico,
investigador, filósofo y economista ruso, desarrolló una teoría de sistemas de
igual sofisticación y alcance que, desafortunadamente, es aún muy poco conocida
fuera de Rusia. Bogdanov llamó a su teoría «tektología», del griego tekton
(«constructor»), lo que podría ser traducido como «la ciencia de las
estructuras». El objetivo principal de Bogdanov era clarificar y generalizar
los principios de organización de todas las estructuras vivientes y no
vivientes (...)
64
El objetivo de
Bogdanov era formular una «ciencia universal de la organización». Definía la
forma organizadora como la «totalidad de conexiones entre elementos
sistémicos», lo que resulta virtualmente idéntico a nuestra definición
contemporánea de patrón de organización. Intercambiando los términos «complejo»
y «sistema», Bogdanov distinguía tres clases de sistemas: complejos organizados,
donde el todo es mayor que la suma de sus partes; complejos desorganizados,
donde el todo es menor que la suma de sus partes, y complejos neutros, donde
las actividades organizadoras y desorganizadoras se cancelan mutuamente.
...
Al igual que
Bertalanffy, Bogdanov reconoce que los sistemas vivos son sistemas abiertos que
operan lejos del equilibrio y estudia cuidadosamente sus procesos de regulación
y autorregulación. Un sistema que no precisa de regulación externa ya que se
autorregula, es el denominado «birregulador» en el lenguaje de Bogdanov.
Utilizando el ejemplo del motor a vapor, como harían los cibernéticos varias
décadas después, Bogdanov describe esencialmente el mecanismo definido como
retroalimentación por Norbert Wiener, concepto que sería básico para la
cibernética.
66
LA TEORÍA GENERAL
DE SISTEMAS
Ludwig von
Bertalanffy empezó su carrera como biólogo en la Viena de los años veinte.
Pronto se unió a un grupo de científicos y filósofos conocido
internacionalmente como el Círculo de Viena y su trabajo incluyó desde sus
inicios amplios temas filosóficos (...) Se dispuso a reemplazar los fundamentos
mecanicistas de la ciencia por una visión holística:
La
teoría general de sistemas es una ciencia general de «totalidad», concepto que
hasta ahora ha sido considerado vago, confuso y semimetafísico. En forma
elaborada sería una disciplina matemática puramente formal en sí misma, pero
aplicable a las diversas ciencias empíricas. Para las ciencias relacionadas con
«totalidades organizadas» tendría semejante significación, como la teoría de
probabilidades para las ciencias relacionadas con «sucesos aleatorios».
...
Mientras que la
mecánica newtoniana era una ciencia de fuerzas y trayectorias, el pensamiento
evolucionista -pensamiento en términos de cambio, crecimiento y desarrollo
requería una nueva ciencia de la complejidad. La primera formulación de esta
nueva ciencia fue la termodinámica clásica con su celebrada «segunda ley», la
ley de la disipación de la energía. De acuerdo con la segunda ley de la
termodinámica, formulada primero por el físico francés Sadi Carnot en términos
de tecnología para motores térmicos, hay una tendencia en los fenómenos físicos
desde el orden hacia el desorden. Todo sistema físico aislado o «cerrado»
procederá espontáneamente en la dirección de un creciente desorden. Para
expresar en términos matemáticos precisos esta dirección en la evolución de los
sistemas físicos, los físicos introdujeron una nueva medida que llamaron
«entropía». según la segunda ley, la entropía de un sistema físico cerrado irá
incrementándose, y dado que esta evolución viene acompañada de desorden
creciente, la entropía puede ser también considerada como una medida de
desorden. Con el concepto de entropía y la formulación de la segunda ley, la
termodinámica introducía la idea de procesos irreversibles, de un «vector de
tiempo», en la ciencia. Según la segunda ley, alguna energía mecánica queda
siempre disipada en forma de calor y no puede ser recuperada por completo. Así
pues, el mundo-máquina estaría inmerso en un proceso de agotamiento que le
llevaría irremisiblemente a un punto final. Esta sórdida imagen de la evolución
cósmica contrastaba completamente con el pensamiento evolucionista compartido
por los biólogos del siglo XIX, quienes observaban que el universo viviente
evolucionaba del desorden al orden, hacia estados de creciente complejidad. Así
pues, al final del siglo XIX, la mecánica newtoniana, la ciencia de las eternas
trayectorias reversibles, había sido reemplazada por dos visiones del cambio
evolutivo diametralmente opuestas: la de un mundo vivo desplegándose hacia un
creciente orden y complejidad y la de un motor en agotamiento, un mundo en
creciente desorden. ¿Quién tenía razón, Darwin o Carnot? Ludwig von Bertalanffy
no podía resolver este dilema, pero dio el primer paso crucial al afirmar que
los organismos vivos son organismos abiertos que no pueden ser descritos por la
termodinámica clásica. Los llamó «abiertos» porque, para seguir vivos,
necesitan alimentarse de un flujo continuo de materia y energía proveniente de
su entorno:
El
organismo no es un sistema estático cerrado al exterior, conteniendo siempre
los mismos elementos; es un sistema abierto en un estado (cuasi)estable... en
el que la materia continuamente entra desde, y sale hacia, el medio exterior.
68
A diferencia de
los sistemas cerrados, que se instalan en un estado de equilibrio térmico, los
sistemas abiertos se mantienen lejos del equilibrio en este estado «estable»
caracterizado por un continuo flujo y cambio. Bertalanffy acuñó el término
alemán fliessgleichgewicht («equilibrio fluyente») para describir este estado
de equilibrio dinámico. Vio claramente que la termodinámica clásica, que trata
de sistemas cerrados en o cerca del estado de equilibrio, resultaba inadecuada
para describir sistemas abiertos en estados estables lejos del equilibrio.
En los sistemas
abiertos, especulaba Bertalanffy, la entropía (o desorden) puede decrecer y la
segunda ley de la termodinámica puede no ser de aplicación. Postulaba que la
ciencia clásica debería ser complementada por alguna nueva termodinámica de
sistemas abiertos (...) La formulación de la nueva termodinámica de sistemas
abiertos debería esperar hasta los años setenta. Éste fue el gran logro de Ilya
Prigogine, quien usó unas nuevas matemáticas para reevaluar la segunda ley,
repensando radicalmente los conceptos científicos tradicionales de orden y
desorden, lo que le permitió resolver sin ambigüedades la contradicción entre
las dos visiones de la evolución del siglo XIX.
Bertalanffy
identificó correctamente las características del estado estable con las del
proceso del metabolismo, lo que le llevó a postular la autorregulación como
otra propiedad clave de los sistemas abiertos. Esta idea fue redefinida por
Prigogine treinta años después en términos de la autorregulación de las
«estructuras disipativas».
La visión de
Ludwig von Bertalanffy sobre una «ciencia general de la totalidad» se basaba en
su observación de que los conceptos y principios sistémicos podían ser de aplicación
en distintos campos de estudio: «El paralelismo de conceptos generales o
incluso de leyes específicas en distintos campos», explicaba, «es consecuencia
del hecho de que éstos están relacionados con "sis-temas" y que
ciertos principios generales son de aplicación a los sistemas con independencia
de su naturaleza.»
4. LA LÓGICA DE
LA MENTE
70
Mientras Ludwig
von Bertalanfíy trabajaba en su teoría general de sistemas, los intentos de
desarrollar máquinas autoconducidas y autorreguladas llevaban a un campo de
investigación enteramente nuevo, llamado a tener un impacto de la mayor
importancia en la expansión de la visión sistémica de la vida. Nutriéndose de
diversas disciplinas, la nueva ciencia representaba un enfoque unificado de los
problemas de comunicación y control, involucrando todo un conjunto de ideas
novedosas que inspiró a Norbert Wiener a inventar para ella un nombre
específico: «cibernética». Esta palabra deriva del término griego kibernetes
(«timonel») y Wiener definió la cibernética como la ciencia del «control y
comunicación en el animal y en la máquina».
La cibernética
(...) Trataban
con un nivel distinto de descripción, que se concentraba en patrones de
comunicación, especialmente en redes y bucles cerrados. Sus investigaciones les
condujeron a los conceptos de retroalimentación y autorregulación y, más
adelante, al de autoorganización.
...
Wiener, en
especial, reconocía que las nuevas nociones de mensaje, control y
retroalimentación se referían a pautas de organización -es decir, entidades
inmateriales- cruciales para una descripción científica completa de la vida
(...) «No somos sino remolinos en un río de incesante corriente», escribía en
1950. «No somos materia perdurable, sino pautas que se perpetúan a sí mismas.»
...
Su intención
desde el principio fue crear una ciencia exacta de la mente.
...
75
Un bucle de
retroalimentación es una disposición circular de elementos conectados
causalmente, en la que una causa inicial se propaga alrededor de los eslabones
sucesivos del bucle, de tal modo que cada elemento tiene un efecto sobre el
siguiente, hasta que el último «retroalimenta» el efecto sobre el primer
eslabón en que se inició el proceso. La consecuencia de esta disposición es que
el primer eslabón
(«input») se ve
afectado por el último («output»), lo que se traduce en la autorregulación de
todo el sistema, al verse modificado el estímulo inicial a lo largo de cada
recorrido por el circuito. Retro-alimentación, en palabras de Wiener, es el
«control de una máquina en base a su comportamiento real, y no al esperado». En
un sentido más amplio, retroalimentación ha venido a significar el retorno de
la información a su punto de origen, a través del desarrollo de un proceso o
actividad.
77
La primera
discusión detallada sobre bucles de retroalimentación apareció en un artículo
suscrito por Norbert Wiener, Julian Bigelow y Arturo Rosenblueth, publicado en
1943 bajo el título de «Comportamiento, propósito y teleología». En él, los
autores no sólo introducían la idea de la causalidad circular como patrón
lógico subyacente en el concepto de ingeniería de retroalimentación, sino que
aplicaban por primera vez para ilustrar el comportamiento de los organismos
vivos. Desde una postura estrictamente conductista, argumentaban que el
comportamiento de toda máquina u organismo comprendiendo la autorregulación
desde la retroalimentación podía denominarse «intencionado», al tratarse de
comportamiento dirigido a un objetivo. Ilustraban su modelo de semejante
comportamiento dirigido a un objetivo (...)
Wiener y sus
colegas reconocían además a la retroalimentación como el mecanismo esencial de
la homeostasis, la autorregulación que permite a los organismos vivos
mantenerse en un estado de equilibrio dinámico (...) el concepto de bucle de
retroalimentación introducido por los cibernéticos condujo a nuevas
percepciones sobre los múltiples procesos autorreguladores característicos de
la vida, gracias a las que hoy entendemos que los bucles de retroalimentación
están omnipresentes en el mundo vivo, constituyendo una característica especial
de los patrones de red no-lineal propios de los sistemas vivos.
...
Los cibernéticos
distinguían dos clases de retroalimentación: la autoequilibrante (o «negativa»)
y la autorreforzadora (o «positiva»). Como ejemplos de esta última podemos
citar los círculos viciosos, en los que el efecto inicial va ampliándose a
medida que circula repetidamente por el bucle.
80
Desde el
principio de la cibernética, Norbert Wiener se dio cuenta de la importancia del
principio de retroalimentación como modelo no sólo de organismos vivos, sino
también de sistemas sociales. Así, escribió en Cibernética:.
Es
sin duda cierto que el sistema social es una organización como el individual,
unida por un sistema de comunicación e imbuida de una dinámica en la que los
procesos circulares de naturaleza retroalimentadora tienen un papel principal.
...
A través de la
historia de las ciencias sociales se han usado numerosas metáforas para
describir procesos autorreguladores en la vida social. Los más conocidos son
quizás la «mano invisible» reguladora del mercado de la teoría económica de
Adam Smith, los «frenos y equilibrios» de la Constitución de los Estados Unidos
de América y la interacción entre tesis y antítesis de la dialéctica de Hegel y
Marx. Todos los fenómenos descritos por estos modelos y metáforas implican
pautas circulares de causalidad que se pueden expresar mediante bucles de
retroalimentación, si bien ninguno de sus autores lo hizo explícitamente.
...
A pesar del
conocimiento extensivo de la sabiduría popular sobre la retroalimentación
autorreforzadora, ésta tuvo muy escaso protagonismo en la primera etapa de la
cibernética (...)
82
Desde el punto de
vista de la historia del pensamiento sistémico, uno de los aspectos más
importantes del estudio exhaustivo de los bucles de retroalimentación realizado
por los cibernéticos, fue el reconocimiento de que describen patrones de
organización. (...) Por primera vez en la historia del pensamiento sistémico,
los cibernéticos distinguieron claramente el patrón de organización de un
sistema de su estructura física, distinción crucial para la teoría
contemporánea de los sistemas vivos.
86
Los científicos
informáticos contribuyeron significativamente al firme establecimiento del
dogma del proceso de información al utilizar palabras tales como
«inteligencia», «memoria» y «lenguaje» para describir a las computadoras, lo
que ha inducido a la mayoría de personas -incluyendo a los mismos científicos-
a pensar que dichos términos se refieren a los equivalentes y bien conocidos
fenómenos humanos. Esto, no obstante, es un grave malentendido que ha ayudado a
perpetuar y aun reforzar la imagen cartesiana de los seres humanos como
máquinas.
...
Recientes
progresos de la ciencia cognitiva han dejado claro que la inteligencia humana
es radicalmente distinta a la inteligencia de las máquinas o inteligencia
«artificial». El sistema nervioso humano no procesa información alguna - en el
sentido de discretos elementos prefabricados existentes en el mundo exterior, listos
para ser atrapados por el sistema cognitivo- sino que interactúa con el entorno
por medio de una constante modulación de su estructura.
Es más, los
neurocientíficos han encontrado seria evidencia de que la inteligencia, la
memoria y las decisiones humanas no son nunca enteramente racionales, sino que
siempre están influenciadas por emociones, como sabemos por propia experiencia.
Nuestro pensamiento está siempre acompañado por sensaciones y procesos
corporales, y aunque a menudo tendamos a intentar suprimirlos, pensamos también
con nuestro cuerpo. Puesto que los ordenadores carecen de tal cuerpo, los
verdaderos problemas humanos siempre permanecerán extraños a su inteligencia.
...
Hay que trazar
una línea divisoria entre la inteligencia humana y la de la máquina. Si tal
línea no existe, los que abogan por la psicoterapia computarizada podrían ser
meramente los heraldos de una era en la que el hombre sería finalmente
reconocido como nada más que un mecanismo de relojería... El mismo hecho de
preguntar «¿Qué sabe un juez (o un psiquiatra) que no le podamos decir a una
computadora?» es una monstruosa obscenidad.
87
Norbert Wiener
predijo estos cambios -que han sido a menudo equiparados a una segunda
revolución industrial- durante los primeros años de la cibernética. Más aún,
percibió claramente el lado oscuro de la nueva tecnología que había ayudado a
crear:
Aquellos
de entre nosotros que hemos contribuido a la nueva ciencia de la cibernética
(...) nos hallamos en una situación moral que no es, por decirlo suavemente,
muy confortable. Hemos contribuido al inicio de una nueva ciencia que...
combina desarrollos técnicos con grandes posibilidades para el bien y para el
mal.
No
debemos olvidar que la máquina automática (...) es el equivalente exacto del trabajo
de esclavos. Toda mano de obra que deba competir con el trabajo de esclavos,
deberá aceptar las condiciones económicas de éste. Está perfectamente claro que
esto producirá una situación de desempleo, en comparación con la cual la
recesión actual e incluso la depresión de los años treinta parecerán bromas
graciosas.
Resulta evidente
en éste y en otros pasajes similares de los escritos de Wiener, que éste
mostraba mucha mayor sabiduría y visión en su valoración del impacto social de
los ordenadores que sus sucesores. Hoy, cuarenta años después, los ordenadores
y muchas otras «tecnologías de la información» desarrolladas en este lapso se
convierten rápidamente en autónomas y totalitarias, redefiniendo nuestros
conceptos básicos y eliminando puntos de vista alternativos. Como Neil Postman,
Jerry Mander y otros críticos de la tecnología han puesto de manifiesto, ello
es típico de las «megatecnologías» que han llegado a dominarlas sociedades
industriales alrededor del mundo. Cada vez más, toda forma de cultura queda
subordinada a la tecnología, y la innovación tecnológica, más que el aumento
del bienestar humano, se ha convertido en sinónimo de progreso.
88
El uso de
ordenadores en la escuela está basado en la ya desfasada visión de los seres
humanos como procesadores de información, que refuerza a su vez constantemente
erróneos conceptos mecanicistas sobre pensamiento, conocimiento y comunicación.
La información es presentada como la base del pensamiento mientras que, en
realidad, la mente humana piensa con ideas, no con información. Como Theodore
Roszak demuestra en detalle en The Cult
of Information (El culto a la información), ésta no crea ideas; las ideas
crean la información. Las ideas son patrones integradores que no derivan de la
información, sino de la experiencia.
98
Para entender el
fenómeno de la autoorganización, debemos comprender primero la importancia del
patrón. La idea de un patrón de organización-una configuración de relaciones
características de un determinado sistema- se convirtió en el centro explícito
del pensamiento sistémico en cibernética y desde entonces ha sido un concepto
crucial. Desde el punto de vista sistémico, la comprensión de la vida empieza
con la comprensión del patrón.
Ya hemos visto
que, a través de la historia de la ciencia y de la filosofía occidentales, ha
existido una tensión entre el estudio de la substancia y el estudio de la
forma. El estudio de la substancia empieza con la pregunta: ¿de qué está
hecho?; por el contrario, el estudio de la forma inquiere: ¿Cuál es su patrón?
Ambos son acercamientos muy distintos que han venido compitiendo a lo largo de
nuestra tradición científica y filosófica.
99
Entiendo que la
llave de una teoría completa de los sistemas vivos radica en la síntesis de
estos planteamientos tan dispares: el estudio de la substancia (o estructura) y
el estudio de la forma (o patrón). En el estudio de la estructura medimos y
pesamos cosas. Los patrones, en cambio, no pueden ser medidos ni pesados; deben
ser cartografiados. Para comprender un patrón debemos cartografiar una
configuración de relaciones. En otras palabras: estructura implica cantidades,
mientras que patrón implica cualidades.
...
La mayoría de
científicos reduccionistas no pueden comprender las críticas al reduccionismo
porque no llegan a entender la importancia del patrón. Afirman que todos los
organismos vivos están hechos en última instancia de los mismos átomos y
moléculas que componen la materia inorgánica y que, por tanto, las leyes de la
biología pueden ser reducidas a las de la física y la química. Si bien es
cierto que todos los organismos vivos están hechos en última instancia de
átomos y moléculas, son «algo más» que átomos y moléculas. Existe algo más en
la vida, algo inmaterial e irreducible: el patrón de organización
...
REDES: LOS
PATRONES DE LA VIDA
Una vez apreciada
la importancia del patrón para la comprensión de la vida, podemos preguntarnos:
¿hay un patrón de organización común que pueda ser identificado en todos los
seres vivos? Veremos que, efectivamente, así es (...) Dondequiera que
encontremos sistemas vivos -organismos, partes de organismos o comunidades de
organismos-, podremos observar que sus componentes están dispuestos en forma de
red. Si vemos vida, vemos redes.
100
La primera y más
obvia propiedad de cualquier red es su no-linealidad, va en todas direcciones.
Por lo tanto, las relaciones en un patrón en red son relaciones no-lineales. En
particular, un estímulo o mensaje puede viajar en un camino cíclico, que puede
convertirse en un bucle de retroalimentación. El concepto de retroalimentación
está íntimamente ligado al de patrón en red.
Puesto que las
redes de comunicación pueden generar bucles de retroalimentación, son capaces
también de adquirir la habilidad de regularse a sí mismas. Por ejemplo, una
comunidad que mantiene una red de comunicaciones activa aprenderá de sus
errores, ya que las consecuencias de un error se extenderán por toda la red,
volviendo al origen a lo largo de bucles de retroalimentación. Así la comunidad
podrá corregir sus errores, regular-se a sí misma y organizarse. En realidad,
la autorregulación ha emergido quizás como el concepto central de la visión
sistémica de la vida y al igual que los conceptos de retroalimentación y
autorregulación, está íntimamente ligado a las redes. El patrón para la vida,
podríamos decir, es un patrón capaz de autoorganizarse. Ésta es una sencilla
definición, pero se basa en los recientes descubrimientos de la mismísima
vanguardia de la ciencia.
101
LA APARICIÓN DEL
CONCEPTO DE AUTOORGANIZACIÓN
El concepto de
autoorganización se originó en los primeros años de la cibernética, cuando los
científicos comenzaron a construir modelos matemáticos para representar la
lógica inherente en las redes neuronales. En 1943, el neurocientífico Warren
Mc-Culloch y el matemático Walter Pitts publicaban un trabajo pionero titulado
«Un cálculo lógico de las ideas inmanentes en la actividad nerviosa», en el que
demostraban que la lógica de todo proceso, de cualquier comportamiento, puede
ser transformada en reglas para la construcción de una red.
En su
publicación, los autores introducían neuronas idealizadas representadas por
elementos conmutadores binarios -es decir, elementos que pueden ser conectados
en «marcha» o «paro»-* y modelaron el sistema nervioso como complejas redes de
estos elementos conmutadores binarios. En una red McCulloch-Pitts, los nodos
«marcha-paro» están acoplados de tal modo que la actividad de cada nodo está
comandada por la actividad previa de otros, según una determinada «regla de
conexión». Por ejemplo, un nodo podrá conectarse en «marcha» en un determinado
momento, sólo si en aquel momento un cierto número de nodos están en posición
de «marcha». McCulloch y Pitts fueron capaces de demostrar que, si bien
semejantes redes binarias constituyen modelos simplificados, no obstante son
buenas aproximaciones a las redes embebidas en el sistema nervioso.
En los años
cincuenta, los científicos empezaron a construir modelos reales de estas redes
binarias, incluyendo algunas con pequeñas bombillas que se encendían y apagaban
en los nodos. Para su gran asombro, descubrieron que, tras algún tiempo de
parpadeos aleatorios, emergían algunos patrones ordenados en la mayoría de
redes. Podían observar ondas de parpadeos fluyendo a través de la red, o bien ciclos
repetidos. Aun cuando el estado inicial de la red fue escogido al azar, al cabo
de un tiempo emergían espontáneamente los patrones ordenados. A esta emergencia
espontánea de orden, se la denominó «autoorganización»
102
La propia
contribución de Heinz von Foerster a la comprensión teórica de la
autoorganización llegó muy pronto y estaba relacionada con el concepto de
orden. Se preguntó: ¿Existe una medida de orden que pueda ser utilizada para
definir el incremento de orden implicado por Ia «organización»? Para resolver
este problema, Foerster empleó el concepto de «redundancia», definido
matemáticamente en la teoría de la información por Claude Shannon y que mide el
orden relativo del sistema en relación con el máximo desorden posible en el
mismo.
Con el tiempo,
este planteamiento se ha visto superado por las nuevas matemáticas de la
complejidad, pero a finales de los años cincuenta, permitió a Foerster
desarrollar un primer modelo cualitativo de autoorganización en los sistemas
vivos.
...
Durante los años
setenta y ochenta, las ideas clave de este modelo inicial fueron redefinadas y
elaboradas por investigadores en varios países, quienes exploraron los
fenómenos de autoorganización en muchos sistemas distintos, desde los muy
pequeños hasta los muy grandes: Ilya Prigogine en Bélgica, Hermann Haken y
Manfred Eigen en Alemania, James Lovelock en Inglaterra, Lynn Margulis en
Estados Unidos, Humberto Maturana y Francisco Varela en Chile.
103
Los últimos
modelos, en cambio, incluyen la creación de nuevas estructuras y modos de
comportamiento en los procesos de desarrollo, aprendizaje y evolución.
...
Una segunda
característica común a estos modelos de auto-organización es que se tratan de
sistemas abiertos operando lejos del equilibrio. Es necesario un flujo
constante de materia y energía a través del sistema para que tenga lugar la
autoorganización. La sorprendente emergencia de nuevas estructuras y nuevos
modos de comportamiento, que es el sello de la autoorganización, se da
únicamente cuando el sistema está alejado del equilibrio.
La tercera
característica de la autoorganización, común a todos los modelos, es la
interconectividad no-lineal de los componentes del sistema. Esta pauta de
no-linealidad se traduce físicamente en bucles de retroalimentación, y es
descrita matemáticamente en términos de ecuaciones no-lineales. Resumiendo
estas tres características de los sistemas autoorganizadores, podemos decir que
autoorganización es la aparición espontánea de nuevas estructuras y nuevos
modos de comporta-miento en sistemas lejos del equilibrio, caracterizada por
bucles de retroalimentación internos y descrita matemáticamente en términos de
ecuaciones no-lineales.
ESTRUCTURAS
DISIPATIVAS
La primera y
quizás más influyente descripción detallada de los sistemas autoorganizadores
fue la teoría de las «estructuras disipativas» de Ilya Prigogine, químico y
físico ruso de nacimiento, premio Nobel y profesor de química física en la
Universidad Libre de Bruselas. Prigogine desarrolló su teoría a partir de
estudios de sistemas físicos y químicos pero, según sus propios recuerdos, se
vio impulsado a ello tras ponderar la naturaleza de la vida:
Estaba
muy interesado en el problema de la vida (...). Siempre pensé que la existencia
de vida nos dice algo muy importante sobre la naturaleza.
Lo que más
intrigaba a Prigogine, era que los organismos vivos fuesen capaces de mantener
sus procesos vitales bajo condiciones de no-equilibrio. Quedó fascinado por
sistemas alejados del equilibrio térmico e inició una exhaustiva investigación
para averiguar exactamente qué condiciones precisas de desequilibrio pueden ser
estables.
El descubrimiento
crucial se produjo para Prigogine a principios de los años sesenta, cuando se
dio cuenta de que los sistemas que están lejos del equilibrio deben ser
descritos por ecuaciones no-lineales. El claro reconocimiento de la relación
entre «lejos del equilibrio» y «no-linealidad», abrió a Prigogine una vía de
investigación que culminaría una década después en su teoría de la
autoorganización.
En orden a
resolver el puzzle de la estabilidad lejos del equilibrio, Prigogine no estudió
los sistemas vivos, sino que se concentró en el fenómeno mucho más sencillo de
la convección térmica conocido como la «inestabilidad de Bénard», considerado
actualmente como un caso clásico de autoorganización. A principios de siglo, el
físico francés Henri Bénard descubrió que el calentamiento de una fina capa de
líquido puede originar estructuras extrañamente ordenadas (...)
106
(...) este
comportamiento coherente emerge espontáneamente en puntos críticos de
inestabilidad lejos del equilibrio.
Durante los años
sesenta, Prigogine desarrolló una nueva termodinámica no-lineal para describir
el fenómeno de la autoorganización en sistemas abiertos lejos del equilibrio. «La
termodinámica clásica», explica, «conduce al concepto de "estructuras en
equilibrio" tales como los cristales. Las células de Bénard son también
estructuras, pero de muy distinta índole. Ésta es la razón por la que hemos
introducido el concepto de "estructuras disipativas", para enfatizar
la íntima relación, al principio paradójica, en dichas situaciones, entre
estructura y orden por un lado y disipación... por el otro. En termodinámica
clásica, la disipación de energía en transferencia de calor, fricción y demás,
se asociaba siempre con pérdida. El concepto de Prigogine de estructuras
disipativas introdujo un cambio radical en esta visión, demostrando que en los
sistemas abiertos, la disipación es una fuente de orden.
108
Mientras
estudiaba intensamente este fenómeno durante los años sesenta, Haken descubrió
varios paralelismos con otros sistemas alejados del equilibrio, lo que le llevó
a especular que la transición de luz normal a luz láser podía ser un ejemplo de
los procesos de autoorganización típicos de los sistemas lejos del equilibrio.
Haken acuñó el
término «sinergética» para indicar la necesidad de un nuevo campo de estudio
sistemático de dichos procesos, en los que las acciones combinadas de múltiples
partes individua-les, como los átomos de un láser, producen un comportamiento
coherente del todo. En una entrevista concedida en 1985, Haken explicaba:
En física, existe
el término «efectos cooperativos», pero se usa principalmente para sistemas en
equilibrio térmico (...). Pensé que debía acuñar un término para la cooperación
[en] sistemas alejados del equilibrio térmico (...). Deseaba enfatizar que
necesitamos una nueva disciplina para tales procesos (...). Así podríamos ver a
la sinergética como la ciencia que trata, quizás no exclusivamente, el fenómeno
de la autoorganización.
109
En un simposium
en honor de Haken en ocasión de su sexagésimo aniversario, su colaborador
Robert Graham rendía así homenaje a su trabajo:
Una
de las grandes contribuciones de Haken ha sido el reconocimiento de los láseres
no sólo como herramientas tecnológicas extremadamente útiles, sino también como
sistemas físicos interesantes por sí mismos, capaces de enseñarnos lecciones
importantes (...). Los láser ocupan un espacio muy interesante entre los mundos
cuántico y clásico y la teoría de Haken nos dice cómo estos mundos pueden ser
conectados (...). El láser puede situarse en la encrucijada entre física
cuántica y clásica, entre los fenómenos en equilibrio y en no-equilibrio, entre
las transiciones de fase y la autoorganización y entre la dinámica ordinaria y
la del caos. Al mismo tiempo, es un sistema que podemos comprender a la vez en
los niveles microscópico-cuántico-mecánico y clásico-macroscópico. Es un firme
terreno para el descubrimiento de conceptos generales de física del
no-equilibrio.
HYPERCICLOS
Mientras que
Prigogine y Haken llegaron al concepto de auto-organización a través del
estudio de sistemas físicos y químicos que atraviesan puntos de inestabilidad y
generan nuevas formas de orden, el bioquímico Manfred Eigen utilizó el mismo
concepto para arrojar luz sobre el rompecabezas del origen de la vida, Según la
teoría darwiniana corriente, los organismos vivos se formarían desde el «caos
molecular» a través de mutaciones aleatorias y selección natural. No obstante,
se ha señalado a menudo que la probabilidad de que aparezcan incluso simples
células de este modo durante la edad conocida de la Tierra es cada vez más
remota.
110
Manfred Eigen,
premio Nobel de Química y director del Instituto Max Planck de Química Física
de Göttingen, propuso a principios de los setenta que el origen de la vida
sobre la Tierra podría ser el resultado de un proceso de organización
progresiva en sistemas químicos alejados del equilibrio, involucrando
«hyperciclos» de bucles de retroalimentación múltiples. Eigen, en efecto,
postulaba una fase prebiológica de evolución, en la que los procesos de
selección ocurrirían en el ámbito molecular «como propiedad material inherente
en sistemas de reacciones especiales», y acuñaba el término «autoorganización
molecular» para describir estos procesos evolutivos prebiológicos.
Los sistemas de
reacciones especiales estudiados por Eigen son conocidos como «ciclos
catalíticos». Un catalizador es una substancia que incrementa el nivel de una reacción
química, sin cambiar en sí mismo durante el proceso.
Las reacciones
catalíticas son procesos cruciales en la química de la vida. Los catalizadores
más comunes y eficientes son los enzimas, componentes celulares esenciales que
promueven procesos metabólicos vitales.
...
Estos ciclos
catalíticos son el centro de los sistemas químicos autoorganizadores tales como
los relojes químicos, estudiados por Prigogine, y tienen también un papel
esencial en las funciones metabólicas de los organismos vivos. Son notablemente
estables y pueden persistir bajo un amplio abanico de condiciones.
Eigen descubrió
que, con el tiempo suficiente y un flujo continuo de energía, los ciclos
catalíticos tienden a entrelazarse para formar bucles cerrados en los que los enzimas
producidos en un ciclo actúan como catalizadores del ciclo subsiguiente. Acuñó
el término «hyperciclos» para tales bucles, en los que cada vínculo es un ciclo
catalítico.
111
Los hyperciclos
resultan ser no sólo notablemente estables, sino capaces de autorreproducirse
exactamente y de corregir errores de reproducción, lo que significa que pueden
conservar y transmitir información compleja. La teoría de Eigen demuestra que
esta autorréplica -bien conocida en los organismos vivos-puede haber ocurrido
en sistemas químicos antes de que apareciera la vida, con anterioridad a la
formación de la estructura genética. Estos hyperciclos químicos serían pues
sistemas autoorganizadores que no pueden ser denominados «vivos», por carecer
de algunas características clave para la vida, pero que no obstante deben ser
vistos como precursores de los sistemas vivos. Según esto, la vida tendría sus
raíces profundas en el reino de la materia muerta.
112
La teoría de los
hyperciclos de Manfred Eigen comparte con la de las estructuras disipativas de
Ilya Prigogine y con la teoría láser de Hermann Haken los mismos conceptos
clave de autoorganización: el estado de alejamiento del equilibrio del sistema,
el desarrollo de procesos de amplificación mediante bucles de retroalimentación
positiva y la aparición de inestabilidades que conducen a la creación de nuevas
formas de organización. Además, Eigen dio el paso revolucionario de adoptar un
planteamiento darwiniano para describir los fenómenos de evolución en el nivel
prebiológico y molecular.
AUTOPOIESIS: LA
ORGANIZACIÓN DE LO VIVO
Los hyperciclos
estudiados por Eigen se autoorganizan, se autorreproducen y evolucionan, pero
aun así dudamos en denominar «vivos» a estos ciclos de reacciones químicas.
¿Qué propiedades, pues, debe poseer un sistema para poder ser considerado
verdaderamente vivo? ¿Podemos establecer una clara distinción entre sistemas
vivos y no vivos? ¿Cuál es la conexión precisa entre autoorganización y vida?
Estas eran las
cuestiones que el neurocientífico chileno Humberto Maturana se planteaba
durante los años sesenta.
114
Según Maturana,
la percepción y de modo más general la cognición, no representan una realidad
externa, sino que más bien la especifican a través de los procesos del sistema
nervioso de organización circular. Desde esta premisa, Maturana dio luego el
paso radical de postular que el proceso de organización circular en sí mismo -
con o sin sistema nervioso- es idéntico al proceso de cognición:
Los
sistemas vivos son sistemas cognitivos y el proceso de vivir es un proceso de
cognición. Esta afirmación es válida para todos los organismos, tengan o no
sistema nervioso.
...
Tras publicar sus
ideas en 1970, Maturana inició una larga colaboración con Francisco Varela, un
neurocientífico más joven de la Universidad de Santiago que había sido alumno
suyo antes de convertirse en su colaborador. Según Maturana, esta colaboración
empezó cuando Varela le desafió en una conversación a hallar una descripción
más formal y completa para el concepto de organización circular. Se pusieron de
inmediato a trabajar en el desarrollo de una descripción verbal completa de la
idea de Maturana antes de Intentar la construcción de un modelo matemático, y
para ello empezaron por darle un nuevo nombre: autopoiesis.
115
Auto, por
supuesto, significa «sí mismo» y se refiere a la autonomía de los sistemas
autoorganizadores. Poiesis, que tiene la misma raíz griega que «poesía»,
significa «creación». Así pues, autopoiesis significa «creación de sí mismo».
...
Siguen luego
refinando su posición con la importante distinción entre «organización» y
«estructura», que ha sido un tema implícito a lo largo de toda la historia del
pensamiento sistémico, no tratado explícitamente hasta el desarrollo de la
cibernética.
Maturana y Varela
dejan la distinción cristalinamente clara. La organización en un sistema vivo,
explican, es un conjunto de relaciones entre sus componentes que caracteriza el
sistema como perteneciente a una clase determinada: bacteria, girasol, gato o
cerebro humano. La descripción de dicha organización es una descripción
abstracta de relaciones y no identifica a los componentes. Los autores asumen
que la autopoiesis es un patrón general de organización común a todos los
sistemas vivos, cualquiera que sea la naturaleza de sus componentes. La
estructura de un sistema está constituida en cambio por las propias relaciones
entre los componentes físicos. En otras palabras, la estructura del sistema es
la manifestación física de su organización. Maturana y Varela enfatizan que la
organización del sistema es independiente de las propiedades de sus
componentes, de modo que una determinada organización puede ser encarnada de
muy distintas maneras por muy distintas clases de componentes.
116
Una vez aclarado
que su objetivo es la organización y no la estructura, los autores proceden a
definir la autopoiesis, la organización común a todos los sistemas vivos. Se
trata de una red de procesos de producción, en la que la función de cada
componente es participar en la producción o transformación de otros componentes
de la red. De este modo toda la red se «hace a sí misma» continuamente. Es
producida por sus componentes y, a su vez, los produce. «En un sistema vivo»,
explican los autores, «el producto de su operación es su propia organización.»
...
Una importante
característica de los sistemas vivos es que su organización autopoiésica
incluye la creación de un perímetro que especifica el territorio de las
operaciones de la red y define el sistema como una unidad. Los autores señalan
que los ciclos catalíticos en particular no constituyen sistemas vivos ya que
sus fronteras están determinadas por factores ajenos al proceso catalítico, por
ejemplo, el recipiente físico en que tienen lugar.
117
GAIA, LA TIERRA
VIVA
Al mismo tiempo,
el químico atmosférico James Lovelock tenía una intuición iluminadora que le
conduciría a formular un modelo que es quizás la más sorprendente y hermosa
expresión de autoorganización: la idea de que el planeta Tierra, como un todo,
es un sistema autoorganizador vivo.
118
Analizando este
problema, Lovelock llegó a la conclusión de que el hecho de que todos los
organismos vivos tomen materia y energía y expulsen desechos, era la
característica de vida más general que podía encontrar. De modo muy similar a
Prigogine, pensó que debía ser posible expresar matemáticamente esta
característica fundamental en términos de entropía, pero después su
razonamiento progresó en otra dirección.
119
Estas
especulaciones se vieron confirmadas cuando Lovelock y su colega Dian Hitchcock
iniciaron un análisis sistemático de la atmósfera marciana mediante
observaciones realizadas desde la Tierra, comparándolo con un análisis similar
de la atmósfera terrestre. Descubrieron que las composiciones químicas de ambas
atmósferas son sorprendentemente distintas. Mientras que hay muy poco oxígeno,
mucho dióxido de carbono (C0 2) y nada de metano en la atmósfera marciana, la
de la Tierra contiene cantidades masivas de oxígeno, casi nada de carbono y
mucho metano.
Lovelock se dio
cuenta de que la razón del particular perfil atmosférico de Marte es que, en un
planeta sin vida, todas las reacciones químicas posibles entre los gases de la
atmósfera habían sido completadas mucho tiempo atrás. Hoy no son posibles
nuevas reacciones químicas en Marte ya que existe un completo equilibrio
químico en su atmósfera.
...
En otras
palabras, Lovelock reconoció la atmósfera terrestre como un sistema abierto
lejos del estado de equilibrio, caracterizado por un flujo constante de materia
y energía. Su análisis químico identificaba el sello mismo de la vida.
...
El proceso de
autorregulación es la clave de la idea de Lovelock. Sabía por los astrofísicos
que el calor del Sol se ha incrementado en un 25 % desde el inicio de la vida
sobre la Tierra y que, a pesar de dicho aumento, la temperatura en la
superficie de la Tierra se ha mantenido constante, a un nivel confortable para
la vida, durante estos cuatro mil millones de años. ¿Y si la Tierra fuese capaz
de regular su temperatura - se preguntó- así como otras condiciones planetarias
(la composición de su atmósfera, la salinidad de sus océanos, etc.), al igual
que los organismos vivos son capaces de autorregularse y mantener constante su
temperatura corporal y otras variables vitales? Lovelock se dio cuenta de que
su hipótesis equivalía a una ruptura radical con la ciencia convencional:
Considerad
la teoría Gaia como una alternativa a la creencia convencional que ve la Tierra
como un planeta muerto, hecho de rocas inanimadas, océanos y atmósfera,
meramente habitado por vida. Consideradlo como un sistema real incluyendo toda
su vida y todo su entorno, íntimamente acoplados para formar una entidad
autorreguladora.
120
La capacidad
primordial de estos bucles de retroalimentación consiste en vincular sistemas
vivos con sistemas no vivos. No podemos ya pensar en rocas, animales y plantas
separadamente. La teoría Gaia demuestra que existe una íntima relación entre
las partes vivas del planeta (plantas, microorganismos y animales) y las no
vivas (rocas, océanos y atmósfera).
123
La teoría Gaia
contempla la vida de un modo sistémico, uniendo geología, microbiología,
química atmosférica y otras disciplinas, cuyos especialistas no están
acostumbrados a comunicarse entre sí. Lovelock y Margulis desafiaron los
conceptos establecidos de que éstas son disciplinas separadas, que las fuerzas
de la geología marcan las condiciones para la vida sobre la Tierra y que
animales y plantas son meros pasajeros que hallaron, por pura casualidad, las
condiciones adecuadas para su evolución. Según la teoría Gaia, es la vida la
que crea las condiciones aptas para su propia existencia. En palabras de Lynn
Margulis:
124
Dicho
simplemente, la hipótesis [Gaia] dice que la superficie de la Tierra, que
siempre hemos considerado como el entorno de la vida, es en realidad parte de
ésta. El manto de aire - la troposfera- debe ser considerado como un sistema
circulatorio, producido y mantenido por la vida... Cuando los científicos nos
dicen que la vida se adapta a un entorno esencialmente pasivo de química,
física y rocas, están perpetuando una visión seriamente distorsionada. En
realidad, la vida hace, conforma y cambia el entorno al que se adapta. Este
entorno a su vez, retroalimenta a la vida que cambia, actúa y crece en él. Hay
interacciones cíclicas constantes.
...
Efectivamente, la
imagen de Gaia como un ser simiente fue el principal argumento implícito en el
rechazo de la teoría Gaia tras su publicación. Los científicos lo expresaban
proclamando que la hipótesis no podía ser científica ya que era ideológica, es
decir, que implicaba la idea de los procesos naturales conformados por un
propósito... «Ni Lynn Margulis ni yo hemos propuesto nunca que la
autorregulación planetaria esté dotada de un propósito», protesta Lovelock. «No
obstante, nos encontramos con la persistente, casi dogmática crítica de que
nuestra hipótesis es teleológica.»
...
La teleología
-del griego telos, «propósito»- afirma que el agente causal postulado por los
vitalistas es determinista, que hay designio y propósito en la naturaleza.
129
LAS MATEMÁTICAS
DE LA COMPLEJIDAD
(...) El
descubrimiento de estas nuevas «matemáticas de la complejidad» está siendo cada
vez más reconocido como uno de los acontecimientos más importantes de la
ciencia del siglo XX.
...
A lo largo de las
tres últimas décadas, ha aparecido un nuevo conjunto de conceptos y técnicas
para tratar con esta enorme complejidad, conjunto que ha empezado a formar un
marco matemático coherente. No existe aún un nombre definitivo para estas
matemáticas. Se conocen popularmente como «matemáticas de la complejidad» y
técnicamente como «teoría de los sistemas dinámicos», «dinámica sistemática»,
«dinámica compleja» o «dinámica no-lineal». El término «teoría de los sistemas
dinámicos» es quizás el más usado.
130
Las nuevas
matemáticas, como veremos en detalle, son unas matemáticas de relaciones y
patrones. Son cualitativas más que cuantitativas y, por lo tanto, encarnan el
cambio de énfasis característico del pensamiento sistémico: de objetos a
relaciones, de cantidad a cualidad, de substancia a patrón.
LA CIENCIA
CLÁSICA
...
Galileo había
heredado esta visión de los filósofos de la antigua Grecia, quienes tendían a
geometrizar todos los problemas matemáticos y a buscar sus respuestas en
términos de figuras geométricas. Se dice que la Academia de Platón de Atenas,
la principal escuela griega de ciencia y filosofía durante nueve siglos, tenía
la siguiente inscripción sobre su entrada: «No entre el que no esté
familiarizado con la geometría.»
137
En la práctica,
por supuesto, las limitaciones de la aplicación de las ecuaciones newtonianas
del movimiento como modelo para la naturaleza pronto se hicieron evidentes.
Como señala el matemático británico Ian Stewart, «plantear las ecuaciones es
una cosa, resolverlas otra muy distinta». Las soluciones exactas se limitaban a
unos pocos, simples y regulares fenómenos, mientras que la complejidad de
vastas áreas de la naturaleza parecía eludir lodo modelaje mecanicista. El
movimiento relativo de dos cuerpos sometidos a la fuerza de la gravedad, por
ejemplo, podía calcularse exactamente, el de tres cuerpos era ya demasiado
complicado para la obtención de un resultado exacto, mientras que si se trataba
de gases con millones de partículas, el problema parecía irresoluble.
138
En el siglo XIX,
el gran físico James Clerk Maxwell encontró la respuesta. Si bien el
comportamiento exacto de las moléculas de un gas no podía ser determinado, su
comportamiento medio podía ser la causa de las regularidades observadas.
Maxwell propuso el uso de métodos estadísticos para la formulación de las leyes
de los gases:
La
menor porción de materia que podemos someter a experimentación consta de
millones de moléculas, ninguna de las cuales será jamás individualmente
perceptible para nosotros. Así pues, no podemos determinar el movimiento real
de ninguna de dichas moléculas, por tanto, debemos abandonar el método
histórico estricto y adoptar el método estadístico para tratar con grandes
grupos de moléculas.
El método de
Maxwell resultó efectivamente muy útil. Permitió inmediatamente a los físicos
explicar las propiedades básicas de un gas en términos del comportamiento medio
de sus moléculas. Por ejemplo, quedó claro que la presión de un gas es la
fuerza originada por la media del empuje de sus moléculas, mientras que la
temperatura resultó ser proporcional a su energía media de movimiento. La
estadística y su base teórica, la ley de probabilidades, habían sido
desarrolladas desde el siglo XVII y podían ser fácilmente aplicadas a la teoría
de los gases. La combinación de métodos estadísticos con la mecánica newtoniana
dio lugar a una nueva rama de la ciencia, adecuadamente denominada «mecánica
estadística», que se convirtió en la base teórica de la termodinámica, la
teoría del calor.
139
NO-LINEALIDAD
El cambio
decisivo a lo largo de las tres últimas décadas ha sido el reconocimiento de
que la naturaleza, como dice Steward, es «inexorablemente no-lineal». Los
fenómenos no-lineales dominan mucho más el mundo inanimado de lo que creíamos y
constituyen un aspecto esencial de los patrones en red de los sistemas vivos.
La teoría de sistemas dinámicos es la primera matemática que capacita a los
científicos para tratar la plena complejidad de estos fenómenos no-lineales.
140
RETROALIMENTACIÓN
E INTERACIONES
La tercera
propiedad importante de los sistemas no-lineales es la consecuencia de la
frecuente ocurrencia de procesos de retroalimentación autorreforzadora. En los
sistemas lineales, pequeños cambios producen pequeños efectos, mientras que los
grandes cambios son resultado de grandes cambios o bien de la suma de muchos
pequeños cambios. Por el contrario, en los sistemas no-lineales los pequeños
cambios pueden tener efectos espectaculares, ya que pueden ser repetidamente
amplificados por la retroalimentación autorreforzadora. Matemáticamente, un
bucle de retroalimentación corresponde a una determinada clase de proceso
no-lineal conocido como iteración (del latín iterare, «repetir», «reiterar»),
en el que una función opera reiteradamente sobre sí misma.
142
POINCARÉ Y LAS
HUELLAS DEL CAOS
143
No obstante, las
matemáticas visuales de Poincaré, no son la geometría de Euclides. Es una
geometría de una nueva especie, unas matemáticas de patrones y relaciones
conocidas como topología. La topología es una geometría en la que todas las
longitudes, ángulos y áreas pueden ser distorsionados a voluntad. Así, un
triángulo puede ser transformado en continuidad en un rectángulo, éste en un
cuadrado y éste en un círculo. De igual modo, un cubo puede convertirse en un cilindro,
éste en un cono y éste en una esfera. Debido a estas transformaciones
continuas, la topología es conocida popularmente como la «geometría elástica».
Todas las figuras que se pueden convertir en otras mediante doblado, estirado y
retorcido continuos, reciben la calificación de «topológicamente equivalentes».
Sin embargo, no
todo es modificable en estas transformaciones topológicas. De hecho, la
topología trata precisamente de estas propiedades de las figuras geométricas
que no cambian cuando la figura es transformada. Las intersecciones de líneas,
por ejemplo, siguen siendo intersecciones y el agujero de un donut no puede ser
transformado. Así, un donut puede ser transformado topológicamente en una taza
de café (el agujero convirtiéndose en el mango), pero nunca en un pastelito. La
topología es realmente las matemáticas de las relaciones, de los patrones
inmutables o «invariantes».
Poincaré usaba
los conceptos topológicos para analizar las características cualitativas de
problemas dinámicos complejos y así sentaba las bases para las matemáticas de
la complejidad que emergerían un siglo después. Entre los problemas que
Poincaré analizó de este modo estaba el célebre problema de los tres cuerpos en
mecánica celeste -el movimiento relativo de tres cuerpos sometidos a sus
respectivas atracciones gravitatorias-, que nadie había sido capaz de resolver.
Aplicando su método topológico a una versión ligeramente simplificada del
problema de los tres cuerpos, Poincaré fue capaz de determinar el aspecto
general de sus trayectorias y quedó asombrado por su complejidad:
Cuando
uno trata de describir la figura formada por estas tres curvas y sus infinitas
intersecciones... [uno descubre que] estas intersecciones forman una especie de
red, trama o malla infinitamente espesa; ninguna de las curvas puede cruzarse a
sí misma, pero se repliega de un modo muy complejo para pasar por los nudos de
la red un número infinito de veces. Uno queda sorprendido ante la complejidad
de esta figura que no puedo ni siquiera intentar dibujar.
Lo que Poincaré
visualizaba en su mente se conoce ahora como un «atractor extraño». En palabras
de lan Stewart, «Poincaré vislumbraba las huellas del caos».
(...) Al
demostrar que simples ecuaciones deterministas de movimiento pueden producir una
increíble complejidad que supera todo intento de predicción, Poincaré desafiaba
las mismas bases de la mecánica newtoniana.
144
TRAYECTORIAS EN
ESPACIOS ABSTRACTOS
145
Como la mayoría
de lectores recordará de su etapa escolar, una ecuación se resuelve mediante su
manipulación hasta conseguir la solución en forma de una fórmula. A esto se le
llama resolver la ecuación «analíticamente». El resultado es siempre una
fórmula. La mayoría de ecuaciones no-lineales que describen procesos naturales
son demasiado difíciles para ser resueltas analíticamente, pero pueden ser
solucionadas de otro modo, «numéricamente». Este sistema implica prueba y
error. Hay que ir probando distintas combinaciones de números para las
variables, hasta dar con las que encajan en la ecuación.
...
Todo esto cambió
con la llegada a escena de los nuevos y poderosos ordenadores. Disponemos ahora
de equipos y programas informáticos para la solución numérica de ecuaciones con
gran rapidez y exactitud. Con los nuevos métodos, las ecuaciones no-lineales
pueden ser resueltas a cualquier nivel de aproximación. No obstante, las
soluciones son de una clase muy distinta, el resultado no es ya una fórmula,
sino una larga lista de los valores para las variables que satisfacen la
ecuación. El ordenador puede ser programado para trazar la solución en forma de
curva o conjunto de curvas en un gráfico. Esta técnica ha permitido a los
científicos resolver las complejas ecuaciones no-lineales asociadas con los
fenómenos caóticos y así descubrir orden tras el aparente caos. Para desvelar
estos patrones ordenados, las variables de un sistema complejo se presentan en
un espacio matemático abstracto llamado «espacio fase»." Ésta es una
técnica bien conocida desarrollada en termodinámica a principios de siglo. Cada
variable del sistema se asocia con una distinta coordenada de este espacio
abstracto...
148
ATRACTORES
EXTRAÑOS
Volvamos a
nuestro péndulo y démonos cuenta de que se trataba de un péndulo idealizado,
sin fricción, balanceándose en movimiento perpetuo. Éste es un ejemplo típico
de la física clásica, donde la fricción es generalmente olvidada. Un péndulo
real experimentará siempre alguna fricción que lo irá frenando hasta que, en
algún momento, se detendrá. En el espacio fase bidimensional, este movimiento
queda representado por una curva abierta que se cierra en espiral hacia el
centro, como puede apreciarse en la figura 6-9. Esta trayectoria recibe el
nombre de «atractor» puesto que, metafóricamente hablando, los matemáticos
dicen que el punto fijo en el centro del sistema «atrae» la trayectoria. La
metáfora se ha extendido incluso a los bucles cerrados, como el que representa
al péndulo libre de fricción. Las trayectorias de bucle cerrado reciben el
nombre de «atractores periódicos», mientras que las trayectorias en espiral
hacia adentro se denominan «atractores puntuales». En los últimos veinte años,
la técnica del espacio fase ha sido utilizada para explorar una gran variedad
de sistemas complejos. Caso tras caso, los científicos y matemáticos crearon
ecuaciones no-lineales, las resolvieron numéricamente e hicieron que los
ordenadores trazaran las soluciones en espacio fase.
Para su gran
sorpresa, descubrieron que existe un número muy reducido de diferentes
atractores. Sus formas pueden ser clasificadas topológicamente y las
propiedades dinámicas generales de un sistema pueden deducirse de la forma de
su correspondiente atractor. Existen tres modelos básicos de atractor:
atractores puntuales, correspondientes a sistemas dirigidos hacia un equilibrio
estable; atractores periódicos, correspondientes a oscilaciones periódicas, y
los llamados atractores extraños, correspondientes a sistemas caóticos. Un
ejemplo típico de un sistema con atractor extraño es el del «péndulo caótico»,
estudiado por primera vez por el matemático japonés Yoshisuke Ueda a finales de
los años setenta. Se trata de un circuito electrónico no-lineal dotado de una
unidad de disco externa, relativamente sencilla, pero que produce un
comportamiento extremadamente complejo. Cada balanceo de este oscilador caótico
es único. El sistema nunca se repite, con lo que cada ciclo cubre una nueva
región de espacio fase. No obstante, y a pesar del aparentemente errático
movimiento, los puntos en espacio fase no se distribuyen aleatoriamente, sino que
conforman un patrón complejo y altamente organizado, un atractor extraño
actualmente denominado Ueda.
150
Un hecho
sorprendente de los atractores extraños es que tienden a tener una
dimensionalidad muy baja, incluso en un espacio fase altamente dimensional. Por
ejemplo, un sistema puede tener cincuenta variables, pero su movimiento puede
quedar restringido a un atractor extraño de tres dimensiones: una superficie
plegada en este espacio de cincuenta dimensiones. Ello significa, por supuesto,
un elevado nivel de orden.
Vemos pues que el
comportamiento caótico, en el nuevo sentido científico del término, es muy
distinto del movimiento aleatorio o errático. Con la ayuda de los atractores
extraños, podemos distinguir entre la mera aleatoriedad o «ruido» y el caos. El
comportamiento caótico es determinista y pautado y los atractores extraños nos
ayudan a transformar los datos aparentemente aleatorios en claras formas
visibles.
EL «EFECTO
MARIPOSA»
Como hemos visto
en el caso de la «transformación del panadero», los sistemas caóticos se
caracterizan por una extrema sensibilidad a las condiciones iniciales. Cambios
minúsculos en el estado inicial del sistema conducirán con el tiempo a
consecuencias en gran escala. En la teoría del caos esto se conoce con el
nombre de «efecto mariposa» por la afirmación, medio en broma, de que una
mariposa aleteando hoy en Pekín puede originar una tormenta en Nueva York el
mes que viene. El efecto mariposa fue descubierto a principios de los años
sesenta por el meteorólogo Edward Lorenz, quien diseñó un sencillo modelo de
condiciones meteorológicas consistente en tres ecuaciones no-lineales
vinculadas. Descubrió que las soluciones de sus ecuaciones eran extremadamente
sensibles a las condiciones iniciales. Desde prácticamente el mismo punto de
origen, dos trayectorias se desarrollaban de modo completamente distinto,
haciendo imposible toda predicción a largo plazo.
152
DE CANTIDAD A
CUALIDAD
La imposibilidad
de predecir por qué punto del espacio fase pasará la trayectoria del atractor
de Lorenz. en un momento determinado, incluso aunque el sistema esté gobernado
por ecuaciones deterministas, es una característica común a todos los sistemas
caóticos. Ello no significa, sin embargo, que la teoría del caos no sea capaz
de ofrecer predicciones. Podemos establecer predicciones muy ajustadas, pero
estarán en relación con las características cualitativas del comportamiento del
sistema, más que con sus valores precisos en un momento determinado. Las nuevas
matemáticas representan, pues, el cambio de cantidad a cualidad que caracteriza
al pensamiento sistémico en general. Mientras que las matemáticas
convencionales se ocupan de cantidades y fórmulas, la teoría de sistemas
dinámicos lo hace de cualidad y patrón.
...
En realidad, el
análisis de sistemas no-lineales en términos de las características topológicas
de sus atractores, se conoce como «análisis cualitativo». Un sistema no-lineal
puede tener varios atractores que podrán ser de distinto tipo: «caóticos» o
«extraños» y no caóticos. Todas las trayectorias iniciadas dentro de una cierta
región de espacio fase, desembocarán antes o después en un mismo atractor.
Dicha región de espacio fase recibe el nombre de «cuenca de atracción» de este
mismo atractor. Así, el espacio fase de un sistema no-lineal está
compartimentado en varias cuencas de atracción, cada una de ellas con su propio
atractor.
153
Smale utilizó su
técnica no sólo para analizar sistemas descritos por un determinado conjunto de
ecuaciones no-lineales, sino también para estudiar cómo estos sistemas se
comportan bajo pequeñas alteraciones de sus ecuaciones. A medida que los
parámetros de éstas cambian lentamente, el retrato fase -por ejemplo, las
formas de sus atractores y cuencas de atracción- generalmente sufrirá las correspondientes
suaves alteraciones, sin experimentar ningún cambio en sus características
básicas. Smale utilizó el término «estructuralmente estables» para definir
estos sistemas en los que pequeños cambios en las ecuaciones dejan intacto el
carácter básico del retrato fase.
En muchos
sistemas no-lineales, sin embargo, pequeños cambios de ciertos parámetros
pueden producir espectaculares cambios en las características básicas de su
retrato fase. Los atractores pueden desaparecer o intercambiarse y nuevos
atractores pueden aparecer súbitamente. Tales sistemas se definen como
estructuralmente inestables y los puntos críticos de inestabilidad se denominan
«puntos de bifurcación», ya que son puntos en la evolución del sistema en que
aparece repentinamente un desvío por el que el sistema se encamina en una nueva
dirección. Matemáticamente, los puntos de bifurcación marcan cambios súbitos en
el retrato fase del sistema.
Físicamente
corresponden a puntos de inestabilidad en los que el sistema cambia abruptamente
y aparecen de repente nuevas formas de orden. Como demostró Prigogine, tales
inestabilidades sólo se pueden dar en sistemas abiertos operando lejos del
equilibrio.
Así como hay un
número reducido de diferentes tipos de atractores, hay también pocos tipos
distintos de ocasiones de bifurcación, y al igual que los atractores, las
bifurcaciones pueden ser clasificadas topológicamente. Uno de los primeros en
hacerlo fue el francés René Thom en los años setenta, quien usó el término
«catástrofes» en lugar de «bifurcaciones» e identificó siete catástrofes
elementales. Los matemáticos de hoy en día conocen aproximadamente el triple de
tipos de bifurcación. Ralph Abraham, profesor de matemáticas de la Universidad
de California en Santa Cruz, y el grafista Christofer Shaw han creado una serie
de textos matemáticos visuales sin ecuaciones ni fórmulas, a los que consideran
el principio de una enciclopedia de bifurcaciones.
154
GEOMETRÍA FRACTAL
Mientras los
primeros atractores extraños eran explorados, durante los años sesenta y
setenta nacía, independientemente de la teoría del caos, una nueva geometría
llamada «geometría fractal», que iba a proveer de un poderoso lenguaje
matemático idóneo para describir las minuciosas estructuras de los atractores
caóticos. El creador de este nuevo lenguaje fue el matemático francés Benoit
Mandelbrot. A finales de los años cincuenta, Mandelbrot empezó a estudiar la
geometría de una gran variedad de fenómenos naturales irregulares y, durante
los sesenta, se dio cuenta de que todas aquellas formas geométricas compartían
algunas características comunes muy sorprendentes. Durante los siguientes diez
años, Mandelbrot inventó un nuevo tipo de matemáticas para describir y analizar
estas características. Acuñó el término «fractal» para describir su invento y
publicó sus resultados en un espectacular libro, Los objetos fractales, que
tuvo una tremenda influencia en la nueva generación de matemáticos que estaba
desarrollando la teoría del caos y otras ramas de la teoría de sistemas
dinámicos.
...
La
mayor parte de la naturaleza es muy, muy complicada. ¿Como describir una nube?
No es una esfera... es como una pelota pero muy irregular. ¿Y una montaña? No
es un cono... Si quieres hablar de nubes, montañas, ríos o relámpagos, el
lenguaje geométrico de la escuela resulta inadecuado.
Así que
Mandelbrot creó la geometría fractal - «un lenguaje para hablar de nubes»- para
describir y analizar la complejidad del mundo natural que nos rodea. La
propiedad más sorprendente de estas formas «fractales» es que sus patrones
característicos se encuentran repetidamente en escalas descendentes, de modo
que sus partes, en cualquier escala, son semejantes en forma al conjunto.
Mandelbrot ilustra esta característica de «autosemejanza» cortando un trozo de
coliflor y señalando que, en sí mismo, el trozo parece una pequeña coliflor.
Repite la operación dividiendo el trozo y tomando una parte que sigue
pareciendo una diminuta coliflor. Así, cada parte se parece al vegetal
completo, la forma del todo es semejante a sí misma a todos los niveles de
escala.
155
Hay múltiples
ejemplos de autosemejanza en la naturaleza. Rocas en montañas que se asemejan a
pequeñas montañas, ramas de relámpago o bordes de nube que repiten el mismo
patrón una y otra vez (...)
Cuando Mandelbrot
publicó su libro pionero a mitad de los años setenta, no se había dado cuenta
de las conexiones entre geometría fractal y teoría del caos, pero ni él ni sus
colegas matemáticos necesitaron mucho tiempo para descubrir que los atractores
extraños son ejemplos exquisitos de fractales. Si se amplían fragmentos de su
estructura, revelan una subestructura multinivel en la que los mismos patrones
se repiten una y otra vez, hasta tal punto que se define comúnmente a los
atractores extraños como trayectorias en espacio fase que exhiben geometría
fractal.
Otro importante
vínculo entre la teoría del caos y la geometría fractal es el cambio de
cantidad a cualidad. Como hemos visto, resulta imposible predecir los valores
de las variables de un sistema caótico en un momento determinado, pero podemos
predecir las características cualitativas del comportamiento del sistema. De
igual forma, es imposible calcular la longitud o área exactas de una figura
fractal, pero podemos definir de un modo cualitativo su grado de «mellado».
Mandelbrot
subrayó esta espectacular característica de las figuras fractales planteando
una provocadora cuestión: ¿Qué longitud exacta tiene la línea costera
británica? Demostró que, puesto que la longitud medida puede extenderse
indefinidamente descendiendo progresivamente de escala, no existe una respuesta
definitiva a la cuestión planteada. No obstante, sí es posible definir un
número entre 1 y 2 que caracterice el grado de mellado+ de dicha costa. Para la
línea costera británica, dicho número es aproximadamente 1,58, mientras que
para la noruega, mucho más accidentada, es aproximadamente 1,70.
156
Como se puede
demostrar que dicho número tiene algunas propiedades de dimensión, Mandelbrot
lo llamó una dimensión fractal. Podemos comprender esta idea intuitivamente si
nos damos cuenta de que una línea quebrada sobre un plano llena más espacio que
una línea recta, con dimensión 1, pero menos que el plano, con dimensión 2.
Cuanto más quebrada la línea, más se acercará su dimensión fractal a 2. De
igual manera, una hoja de papel arrugada ocupa más espacio que un plano, pero
menos que una esfera. Así, cuanto más arrugada esté la hoja, más cerca de 3
estará su dimensión fractal.
157
Con estas nuevas
técnicas matemáticas, los científicos han podido construir modelos muy precisos
de una gran variedad de formas naturales irregulares, descubriendo al hacerlo
la aparición generalizada de fractales. De todos estos modelos, es quizás el
patrón fractal de las nubes, que inspiraran a Mandelbrot la búsqueda de un
nuevo lenguaje matemático, el más asombroso. Su autosemejanza alcanza hasta siete
órdenes de magnitud, lo que significa que el borde de una nube, ampliado diez
millones de veces, sigue mostrando el mismo aspecto conocido.
158
NÚMEROS COMPLEJOS
La culminación de
la geometría fractal ha sido el descubrimiento por Mandelbrot de una estructura
matemática que, aun siendo de una enorme complejidad, puede ser generada con un
procedimiento iterativo muy simple. Para comprender esta asombrosa figura
fractal, conocida como la serie de Mandelbrot, debemos familiarizarnos primero
con uno de los más importantes conceptos matemáticos: los números complejos.
167
No obstante, esta
estructura cuya riqueza desafía a la imaginación humana, está generada por unas
pocas reglas muy simples. Así, la geometría fractal, al igual que la teoría del
caos, ha obligado a científicos y matemáticos a revisar el concepto mismo de
complejidad.
...
169
Cuarta parte
La naturaleza de
la vida
171
7 . UNA NUEVA
SÍNTESIS
Volvamos por un
momento al tema central del presente libro: ¿qué es vida? En mi tesis, he
argumentado que está emergiendo en la actualidad una teoría de sistemas vivos
que es consecuente con el marco filosófico de la ecología profunda, que
comprende un lenguaje matemático adecuado y que implica una comprensión no
mecanicista y poscartesiana de la vida.
PATRÓN Y
ESTRUCTURA
La aparición y
elaboración del concepto de «patrón de organización» ha sido un elemento
crucial en el desarrollo de esta nueva forma de pensar. Desde Pitágoras hasta
Aristóteles, Goethe y los biólogos organicistas, hay una continua tradición
intelectual que se debate por la comprensión de la forma viviente. Alexander
Bogdanov fue el primero en intentar la integración de los conceptos de
organización, patrón y complejidad en una teoría de sistemas coherente. Los
cibernéticos se centraron en los patrones de comunicación y control -en
particular en las pautas de circularidad causal subyacentes en el concepto de
retroalimentación-, y al hacerlo, fueron los primeros en distinguir claramente
el patrón de organización de un sistema, de su estructura física. Las «piezas
del rompecabezas» que faltaban -el concepto de autoorganización y las nuevas
matemáticas de la complejidad-han sido identificadas y analizadas a lo largo de
los últimos veinte años. Una vez más, la noción de patrón ha sido fundamental
para ambos acontecimientos. El concepto de autoorganización se originó en el
reconocimiento de la red como patrón general de vida, refinado posteriormente
por Maturana y Várela en su concepto de autopoiesis. Las nuevas matemáticas de
la complejidad son esencialmente unas matemáticas de patrones visuales
-atractores extraños, retratos fase, fractales, etc.-, que se analizan dentro
del marco de la topología planteado por Poincaré.
172
La comprensión
del patrón será pues de crucial importancia para la comprensión científica de
la vida. No obstante, para el completo entendimiento de un sistema vivo, la
comprensión de su patrón de organización -si bien críticamente importante- no
resulta suficiente. Necesitamos también comprender la estructura del sistema.
De hecho, hemos visto cómo el estudio de la estructura ha sido el principal
planteamiento de la ciencia occidental, eclipsando una y otra vez el estudio
del patrón.
He llegado a la
convicción de que la clave para una teoría completa de los sistemas vivos
estriba precisamente en la síntesis de estos dos planteamientos: el estudio del
patrón (forma, orden, cualidad) y el de la estructura (substancia, materia,
cantidad). Seguiré a Humberto Maturana y Francisco Varela en sus definiciones
para ambos criterios clave de un sistema vivo: su patrón de organización y su
estructura. El patrón de organización de cualquier sistema, vivo o no, es la
configuración de las relaciones entre sus componentes, que determina las
características esenciales del sistema. Dicho de otro modo, ciertas relaciones
deben estar presentes para que algo sea reconocible como una silla, una
bicicleta o un árbol. Esta configuración de relaciones que le otorga al sistema
sus características esenciales es lo que entendemos como su patrón de
organización.
La estructura de
un sistema es la corporeización física de su patrón de organización. Mientras
que la descripción del patrón de organización implica una cartografía abstracta
de relaciones, la descripción de la estructura implica la de sus componentes
físicos presentes: sus formas, sus composiciones químicas, etc.
Para ilustrar la
diferencia entre patrón y estructura, tomemos un sistema no vivo bien conocido:
una bicicleta. Para que algo pueda ser llamado una bicicleta, deberá existir un
número de relaciones funcionales entre sus componentes conocidos como cuadro,
pedales, manillar, ruedas, cadena, ruedas dentadas, etc. La configuración
completa de estas relaciones funcionales constituye el patrón de organización
de la bicicleta.
La estructura de
la bicicleta es la manifestación física de su patrón de organización en
términos de componentes de formas específicas, hechos de materiales
específicos. El mismo patrón «bicicleta» puede manifestarse a través de muchas
estructuras distintas.
173
LOS TRES
CRITERIOS CLAVES
En una máquina
tal como una bicicleta, las partes han sido diseñadas, fabricadas y ensambladas
para formar una estructura con componentes fijos. En un sistema vivo, por el
contrario, los componentes cambian continuamente. Hay un flujo incesante de
materia y energía a través del organismo. Cada célula sintetiza y disuelve
continuamente estructuras y elimina productos de desecho. Tejidos y organismos
reemplazan sus células en ciclos continuos. Hay crecimiento, desarrollo y
evolución. Así, desde el mismo inicio de la biología, la comprensión de la
estructura viva ha sido inseparable del entendimiento de los procesos
metabólicos y relativos al desarrollo.
Esta sorprendente
propiedad de los sistemas vivos sugiere el proceso como tercer criterio para
una completa descripción de la naturaleza de la vida. El proceso vital es la
actividad que se ocupa de la continua corporeización del patrón de organización
del sistema. Así pues, el criterio de proceso constituye el vínculo entre
patrón y estructura. En el caso de nuestra bicicleta, el patrón de organización
está representado por los dibujos de proyecto necesarios para su construcción,
la estructura por la bicicleta específica física y el vínculo entre patrón y
estructura por el proceso mental de su diseñador. En el caso de un organismo
vivo, en cambio, el patrón de organización siempre está corporeizado por la
estructura del sistema, mientras que el vínculo entre patrón y estructura
reside en el proceso de continua corporeización.
174
En pocas
palabras, propongo el entendimiento de: la autopoiesis -tal como es definida
por Maturana y Varela - como el patrón de vida (es decir, el patrón de
organización de los sistemas vivos); la estructura disipativa -tal como es
definida por Prigogine - como la estructura de los sistemas vivos; y la
cognición -tal como es definida inicialmente por Gregory Bateson y más
plenamente por Maturana y Varela - como el proceso vital.
El patrón de
organización determina las características esen-ciales de un sistema. En
particular, determina si el sistema es vivo o no vivo. La autopoiesis -el
patrón de organización de los sistemas vivos- es pues la característica
definitoria de vida en la nueva teoría. Para determinar si un sistema - u n
cristal, un virus, una célula o el planeta Tierra - está o no vivo, todo lo que
debemos averiguar es si su patrón de organización corresponde al de una red
autopoiésica. Si es así, estaremos tratando con un sistema vivo; en caso
contrario, se tratará de un sistema no vivo.
La cognición -el
proceso de vida - está inextricablemente unida a la autopoiesis, como veremos
más adelante. La autopoiesis y la cognición son dos aspectos distintos del
mismo proceso de vida. En la nueva teoría, todos los sistemas vivos son
sistemas cognitivos y la cognición implica siempre la existencia de una red
autopoiésica.
Con el tercer
criterio de vida - la estructura de los sistemas vivos-, la situación es
ligeramente distinta. Si bien la estructura de un sistema vivo es siempre una
estructura disipativa, no todas las estructuras disipativas son redes
autopoiésicas. Así pues, una estructura disipativa podrá ser un sistema vivo o
no vivo. Por ejemplo, las células de Bénard y los relojes químicos estudiados
extensamente por Prigogine, son estructuras disipativas pero no son sistemas
vivos.
175
Criterios clave
de un sistema vivo
patrón de
organización:
la configuración
de las relaciones que determina las características esenciales del sistema
estructura:
la corporeización
física del patrón de organización del sistema
proceso vital:
la actividad
involucrada en la continua corporeización física del patrón de organización del
sistema
181
Un sutil pero
importante punto en la definición de autopoiesis es el hecho de que una red
autopoiésica no es un conjunto de relaciones entre componentes estáticos (como,
por ejemplo, el patrón de organización de un cristal), sino un conjunto de
relaciones entre procesos ¿le producción de componentes. Si estos procesos se
detienen, lo hace también toda la organización. En otras palabras, las redes
autopoiésicas deben regenerarse continuamente para mantener su organización.
Ésta es, por supuesto, una característica bien conocida de la vida.
Maturana y Varela
ven la diferencia entre relaciones de componentes estáticos y relaciones entre
procesos, como la distinción clave entre fenómenos físicos y fenómenos
biológicos.
185
COGNICIÓN: EL
PROCESO DE LA VIDA
Los tres
criterios clave para la vida -patrón, estructura y proceso- están tan
íntimamente entrelazados que resulta difícil su análisis por separado, si bien
es importante distinguirlos. La autopoiesis, el patrón de vida, es un conjunto
de relaciones entre procesos de producción, y una estructura disipativa sólo
puede ser entendida en términos de procesos metabólicos y de desarrollo. La
dimensión proceso está pues implícita, tanto en el criterio de patrón como en
el de estructura.
En la teoría
emergente de los sistemas vivos, los procesos vitales - la continua
corporeización de un patrón autopoiésico de organización en una estructura
disipativa- son identificados con la cognición, el proceso de conocer. Ello
implica un concepto radicalmente nuevo de mente, que es quizás el más
revolucionario y apasionante aspecto de esta teoría, ya que conlleva la promesa
de la trascendencia de la división cartesiana entre mente y materia.
De acuerdo con la
teoría de los sistemas vivos, la mente no es una cosa, sino un proceso: el
proceso mismo de la vida. En otras palabras, la actividad organizadora de los
sistemas vivos, a todos los niveles de vida, es una actividad mental. Las
interacciones de un organismo vivo -planta, animal o humano- con su entorno son
interacciones cognitivas, mentales. Así, vida y cognición que-dan
inseparablemente vinculadas. La mente -o más precisamente el proceso mental- es
inmanente en la materia a todos los niveles de vida.
186
Bateson
estableció una serie de criterios que los sistemas deben cumplir para que pueda
existir la mente.16 Todo sistema que satisfaga dichos criterios será capaz de
desarrollar los procesos que asociamos con la mente: aprendizaje, memorización,
toma de decisiones, etc. De acuerdo con Bateson, estos procesos mentales son
una consecuencia necesaria e inevitable de una cierta complejidad, que empieza
mucho antes de que los organismos desarrollen cerebros y sistemas nerviosos
superiores. Enfatizó también que la mente se manifiesta no sólo en organismos
individuales, sino también en sistemas sociales y ecosistemas.
187
Bateson
desarrolló su criterio de proceso mental intuitivamente desde su atenta
observación del mundo vivo. Estaba claro para él que el fenómeno de la mente se
hallaba inseparablemente vinculado al fenómeno de la vida. Cuando observaba el
mundo vivo, veía su actividad organizadora como esencialmente mental. En sus
propias palabras, «la mente es la esencia de estar vivo».
A pesar de su
claro reconocimiento de la unidad de mente y vida -o mente y naturaleza, como
él diría-, Bateson nunca preguntó: ¿qué es vida? Nunca sintió la necesidad de
formular una teoría, ni tan sólo un modelo, de sistemas vivos que ofreciera un
marco conceptual para sus criterios de proceso mental. El desarrollo de dicho
marco fue precisamente el planteamiento de Maturana.
Por coincidencia
-o quizás intuición-, Maturana se debatía simultáneamente con dos cuestiones
que parecían conducirle en direcciones opuestas: ¿cuál es la naturaleza de la
vida?, y ¿qué es cognición? Eventualmente descubrió que la respuesta a la
primera -autopoiesis- le proporcionaba el marco teórico para responder a la
segunda. El resultado es una teoría sistémica de cognición desarrollada por
Maturana y Varela, llamada en ocasiones la teoría de Santiago.
El tema central
de la teoría de Santiago es el mismo que el de la de Bateson: la identificación
de la cognición -el proceso de conocer-, con el proceso de vivir. Esto
representa una radical expansión del concepto de mente. Según la teoría de
Santiago, el
cerebro no es
necesario para que exista la mente. Una bacteria o una planta no tienen
cerebro, pero tienen mente. Los organismos más simples son capaces de
percepción y, por tanto, de cognición. No ven, pero aun así, perciben los
cambios en su entorno: diferencias entre luz y oscuridad, frío y calor,
concentraciones más altas o más bajas de compuestos químicos, etc.
El nuevo concepto
de cognición es pues mucho más amplio que el de pensamiento. Incluye
percepción, emoción y acción: todo el proceso vital. En el reino humano, la
cognición incluye también lenguaje, pensamiento conceptual y todos los demás
atributos de la consciencia humana. El concepto general, no obstante, es mucho
más amplio y no incluye necesariamente al pensamiento.
188
En la teoría de
Santiago, la relación entre mente y cerebro es simple y clara. La
caracterización de la mente hecha por Descartes como «la cosa que piensa»
"res cogitans" es por fin abandonada. La mente no es ya una cosa,
sino un proceso: el proceso de cognición, que se identifica con el proceso de
la vida. El cerebro es una estructura específica a través de la cual este
proceso opera. La relación entre mente y cerebro es pues una relación entre
proceso y estructura.
El cerebro no es,
por supuesto, la única estructura a través de la cual opera el proceso de
cognición. La entera estructura disipativa del organismo participa en dicho
proceso, con independencia de que el organismo tenga o no un cerebro y un
sistema nervioso superior. Más aún, investigaciones recientes indican
firmemente que en el organismo humano, el sistema nervioso, el sistema
inmunológico y el sistema endocrino -que tradicionalmente eran vistos como
sistemas separados- forman en realidad una única red cognitiva.
8. ESTRUCTURAS
DISIPATIVAS
190
ESTRUCTURA Y
CAMBIO
Desde los inicios
de la biología, filósofos y científicos se habían dado cuenta de que las formas
vivas, de múltiples y misteriosas maneras, combinan la estabilidad de la
estructura con la fluidez del cambio. Como los remolinos, dependen de un flujo
constante de materia; como las llamas, transforman los materia-les de los que
se nutren para mantener su actividad y crecer; pero a diferencia de remolinos y
llamas, las estructuras vivas también se desarrollan, se reproducen y
evolucionan.
En los años
cuarenta, Ludwig von Bertalanffy llamó «sistemas abiertos» a tales estructuras,
para enfatizar su dependencia de flujos continuos de energía y recursos. Acuñó
el término fliess-gleichgewicht («balance fluyente») para expresar esta
coexistencia de balance y flujo, de estructura y cambio, presente en todas las
formas de vida. Subsecuentemente, los ecólogos empezaron a representar
ecosistemas en términos de diagramas de flujos, cartografiando los caminos
seguidos por materia y energía a través de diversas redes tróficas. Estos
estudios establecieron el recicla-je como el principio clave de la ecología.
Como sistemas abiertos, todos los organismos de un ecosistema producen
residuos, pero lo que es desperdicio para una especie, es alimento para otra,
de modo que los residuos son continuamente reciclados y el ecosistema como un
todo no produce generalmente desperdicios.
191
(...) Al ser
comidas las plantas por animales que a su vez son comidos por otros animales,
los nutrientes de las plantas pasan a través de la red trófica, mientras que la
energía es disipada en forma de calor a través de la respiración y en forma de
residuo a través de la excreción. Los residuos, así como los animales y plantas
muertos, son descompuestos por los llamados organismos de descomposición
(insectos y bacterias), que los desintegran en nutrientes básicos, que serán
absorbidos de nuevo por plantas verdes. De este modo los nutrientes y otros
elementos básicos circulan continuamente por el ecosistema, mientras que la
energía es disipada en cada paso. De ahí el dicho de Eugene Odum: «La materia
circula, la energía se disipa.» El único desperdicio generado por el ecosistema
como un todo es la energía térmica desprendida en la respiración, que es
irradiada a la atmósfera y realimentada constantemente por el sol a través de
la fotosíntesis.
193
La teoría de
Prigogine interconecta las principales características de las formas vivas en
un marco conceptual y matemático coherente que implica una reconceptualización
radical de mu-chas de las ideas fundamentales asociadas con la estructura: un
cambio de percepción de estabilidad a inestabilidad, de orden a desorden, de
equilibrio a desequilibrio, de ser a devenir. En el centro de la visión de
Prigogine reside la coexistencia entre estructura y cambio, «quietud y
movimiento» (...)
NO-EQUILIBRIO Y
NO-LINEALIDAD
193
(...) Un
organismo vivo se caracteriza por un flujo y un cambio continuos en su
metabolismo, comprendiendo miles de reacciones químicas. El equilibrio químico
y térmico se da únicamente cuando estos procesos se detienen. En otras
palabras, un organismo en equilibrio es un organismo muerto. Los organismos
vivos se mantienen constantemente en un estado alejado del equilibrio, en el
estado de vida. Siendo muy distinto del equilibrio, este esta-do es sin embargo
estable a lo largo de períodos prolongados de tiempo, lo que significa que,
como en el remolino, se mantiene la misma estructura general a pesar del
incesante flujo y cambio de componentes.
194
Prigogine
comprendió que la termodinámica clásica - la primera ciencia de la complejidad-
resultaba inadecuada para la descripción de sistemas alejados del equilibrio,
debido a la naturaleza lineal de su estructura matemática. Cerca del equilibrio
-en el ámbito de la termodinámica clásica-, hay procesos fluyentes denominados
«flujos», pero son débiles. El sistema evolucionará siempre hacia un estado
estacionario en el que la generación de entropía (o desorden) sea lo más
pequeña posible. En otras palabras, el sistema minimizará sus flujos,
manteniéndose tan próximo al estado de equilibrio como le sea posible. En este
ámbito limitado, los procesos fluctuantes pueden ser descritos con ecuaciones
lineales.
Más lejos del
equilibrio los flujos son más fuertes, la producción de entropía aumenta y el
sistema ya no tiende al equilibrio. Bien al contrario, podrá encontrarse con
inestabilidades que le conduzcan a nuevas formas de orden que alejarán al
sistema más y más del estado de equilibrio. En otras palabras, lejos del
equilibrio las estructuras disipativas pueden desarrollarse hacia formas de
complejidad creciente. Prigogine enfatiza que las características de una
estructura disipativa no pueden deducirse de las propiedades de sus partes,
sino que son consecuencia de su «organización supramolecular». Aparecen
correlaciones de largo alcance en el mismo punto de transición de equilibrio a
no-equilibrio, y a partir de este punto, el sistema se comporta como un todo.
195
Las ecuaciones
lineales de la termodinámica clásica -señaló Prigogine- pueden ser analizadas
en términos de atractores puntuales. Cualquiera que sea el estado inicial del
sistema, será «atraído» hacia un estado estacionario de mínima entropía lo más
cercano posible al equilibrio y su comportamiento será completamente
predecible. Como explica Prigogine, los sistemas en el ámbito lineal tienden a
«olvidar sus condiciones iniciales».
Fuera de la
región lineal, la situación es espectacularmente distinta. Las ecuaciones
no-lineales tienen por regla general más de una solución; a mayor
no-linealidad, mayor número de soluciones. Ello significa que en cualquier
momento pueden surgir nuevas situaciones. Matemáticamente hablando, en tales
momentos el sistema se encuentra con un punto de bifurcación en el que puede
desviarse hacia un estado completamente nuevo. Veremos más adelante cómo el
comportamiento del sistema en el punto de bifurcación (es decir, cuál de los
caminos que se le presentan tomará) depende del historial previo del sistema.
En el ámbito no-lineal, las condiciones iniciales ya no son «olvidadas».
Además, la teoría
de Prigogine demuestra que el comportamiento de una estructura disipativa
alejada del equilibrio no sigue ninguna ley universal, sino que es exclusivo
del sistema específico. Cerca del equilibrio, podemos encontrar fenómenos
repetitivos y leyes universales. A medida que nos alejamos de él, nos
desplazamos de lo universal a lo único, hacia la riqueza y la variedad. Ésta,
sin duda, es una característica bien conocida de la vida.
La existencia de
bifurcaciones en las que el sistema puede tomar una entre varias direcciones,
implica que la indeterminación es otra característica de la teoría de
Prigogine. Llegado al punto de bifurcación, el sistema puede «escoger»
-metafóricamente hablando- entre varios caminos o estados posibles. La
«elección», que no puede en ningún caso ser pronosticada, dependerá de los
antecedentes del sistema y de varias condiciones externas. Existe pues un
elemento irreductible de aleatoriedad en cada punto de bifurcación.
Esta
indeterminación en las bifurcaciones es una de las dos clases de
impredecibilidad de la teoría de las estructuras disipativas. La otra, presente
también en la teoría del caos, se debe a la naturaleza altamente no-lineal de
las ecuaciones, y se da incluso en ausencia de puntos de bifurcación. Debido a
la reiteración de bucles de retroalimentación -o matemáticamente, repetidas
iteraciones-, el más mínimo error en los cálculos, causado por la necesidad
práctica de redondear cifras a algún nivel de decimales, añadirá
inevitablemente suficiente incertidumbre para hacer imposible toda predicción.
Esta
indeterminación en los puntos de bifurcación y la impredecibilidad «tipo caos»
debida a las repetidas iteraciones, implican que el comportamiento de una
estructura disipativa sólo puede ser pronosticado para un corto lapso de
tiempo. Tras éste, la trayectoria del sistema nos elude. Así, la teoría de
Prigogine, al igual que la teoría cuántica y la teoría del caos, nos recuerda
una vez más que el conocimiento científico no puede ofrecernos más que «una
limitada ventana al universo».
196
EL VECTOR TIEMPO
Según Prigogine,
el reconocimiento de la indeterminación como característica clave de los
fenómenos naturales es parte de una profunda reconceptualización de la ciencia.
Un aspecto íntmamente unido a este cambio conceptual afecta a las nociones científicas
de irreversibilidad y tiempo.
En el paradigma
mecanicista de la ciencia newtoniana, el mundo era visto como completamente
causal y determinado. Todo lo que acontecía tenía una causa definida y daba
lugar a un electo determinado. El futuro de cualquier parte del sistema, al
igual que su pasado, podía ser en principio calculado con absoluta certeza si
su estado en un momento dado era conocido con todo detalle. Este determinismo
riguroso halló su más clara expresión en las célebres palabras de Pierre Simón
Laplace:
Un
intelecto que en un momento dado conociese todas las fuerzas actuantes en la
naturaleza y la posición de todas las cosas de que el mundo consiste
-suponiendo que el mencionado intelecto fuese suficientemente vasto para
someter todos estos datos a análisis-, abarcaría en la misma fórmula el
movimiento de los mayores cuerpos del universo y los de los más pequeños
átomos; nada sería incierto para él y el futuro, al igual que el pasado,
esta-ría presente ante sus ojos.
En este determinismo
Laplaciano, no hay diferencia entre pasado y futuro. Ambos se hallan implícitos
en el estado presente del mundo y en las ecuaciones newtonianas del movimiento.
Todos los procesos son estrictamente reversibles. Tanto futuro como pasado son
intercambiables, no hay lugar para la historia, la novedad ni la creación.
197
Los efectos
irreversibles (como la fricción) se conocían en la física clásica newtoniana,
pero eran despreciados sistemáticamente (...)
En termodinámica
clásica, la irreversibilidad, aun siendo una característica importante, se
asocia siempre con pérdidas de energía y desperdicio. Prigogine introdujo un
cambio fundamental a esta visión en su teoría de estructuras disipativas
demostrando que, en los sistemas vivos que operan lejos del equilibrio, los
procesos irreversibles juegan un papel indispensable. Las reacciones químicas
-los procesos básicos para la v i d a -son el prototipo de proceso
irreversible. En el mundo newtoniano, no cabían la química ni la vida. La
teoría de Prigogine de-muestra cómo un determinado tipo de procesos químicos
-los bucles catalíticos esenciales para los organismos vivos- conduce a
inestabilidades mediante la reiterada retroalimentación auto-amplificadora y
cómo emergen nuevas estructuras de creciente complejidad en los sucesivos
puntos de bifurcación. «La irreversibilidad», decía Prigogine, «es el mecanismo
que extrae orden del caos.»
198
ORDEN Y DESORDEN
El vector tiempo
introducido en termodinámica clásica no apuntaba hacia un creciente orden, sino
en dirección contraria. Según la segunda ley de termodinámica, hay en los
fenómenos físicos una tendencia del orden al desorden, hacia una creciente
entropía. Uno de los logros capitales de Prigogine fue la resolución de la
paradoja de las dos visiones contradictorias de la evolución en física y en
biología: la una como un motor abocado a la detención final, la otra como un
mundo vivo desplegándose hacia un orden y complejidad crecientes. En palabras
del mismo Prigogine: «Existe [una] pregunta que nos ha perseguido durante más
de un siglo: ¿qué significado tiene la evolución de un ser vivo en el mundo
descrito por la termodinámica, un mundo en desorden creciente?»
En la teoría de
Prigogine, la segunda ley de termodinámica sigue siendo válida, pero la
relación entre entropía y desorden se contempla bajo una nueva luz. Para
comprender esta nueva percepción, resulta útil recordarlas definiciones
clásicas de entropía y orden. El concepto de entropía fue introducido en el
siglo XIX por el físico y matemático alemán Rudolf Clausius para medir la
disipación de energía en forma de calor y fricción. Clausius definía la
entropía generada en un proceso térmico como la energía disipada, dividida por
la temperatura a la que ocurre el proceso. Según la segunda ley, la entropía sigue
aumentando a medida que progresa el fenómeno térmico, la energía disipada no
puede ser recuperada, y es esta dirección hacia una creciente entropía la que
define el vector tiempo.
...
199
Ludwig Boltzmann,
uno de los grandes teóricos de la termodinámica clásica, quien otorgó un nuevo
significado al concepto de entropía y estableció el vínculo entre entropía y
orden. Siguiendo la línea de razonamiento iniciada por James Clerk Maxwell,
fundador de la mecánica estadística, Boltzmann diseñó un ingenioso experimento
mental para examinar el concepto de entropía a nivel molecular.
Supongamos que
tenemos una caja -razonaba Boltzmann-dividida en dos compartimentos iguales por
una partición central imaginaria y ocho moléculas identificables, numeradas del
uno al ocho como bolas de billar. ¿De cuántas formas podemos distribuir estas
partículas en la caja, de modo que unas queden en el compartimento de la
izquierda y otras en el de la derecha?
Primero pongamos
todas las partículas en el lado izquierdo. Hay una única manera de hacerlo. En
cambio, si ponemos siete a la izquierda y una a la derecha, dado que la
partícula de la derecha puede ser cualquiera de las ocho, tendremos ocho
posibilidades distintas, cada una de las cuales contará como una distribución distinta
al ser las partículas diferenciables entre sí.
De forma
parecida, hay veintiocho distribuciones distintas para seis partículas en la
izquierda y dos en la derecha. Puede deducirse fácilmente una fórmula general
para todas estas permutaciones, que demuestra que el número de posibilidades
aumenta a medida que disminuye la diferencia entre las partículas de ambos
lados, alcanzando un máximo de setenta combinaciones para un número igual de
moléculas, cuatro a cada lado.
'Boltzmann
denominó «complexiones» a las distintas combinaciones y las asoció con el
concepto de orden: a menor número de complexiones, más elevado el nivel de
orden. Así pues, en nuestro ejemplo, el primer estadio con todas las partículas
agrupadas en un mismo lado, presenta el máximo nivel de orden, mientras que la
distribución simétrica, con cuatro partículas en cada lado, representa el
máximo nivel de desorden.
200
Esta definición
de orden en termodinámica es muy distinta de los rígidos conceptos de orden y
equilibrio de la mecánica newtoniana.
201
De este modo, el
número de posibles complexiones para una determinada disposición de las
moléculas, da la medición tanto del grado de orden de dicho estado como de la
probabilidad de su existencia. Cuanto más alto sea el número de complexiones,
mayores serán el desorden y la probabilidad de que el gas esté en aquel estado.
En consecuencia, Boltzmann concluyó que el movimiento de orden a desorden es un
movimiento de estado improbable a estado probable. Al identificar entropía y
desorden con número de complexiones, introdujo una definición de entropía en
términos de probabilidades.
201
En el lenguaje de
Boltzmann, la segunda ley de termodinámica significa que todo sistema cerrado
tiende al estado de máxima probabilidad, que se corresponde con el estado de
máximo desorden. Matemáticamente, este estado puede definirse como el estado
atractor de equilibrio térmico. Una vez alcanzado el equilibrio, el sistema no
se alejará de él. Ocasionalmente el movimiento molecular aleatorio dará lugar a
distintos estados, pero éstos serán próximos al equilibrio y sólo existirán
durante breves períodos de tiempo. En otras palabras, el sistema meramente
fluctuará alrededor del estado de equilibrio térmico.
La termodinámica
clásica resulta pues inadecuada para la descripción de los fenómenos en
equilibrio o cerca de él. La teoría de Prigogine de las estructuras
disipativas, en cambio, se puede aplicar a los fenómenos termodinámicos
alejados del equilibrio, en los que las moléculas no se hallan en estado de movimiento
aleatorio, sino entrelazadas a través de múltiples bucles de retroalimentación,
descritos por ecuaciones no-lineales. Dichas ecuaciones ya no están dominadas
por atractores puntuales, lo que significa que el sistema no tiende ya al
equilibrio. Una estructura disipativa se mantiene alejada del equilibrio y
puede incluso alejarse más y más mediante una serie de bifurcaciones.
202
En los puntos de
bifurcación, pueden surgir espontáneamente estados de orden (en el sentido
otorgado por Boltzmann a este término) superior lo que, no obstante, no
contradice la segunda ley de la termodinámica. La entropía total del sistema
sigue aumentando, pero este aumento en entropía no significa un aumento
uniforme en desorden. En el mundo vivo, orden y desorden son siempre creados
simultáneamente.
Según Prigogine,
las estructuras disipativas son islas de orden en un mar de desorden,
manteniendo e incluso aumentando su orden a expensas del creciente desorden de
su entorno. Por ejemplo, los organismos vivos toman estructuras ordenadas
(alimentos) de su entorno, las utilizan como recursos para sus procesos
metabólicos y disipan estructuras de orden inferior (desechos) hacia el
entorno. De este modo, el orden «flota en el desorden», en palabras de
Prigogine, mientras que la entropía total sigue aumentando de acuerdo con la
segunda ley.
Comentarios
Publicar un comentario