Complejidad

Nathaniel Barrett
Universidad de Navarra

De DIA

La complejidad es un enfoque todavía emergente en numerosos programas científicos de investigación, y se extiende a un amplio espectro de disciplinas. En la medida en que estos programas de investigación aspiran a convertirse en un campo interdisciplinar unificado, cuyo propósito es descubrir los principios esenciales de todos los sistemas complejos, vivientes y no vivientes, reciben en conjunto el nombre de “ciencia de la complejidad”. Por el momento, sin embargo, ni la naturaleza de la ciencia de la complejidad ni su objeto están bien definidos.

Los orígenes de la ciencia de la complejidad son amplios y variados, y se retrotraen al menos hasta el siglo XIX. Sus múltiples antecedentes incluyen la mecánica estadística, la cibernética, la teoría de la información, la teoría computacional, la teoría general de sistemas, la teoría del caos, y la dinámica no lineal, por no hablar de algunas ramas de la economía, la sociología y la biología. Sin embargo, la noción de complejidad como el centro de interés de un esfuerzo científico multidisciplinar que promete explicar rasgos esenciales de la vida, la mente y la sociedad es un desarrollo relativamente reciente. El primer y más famoso centro de investigación dedicado a la Ciencia de la Complejidad es el Santa Fe Institute. Desde su fundación, en 1984, han aparecido en todo el mundo otros centros (por ejemplo, el Centro de Ciencias de la Complejidad, UNAM, México y el Center for the Study of Complex Systems, University of Michigan, USA), junto con sociedades, congresos internacionales y revistas (como Complex Systems, Complexity).

A pesar de estas alentadoras señales de legitimidad profesional, cualquiera que se interese un poco por la ciencia de la complejidad se dará cuenta de que no puede considerarse estrictamente como una “ciencia normal” (Kuhn 1962). En particular, es notable que haya desacuerdos persistentes sobre temas básicos, como los modos de definir y medir la complejidad. Hay quienes atribuyen esta situación al hecho de que la ciencia de la complejidad todavía está en ciernes. Otros sostienen que la complejidad plantea exigencias especiales que la ciencia tradicional no puede satisfacer (Wolfram 2002). Para estos defensores de tono más revolucionarios, la complejidad requiere no sólo de un nuevo paradigma teórico, sino de una nueva forma de hacer ciencia. Cualquiera que sea el caso, la situación inestable de la ciencia de la complejidad, combinada con su carácter multidisciplinar y la extraordinaria ambición de su agenda explicativa, da a este campo un aire peculiar de excitante aventura filosófica.

Por otra parte, estas mismas características hacen más desafiante identificar y seguir la pista a las distintas perspectivas y presuposiciones de la ciencia de la complejidad. Sólo aclarar cómo distintos autores usan los términos básicos es a veces una tarea intimidante. Con estas dificultades en mente, la tarea principal de esta revisión es ofrecer un panorama de los diversos puntos de vista que hacen de la ciencia de la complejidad un campo de investigación tan atractivo como desconcertante. De acuerdo con este objetivo, no se pretende ser exhaustivo ni profundizar en detalles; más bien la intención es orientar al lector para investigar con más amplitud y profundidad, señalando las cuestiones fundamentales que están sin resolver y aclarando algunas diferencias de perspectiva.


Otras perspectivas sobre la complejidad

Antes de abordar la ciencia de la complejidad, conviene mencionar algunas limitaciones de esta revisión. En primer lugar, debe reconocerse que la complejidad no atañe sólo a la ciencia. También ha sido objeto de interés en la discusión filosófica moderna, por ejemplo, en la obra de Alfred North Whitehead (1978 [1929]; véase también Juarrero y Rubino 2008), y es posible encontrar temas relacionados a través de toda la historia de la filosofía. Además, como ha indicado el filósofo Mark C. Turner (2000), se puede vislumbrar una tendencia hacia la complejidad en el giro de la sensibilidad moderna a la posmoderna del siglo pasado, como lo demuestra la historia del arte, la arquitectura, la música y la literatura, y quizá también en la aparición de la cultura de Internet. El análisis de Turner sugiere que la complejidad —o la preocupación por la complejidad— concierne de un modo especial a nuestro Zeitgeist tardo-moderno, pero excede con mucho el alcance de este artículo considerar si, y cómo, esto es así (cf. Cilliers 1998).

En primer lugar, este artículo limita su atención a las discusiones científicas recientes acerca de la complejidad, y entre éstas, se centra en la complejidad en física, biología y neurociencia. Debe advertirse que la complejidad es un tema importante en otras disciplinas, especialmente ecología, sociología y economía; de hecho, las dos últimas han jugado un papel destacado en el surgimiento de la ciencia de la complejidad (v. g., Anderson et al. 1988; Miller y Page 2007). Esta exposición se centrará en la complejidad en física, biología y neurociencia debido a las limitaciones del autor y al énfasis actual del DIA, no porque se suponga que sean más fundamentales que la ecología y las ciencias sociales. Puesto que es un campo multidisciplinar, la ciencia de la complejidad no pertenece a una sola disciplina, pero además no puede decirse —por lo menos no ahora— que alguna perspectiva disciplinar tenga prioridad sobre otras.


1 Tres ejemplos de complejidad  

Debido a que gran parte de la discusión que sigue se refiere a definiciones generales y características de los sistemas complejos, comenzamos con una consideración de tres ejemplos bastante específicos de complejidad: la convección de Rayleigh-Bénard, las colonias de hormigas y el cerebro humano. Cada uno de estos ejemplos se describe brevemente y luego se usa para introducir algunas cuestiones clave de la ciencia de la complejidad. A primera vista, parecería que, en función del ejemplo que se tome como paradigma, habría versiones muy distintas de la teoría de la complejidad. Pero, de hecho, suelen establecerse analogías entre la convección de Rayleigh-Bénard y la dinámica del cerebro (por ejemplo, Kelso 1995), así como entre las colonias de hormigas y el cerebro (por ejemplo, Hofstadter 1979; S. Johnson 2001; Gordon 2007), mientras que otros, para comprender la complejidad en la naturaleza, aúnan los tres en un marco común (por ejemplo, Solé y Goodwin 2000). Con tales analogías no se pretende afirmar que los cerebros, las colonias de hormigas y las células o celdas de Bénard son, en el fondo, esencialmente lo mismo. Más bien, la tesis, más modesta, pero igualmente ambiciosa, es que los conceptos y herramientas explicativas desarrollados para uno de estos ejemplos pueden extenderse a uno o a los dos ejemplos restantes (y a muchos más).


1.1 La convección de Rayleigh-Bénard  

La convección de Rayleigh-Bénard es el ejemplo más exhaustivamente estudiado de la formación de patrones auto-organizados en un sistema de no equilibrio (Getling 2012). En consecuencia, ha alcanzado un estatus canónico para muchos teóricos de la complejidad y es ampliamente utilizado para ilustrar y definir las propiedades generales de los sistemas complejos desde la perspectiva de la física del no-equilibrio (Nicolis y Prigogine 1989, 8-15; Kelso 1995, 6-8; Solé y Goodwin 2000, 12-17; Deacon 2012, 250-255). Se conoce como convección de Rayleigh-Bénard a los patrones circulatorios —a veces llamados celdas de Bénard— que emergen en una capa de fluido que se calienta desde abajo (hay videos con demostraciones en Internet). La fuente de calor genera un gradiente de temperatura a través del fluido, y, en la medida en que porciones más calientes del fluido se hacen menos densas, ascienden a la superficie, donde se enfrían y luego se hunden. En algunos casos este movimiento circular se articula además —debido a las fuerzas de tensión superficial— en celdas hexagonales regulares, cada una de los cuales constituye una columna separada de líquido que se eleva en el centro y cae en el perímetro.

Lo que hace de la convección de Rayleigh-Bénard un paradigma de la complejidad, para quienes lo tratan como tal, no es tanto lo complicado de sus patrones como el proceso mediante el cual se forman estos patrones. Este proceso se puede resumir como sigue. Si un parámetro de control (en este caso, el gradiente de temperatura) alcanza un umbral crítico, la forma dinámica predominante de un sistema (en este caso, los intercambios de energía molecular no coordinados o la conducción térmica) se desestabiliza hasta que da paso a un patrón coordinado diferente que puede describirse en términos de una variable colectiva macroscópica (aquí, la amplitud de los rollos de convección). Este proceso de bifurcación, por el que la conducta del sistema sufre un cambio cualitativo relativamente repentino como resultado de un cambio gradual en algún parámetro, se considera esencialmente el mismo que los procesos subyacentes a la conducta de otros sistemas, cuya complejidad es más llamativa pero menos susceptible de estudio empírico y análisis formal. Aun así, como se indica en discusiones más detalladas de la dinámica subyacente en estos procesos (por ejemplo Nicolis y Prigogine 1989; Bishop 2008), la simplicidad de los patrones de Rayleigh-Bénard es engañosa. De hecho, es sorprendente lo mucho que puede aprovecharse de este ejemplo. Aquí bastará para hacer sólo algunas observaciones.

En primer lugar, debe señalarse que en este caso la emergencia de patrones se produce en un sistema abierto que es alejado del equilibrio por una fuente constante de energía (calor). Así, cualquier tipo de complejidad entendida de este modo no pertenece únicamente al sistema, sino a la manera en la que el sistema canaliza los flujos de energía disponibles en su entorno. En segundo lugar, la aparición de un orden complejo parece estar impulsado por un imperativo termodinámico consistente con la segunda ley, pero no implicado por ella. Todos los sistemas disipativos —sistemas que se sustentan a sí mismos mediante la disipación de la energía— comparten este imperativo y pueden constituir una fuente fundamental de orden en nuestro universo alejado del equilibrio. No está claro cuál es la mejor manera de definir este imperativo (Swenson 1988; Swenson y Turvey 1991), pero parece tener algo que ver con maximizar el flujo de energía: por ejemplo, la dinámica en patrones de la convección de Bénard-Rayleigh disipa el calor más rápidamente que formas de convección menos organizadas (Deacon 2012, 252). En tercer lugar, este ejemplo muestra cómo surge la complejidad a partir de la ruptura espontánea de la simetría (Anderson 1972) —que se relaciona con la espontaneidad termodinámica que acaba de discutirse— y añade un elemento de contingencia e historicidad al sistema. En cuarto lugar, puesto que los movimientos microscópicos de las moléculas involucradas están constreñidas por el patrón colectivo macroscópico que ellas mismas constituyen, la emergencia de orden en la convección de Rayleigh-Bénard y otros casos similares se describe a menudo como una especie de “causalidad circular” entre los niveles micro y macro del sistema (v. g., Moreno et al 2011, 317), así como una reducción de la dimensionalidad general o los grados de libertad del sistema (Haken 2012; Kelso 1995).

Este último punto sugiere que la formación de patrones complejos constituye una simplificación del sistema en comparación con su estado inicial —no constreñido— que, después de reflexionar, puede parecer contraintuitiva. Por otro lado, considerar la conducta compleja como algo que implica una reducción en grados de libertad depende de tratar al agregado no organizado de constituyentes microscópicos como un sistema, y puede cuestionarse desde otra perspectiva, que considere el estado inicial del fluido sin calentar como un medio homogéneo cuyas simetrías se rompen por las inestabilidades causadas por el gradiente de temperatura (Nicolis y Prigogine 1989). Estas perspectivas, diferentes pero compatibles, del mismo fenómeno apuntan a una cuestión importante y muy problemática en los estudios sobre la complejidad, a saber, la intrincada relación entre las diversas nociones de complejidad y simplicidad. Para muchos teóricos la complejidad resulta de la “auto-organización” de una conducta compleja a partir de las interacciones de componentes que, tomados individualmente, se definen como comparativamente simples. Sin embargo, vemos aquí que la complejidad también puede ser entendida como un producto de “auto-simplificación” o, alternativamente, un producto de la “auto-diferenciación”. Qué descripción sea más apropiada depende de cómo se definan el sistema y sus componentes.


1.2 Las colonias de hormigas  

Las colonias de hormigas son famosas por su capacidad para la “conducta colectiva” sin ningún tipo de control central (Gordon 2007, 2014). Lo que hace tan atractivas a las colonias de hormigas como ejemplos de la complejidad es la aparente sencillez de las hormigas individuales en comparación con la colonia como un todo. Según la describe Melanie Mitchell, una hormiga es “una criatura bastante simple que obedece a sus imperativos genéticos para buscar comida, responder de formas simples a las señales químicas de otras hormigas en su colonia, combatir a los intrusos, y así sucesivamente” (Mitchell 2009, 4). No obstante, trabajando juntas las hormigas son capaces de realizar un gran número de sofisticadas tareas, como “construir estructuras asombrosamente complejas” (ibid.) y llevar a cabo incursiones sumamente organizadas. Además, las diversas actividades simultáneas de una sola colonia —forrajeo, construcción del nido, cuidado de las crías, defensa contra intrusos— constituyen un patrón perfectamente equilibrado que cambia de acuerdo con las necesidades y oportunidades presentes. Y, sin embargo, cada individuo es capaz de responder solo a lo que encuentra directamente: congéneres, rastros de feromonas, alimento, enemigos, etc. En otras palabras, la coordinación global y la sofisticación de la vida de la colonia surge de algún modo a partir de hormigas individuales simples que responden únicamente a estímulos locales.

Ejemplos similares de conducta colectiva abundan en la naturaleza (v. g., colonias de termitas, formación de cardúmenes y bandadas, cacería en manada, etc.) y se supone que muchos de ellos funcionan más o menos de la misma manera: a partir de interacciones locales y relativamente simples y sin ningún tipo de control central (Wilson y Golonka 2013, 4-5). Tales fenómenos parecen encajar perfectamente con algunos de los modelos de la complejidad más antiguos e influyentes, especialmente aquellos que provienen de los primeros intentos de simulación computacional de la vida, como el pionero “juego de la vida” de John Conway (Sigmund 1993). Estas simulaciones demuestran que pueden surgir conductas interesantes —similares a la vida, e incluso conductas adaptativas— a partir de componentes o “agentes” simples que interactúan con el vecino más próximo siguiendo reglas simples (Holland 1994). El sorprendente parecido de tales modelos con diversos sistemas vivos sugiere definiciones generales como la siguiente: un sistema complejo es “un sistema en el que extensas redes de componentes sin control central que siguen reglas de operación simples dan lugar a una conducta colectiva compleja, a un sofisticado procesamiento de información y a la adaptación” (Mitchell 2009, 13; cf. Green y Leishman 2011; N. Johnson 2009, 17).

Cabe señalar que nuestro conocimiento del comportamiento de las hormigas ha progresado durante las últimas décadas, de modo que ahora sabemos que las hormigas no son máquinas que siguen reglas, programadas genéticamente. Las hormigas no se adhieren a una división del trabajo estricta o a un sistema de castas determinado por características individuales como el tamaño corporal: más bien, las hormigas individuales son capaces de cambiar de tarea en función de las necesidades actuales de la colonia y de sus interacciones con otras hormigas (Gordon 2015). Este cambio en la visión científica de la conducta de las hormigas tiene ya décadas, y los teóricos de la complejidad la han incorporado en su comprensión de la conducta colectiva de las hormigas (véase Mitchell 2009, 176-178; Solé y Goodwin 2000, 147-178). Sin embargo, no es claro si las implicaciones de este hecho concuerdan con la visión común acerca de la complejidad recién descripta, especialmente porque esta visión asume la simplicidad de los componentes como premisa básica de la teoría de la complejidad. Por supuesto, puede ser el caso de que las reglas simples puedan dar cuenta de las modificaciones interactivas de la conducta de las hormigas. El punto es que muchos estudios sobre complejidad asumen que los sistemas complejos se constituyen debido a operaciones computacionales o basadas en reglas que se ejecutan en el nivel de los componentes más básicos (Wolfram 2002), mientras que en los sistemas vivos es difícil encontrar operaciones realmente (no sólo aparentemente) basadas en reglas (Lane 2006, 114). En consecuencia, otra pregunta que recorre la literatura de la ciencia de la complejidad es si la variabilidad sensible al contexto de los sistemas complejos puede explicarse mediante grupos de agentes computacionales o regidos por reglas (Mitchell 2011). O, para hacer la pregunta más claramente: ¿es la computación la fuente de la complejidad, o uno de sus productos?


1.3 El cerebro humano  

El cerebro humano es considerado ampliamente como el sistema complejo por excelencia. Sin embargo, hay dos sentidos muy diferentes, aunque estrechamente relacionados, en los que el cerebro es complejo: la complejidad anatómica o estructural, por una parte, y la complejidad funcional o dinámica, por otra. Para dar una idea del primer tipo de complejidad, al introducir el tema a una audiencia general, los neurocientíficos a menudo comienzan con una serie de cifras abrumadoras, como en la siguiente descripción (tomada de Edelman y Tononi 2000, 38):

El cerebro humano adulto pesa alrededor de 1,300 gramos y contiene cerca de 100 mil millones de células nerviosas, o neuronas. La cobertura corrugada exterior del cerebro humano más recientemente evolucionada, la corteza cerebral, contiene unos 30 mil millones de neuronas, y 1 mil billones de conexiones, o sinapsis. Si contáramos una sinapsis por segundo, no terminaríamos de contar en 32 millones de años. Si consideramos el número de posibles circuitos neuronales, estaríamos tratando con un número hiperastronómico: 10 seguido de al menos un millón de ceros. (En el universo conocido el número de partículas es de, poco más o menos, 10 seguido de 79 ceros).

Algunas de estas cifras pueden no ser exactas a día de hoy (Herculano-Houzel 2012), pero lo que importa aquí es la impresión general que pretenden transmitir de la asombrosa complicación de la anatomía del cerebro, que de hecho se ve confirmada por los avances en la tecnología de neuroimagen y mapeo cerebral (Swanson y Lichtman 2016). Al momento de escribir estas líneas, enormes iniciativas de investigación en EE.UU. y Europa están promoviendo un mapeo completo de la circuitería neural humana —el llamado “conectoma”—, que recuerda el Proyecto Genoma Humano de la década de los 90, aunque pueda tomar varias décadas (o generaciones) hacer avances significativos en este nuevo objetivo (Adolphs 2015).

Mientras tanto, aumenta el número de investigadores dentro de la comunidad de las neurociencias que ha comenzado a criticar este enfoque sobre la complejidad del cerebro centrado en la anatomía. En pocas palabras, hay dos problemas. En primer lugar, parece que el conocimiento de la intrincada conectividad estructural del cerebro es insuficiente para predecir los patrones continuamente cambiantes de “conectividad funcional”, o las correlaciones temporales de la actividad neural (Honey et al. 2010). La relación entre estos dos tipos de conectividad se compara a menudo con el modo en que la malla que forman las calles de la ciudad se relaciona con los patrones cambiantes del tráfico: seguramente hay alguna relación entre los dos, pero uno no puede predecir los patrones de tráfico a partir de un plano de la ciudad. En segundo lugar, los estudios de neuroimagen indican que las estructuras neurales participan en múltiples funciones prácticamente en todos los niveles (Anderson 2014), lo que realmente destruye cualquier posibilidad de lograr un mapeo entre estructura y función. En conjunto, estos hallazgos indican que, incluso si el conocimiento completo de la complejidad estructural del cerebro fuera efectivamente asequible, este conocimiento no sería suficiente para comprender las funciones del cerebro.

De hecho, este problema es ubicuo en la biología, aunque sea a menudo ignorado por los programas de investigación que priorizan la cartografía de la red sobre la dinámica (Kaneko 2006, 9). Así, otro tema importante en la ciencia de la complejidad es encontrar cómo relacionar la complejidad estructural con la complejidad dinámica, conductual o funcional. Debe hacerse hincapié en que este es un problema muy general. Por ejemplo, dentro de la ciencia de las redes —un campo dedicado a estudiar los principios y propiedades generales de las redes, desde las células a las sociedades— se ha observado que “las aproximaciones tradicionales a las redes han tendido a pasar por alto o simplificar la relación entre las propiedades estructurales de un sistema en red y su conducta” (Watts, Barabási y Newman 2006, 7).

En un intento por corregir esta tendencia en la neurociencia, algunos han instado a que se preste más atención a la peculiar complejidad dinámica del cerebro. Ésta se caracteriza por, entre otras cosas, los patrones espacio-temporales transitorios de actividad coordinada (Bressler y Kelso 2001; Buzsáki 2006), la metaestabilidad (la conducta intermitente quasi-estable, causada por tendencias divergentes de integración y segregación; Kelso 2012), y un grado relativamente alto de fluctuaciones o ruido (Roberts et al. 2015). Se espera que al comprender los principios que guían la dinámica del cerebro seremos capaces de arrojar luz sobre su papel especial en la cognición y la conciencia, sin necesidad de tener un conocimiento completo de los detalles neuroanatómicos subyacentes. De hecho, muchos creen que la ciencia de la complejidad es la clave para desbloquear uno de los problemas más arduos de la ciencia moderna, el llamado “problema mente-cerebro” (Kelso 1995; cf. Deacon 2012).

Con respecto a este problema, una de las razones principales de la expectativa que rodea a la ciencia de la complejidad es su promesa de explicar fenómenos emergentes, tales como la emergencia de patrones geométricos en fluidos calientes y la emergencia de inteligencia colectiva en las colonias de hormigas. Sin embargo, no está claro si las diversas características que hasta ahora han hecho de la experiencia humana algo tan inmanejable para la explicación científica —sensación, intencionalidad y teleología— pueden considerarse como emergentes en el mismo sentido. La razón es que estas características, por lo menos en nuestra experiencia, parecen involucrar algo más que la formación de patrones nuevos y tipos de conducta sofisticados: también parecen involucrar tipos de causas radicalmente diferentes (v. g., causas finales). Algunos teóricos de la complejidad, de hecho, sostienen que para entender los fenómenos emergentes se requiere una noción ampliada de la causalidad, que incluya, por ejemplo, la causalidad circular (Haken 2012), la causalidad formal (Juarrero 1999; Bishop 2011, 127; Deacon 2012), o la causalidad de arriba hacia abajo (Murphy 1999; Bishop 2008). Como se refleja en estos esfuerzos, se espera que la ciencia de la complejidad ayude a establecer un marco causal nuevo y más completo dentro del cual pueda comprenderse e investigarse la emergencia de todo tipo de fenómenos cualitativamente novedosos. Esto es, por supuesto, una gran asignatura pendiente de la ciencia en general, no sólo de la ciencia de la complejidad. Aquí será suficiente con señalar que la labor explicativa que puede esperarse razonablemente del concepto de emergencia depende en gran parte del marco metafísico en el que se definan la causalidad y la emergencia (Bickhard 2011).


2 Definir y medir la complejidad  

En esta sección se examinan algunas definiciones y rasgos característicos de la complejidad propuestas por científicos de diversos campos. Como se ha advertido, una definición oficial de complejidad es un objetivo central, pero elusivo, de la ciencia de la complejidad. Los físicos Jean Carlson y John Doyle (2002, 2538) han descrito hacia comienzos de la década pasada el estado del campo de la siguiente manera: “Una visión compartida por la mayoría de los investigadores de los sistemas complejos es que hay ciertos rasgos intrínsecos, quizá incluso universales, que capturan aspectos de la complejidad de un modo que trasciende los dominios específicos. Pero al establecer estas características aparecen claras diferencias”. Quince años después, la situación sigue en gran parte igual.

Las definiciones están estrechamente relacionadas con maneras de medir la complejidad, aunque algunas definiciones se refieren a rasgos que no es posible medir o calcular. La lista que se ofrece no es en modo alguno exhaustiva (para una discusión más amplia, véase Lloyd 2001; Adami 2002; Mitchell 2009, 94-111; Gershenson 2008; Hooker 2011a; Ladyman et al 2013.). Más bien, el objetivo es presentar un panorama de distintos tipos de definición y algunos puntos de convergencia y divergencia.


2.1 Nociones intuitivas y experiencia de la complejidad  

Como preámbulo, conviene comenzar con las nociones intuitivas de complejidad, puesto que estas nociones sirven no sólo como puntos de partida para la investigación sobre la complejidad, sino también como pautas para juzgar la suficiencia de las definiciones propuestas.

Una noción de uso ordinario es que la complejidad tiene que ver con la dificultad: por ejemplo, un problema que es difícil resolver se considera complejo. Como advierte el físico Seth Lloyd en un artículo ampliamente citado (2001), muchas estrategias para definir y medir la complejidad se relacionan con qué tan difícil es describir algo o, alternativamente, construirlo. Estos dos tipos de dificultad pueden parecer la misma, pero no lo son, ya que es posible usar procesos simples para generar estructuras que es difícil describir (v. g., los patrones fractales, como el conjunto de Mandelbrot).

El problema con las definiciones basadas únicamente en la dificultad es que tienden a confundir lo complejo con lo lo aleatorio, oponiéndose a otra noción intuitiva y ampliamente sostenida de complejidad, a saber, que la complejidad se encuentra a medio camino entre los extremos de orden y desorden o entre la regularidad y la aleatoriedad (v. g., Gell-Mann 1995; Mitchell 2009, 98). De hecho, muchos podrían argumentar que esta idea debe elevarse al nivel de una definición formal, pero todavía no hay un consenso sobre cómo se relacionan complejidad y desorden (Sporns 2007). Sin embargo, incluso sin una definición precisa, esta noción sirve como regla general.

La noción de complejidad como una mezcla de orden y desorden puede no parecer intuitiva de entrada, pero está estrechamente relacionada con las experiencias habituales de la complejidad. Para experimentar algo como complejo en algún sentido —aunque sólo sea en el sentido de ser difícil de describir—, es necesario un cierto grado de regularidad y orden. Sin orden, no podemos tener siquiera una mínima comprensión del objeto como un individuo complejo, es decir, como algo distinguible de otras cosas y compuesto de muchas partes interconectadas. Por esta razón, los casos comunes de aleatoriedad —por ejemplo, la estática o ruido de un televisor viejo— no se experimentan usualmente como complejos per se. A pesar de que pueda ser difícil describirlos en detalle, en general se experimentan no como algo difícil de describir, sino más bien todo lo contrario. Lo ruidoso es poco descriptible en el sentido de que sus detalles parecen demasiado triviales como para que merezca la pena describirlos.

Por supuesto, en este ejemplo estamos usando nuestra experiencia subjetiva como punto de referencia, que no es lo mismo que definir un rasgo objetivo del propio sistema (aunque el ruido blanco es un fenómeno bien definido). Sin embargo, el ejemplo sirve también para indicar una conexión entre las experiencias de la complejidad y de la individualidad. Técnicamente hablando, cada fragmento de ruido es un individuo único, pero en términos prácticos —en nuestra experiencia— todos los ruidos son más o menos lo mismo. Esto sugiere que la individualidad de un sistema no consiste sólo en lo que es peculiar a ese sistema y que puede capturarse mediante una descripción de longitud mínima que lo identifica como un individuo único, sino que también consiste en su capacidad para influir en su entorno en formas distintivas: esto es, en su capacidad para marcar la diferencia. En nuestra experiencia, los sistemas complejos se destacan como individuos altamente “expresivos” o “eficaces”.

Nuestra experiencia de la complejidad como “individualidad eficaz” puede expresarse en términos informacionales, y así tiene una conexión directa con definiciones más formales de complejidad. También conecta con intuiciones sobre cómo los sistemas complejos se conectan o correlacionan con la información en su entorno (Adami 2002, 1087). En consecuencia, aunque rara vez se les considera como tales, vale la pena tener en cuenta las experiencias de marcada individualidad —de grandes artistas o logros artísticos, por ejemplo— como otra fuente de intuiciones sobre la complejidad, que contrasta de manera muy provechosa con las nociones intuitivas de complejidad en tanto que dificultad.

Por último, algunas nociones intuitivas de complejidad provienen de nuestra experiencia de la naturaleza. Desde el intrincado funcionamiento interno de una célula a la inmensa belleza fractal de un paisaje montañoso, la naturaleza está llena de ejemplos de complejidad llamativa. A continuación se discute brevemente el tema de la complejidad en la cosmología y la cuestión de si, y en qué sentido, la complejidad caracteriza al universo en general o en su conjunto. Otra noción intuitiva, muy relacionada, es que la vida es especialmente compleja, y que, además, la historia evolutiva tiende hacia una mayor complejidad. Aunque pocos ponen en duda la idea de que la vida es más compleja que la no vida, sin una definición ampliamente aceptada de complejidad, no tenemos una demostración precisa de cómo se debería entender esto. La cuestión de si la complejidad aumenta durante la evolución es incluso más discutible. Según afirma el biólogo Daniel McShea, un destacado teórico de la complejidad biológica: “Todo el mundo parece saber que la complejidad aumenta durante la evolución” (1991, 303), pero “hay muy poca evidencia empírica” en apoyo de esta posición (304; véase también Lewin 1999, cap 7; Adami 2002; Alfonseca 2015).

La interacción de las nociones intuitivas y las definiciones formales en el desarrollo de la ciencia de la complejidad es en sí misma un proceso complicado. En algunos casos una noción intuitiva da lugar a una definición formal que, aplicada de modo consistente, contradice la idea original o alguna otra idea igualmente autorizada. Por ejemplo, como se ha advertido, definir la complejidad en términos de dificultad conduce al caso del ruido anodino que no nos parece complejo ni difícil. Además, algunas mediciones conducen a casos contraintuitivos: por ejemplo, si la complejidad de la vida se mide por el tamaño del genoma, entonces ¡las amebas son 225 veces más complejas que los seres humanos! (Mitchell 2009, 96). La cuestión que plantean estos casos es si, y cuándo, las intuiciones deben dar paso a las definiciones formales. ¿Deben ajustarse las mediciones de la complejidad biológica a nuestra visión de los seres humanos como la especie más compleja? ¿Debemos admitir mediciones de la complejidad que sobrepasen nuestra capacidad para reconocer la complejidad como tal? Por otro lado, ¿no debemos esperar que una teoría satisfactoria de la complejidad nos ayude a entender nuestra experiencia de la complejidad? Es difícil saber dónde encontrar el equilibrio, ya que tanto las definiciones subjetivas y antropocéntricas como las definiciones objetivas, pero divorciadas por completo de nuestra experiencia, parecen debilitar por igual las aspiraciones de la ciencia de la complejidad.


2.2 Definiciones/medidas de la complejidad  

  1. Complejidad algorítmica o de Kolmogorov (Mitchell 2009, 98; Ladyman et al, 2013, 44), también conocida como contenido de información algorítmica (AIC). Se la define como el programa más corto capaz de describir o reconstruir un objeto. Los objetos con regularidades estructurales, tales como la repetición de secuencias permiten la compresión; esto es, pueden expresarse mediante programas más cortos o más simples, mientras que un objeto completamente aleatorio es incompresible y sólo puede expresarse mediante un programa de complejidad equivalente o mayor. La complejidad algorítmica es incomputable y sólo admite aproximaciones (véase Chaitin 1975). Además, la complejidad algorítmica comparte con otros enfoques el problema de la dificultad descriptiva o constructiva, a saber, que no puede distinguir la complejidad de la aleatoriedad. Sin embargo, las medidas aproximadas de la complejidad algorítmica pueden incorporarse con provecho en otras definiciones, tales como la de la complejidad efectiva.
  2. Complejidad efectiva, desarrollada por el físico Murray Gell-Mann (1995). Es similar a la complejidad algorítmica, pero se ajusta mejor a nuestra intuición de que la complejidad se encuentra a medio camino entre la regularidad y la aleatoriedad: se refiere a la descripción algorítmica mínima de todas las regularidades de un objeto. Por lo tanto, un objeto con gran complejidad efectiva no puede ser puramente aleatorio, ni puede ser regular de un modo que sea fácil describir. Como ha señalado Mitchell (2009, 99), un problema con las mediciones de la complejidad efectiva es que suponen conocer las regularidades de un sistema, lo que en algunos casos puede no ser factible, o puede depender del punto de vista del observador. Sin embargo, en la medida en que podamos desarrollar mejores teorías de la conducta o estructura del sistema, podemos avanzar progresivamente hacia una aproximación de su complejidad efectiva.
  3. Complejidad estadística, propuesta por los físicos Jim Crutchfield y Karl Young (1989). También es similar a la complejidad efectiva, pero se refiere más específicamente al contenido de información del modelo más simple que es necesario para predecir la conducta de un sistema. Los sistemas que son muy ordenados, de modo que es fácil predecir su conducta, tendrán baja complejidad estadística, pero también lo serán los sistemas desordenados que se comportan de forma completamente aleatoria puesto que es fácil representar la aleatoriedad con un modelo estadístico. Al igual que con la complejidad efectiva, la medición de la complejidad estadística supone una cantidad considerable de conocimientos sobre el sistema en cuestión. Por otra parte, como ha señalado Christoph Adami, no captura el modo en que la conducta de los sistemas complejos se relaciona significativamente con las complejidades del entorno (2002, 1086).
  4. Profundidad termodinámica, propuesta por Seth Lloyd y Heinz Pagels (1988). Pertenece a la familia de definiciones que relacionan la complejidad con la dificultad de construcción. A diferencia de la profundidad lógica, que define esta dificultad en términos del número de pasos computacionales que darían lugar a la creación de un objeto, la profundidad termodinámica mide “la cantidad total de recursos termodinámicos e informacionales requeridos por el proceso físico de construcción” (Lloyd 1990, 42; citado en Mitchell 2009, 101). La profundidad termodinámica es calculable, pero su medición presenta una serie de desafíos (Crutchfield y Shalizi 1999), y no está claro si distingue con éxito la complejidad de la aleatoriedad (Sporns 2007).
  5. Complejidad física, definida por Christoph Adami (2002). Es la cantidad de información que almacena un sistema (típicamente representada por una secuencia o conjunto de secuencias) sobre su entorno. Como se refiere a la correspondencia de la estructura del sistema con un entorno particular, la complejidad física es una medida relativa de la complejidad, en contraste con la mayoría de las definiciones que intentan definir la complejidad como una propiedad intrínseca. La complejidad física fue diseñada por Adami para abordar cuestiones de complejidad biológica: por ejemplo, si la complejidad aumenta durante la evolución (2002). La ventaja de esta definición es que puede usarse para confirmar una tendencia general hacia una mayor complejidad sin necesidad de que la complejidad aumente siempre y en todo. Sin embargo, no está claro si la complejidad de la vida inteligente se describe mejor como la información almacenada sobre un entorno, especialmente cuando esta información se trata de manera abstracta, como una secuencia o un conjunto de secuencias. El mero hecho de almacenar información no nos dice nada acerca de cómo debe organizarse la información de tal manera que sea fácil acceder a ella y actuar en consecuencia, ni nos dice qué tipos de organización son los más adecuados para recoger nuevos tipos de información.
  6. Integración, definida por los neurólogos Giulio Tononi, Olaf Sporns, y Gerald Edelman (1994). Es una medida de la complejidad de un sistema en términos de información mutua, un concepto que procede de la teoría de la información y la probabilidad. Este enfoque fue desarrollado con el propósito de comprender la dinámica cerebral de las funciones cognitivas superiores y la conciencia, y su ideal central es que la complejidad implica altos niveles de diferenciación y de integración funcional (Tononi et al. 1998; cf. Seth et al. 2006; Seth y Edelman 2009). Esta combinación de diferenciación e integración implica que los subsistemas componentes deben tener un equilbrio de actividad independiente y co-dependiente, de modo que se mantengan funciones diferenciadas y al mismo tiempo puedan compartir información y contribuir a una respuesta integrada. Un sistema está muy integrado si maximiza la información mutua entre sus subsistemas a través de las diferentes escalas y magnitudes de los subsistemas. Un rasgo interesante de los sistemas que están altamente integrados en este sentido es que presentan un patrón de organización similar —de superposición o racimo— que en sí mismo puede definirse y utilizarse para medir la complejidad (Tononi y Edelman 1998).
  7. Densidad de la tasa de energía, definida por el astrofísico Eric Chaisson (2011). Es una medida del flujo de energía a través de un sistema con respecto a su masa. La propuesta de Chaisson pertenece a una familia de aproximaciones que intentan definir la complejidad en términos energéticos o termodinámicos, como el flujo de la energía o la tasa de producción de entropía (véase también Clark y Jacques 2012; Swenson y Turvey 1991). Estos enfoques están motivados por la observación de que los sistemas complejos naturales son sistemas disipativos (Nicolis y Prigogine 1989) —sistemas termodinámicamente abiertos que se mantienen a sí mismos en condiciones de no equilibrio a través de un intercambio continuo de materiales y energía. En general, los sistemas disipativos complejos se caracterizan por flujos de energía relativamente altos, de modo que la transición a un tipo de dinámica más complejo (como la aparición de celdas de convección) se acompaña por un aumento de la tasa de disipación de energía. Sin embargo, la formulación de una definición energética precisa de la complejidad del flujo de energía debe estar relacionada con alguna otra propiedad (la masa, por ejemplo, como en la definición de Chaisson), ya que, considerado aisladamente, el flujo de energía de los sistemas complejos siempre puede ser igualado por un sistema mucho más simple (Clark y Jacques 2012). Una ventaja potencial de los enfoques energéticos a la complejidad es que intentan comprender la complejidad como una manifestación de tendencias termodinámicas más universales que potencian la producción de orden en el universo (Swenson 1988; Swenson y Turvey 1991).


2.3 Características de los sistemas complejos  

Cada una de las características antes enumeradas se ha propuesto como una característica esencial de los sistemas complejos; esto es, en cada caso, se sostiene que esta característica es necesaria y suficiente para la identificar los sistemas complejos o medir la complejidad. Sin embargo, con frecuencia se considera que también otras características son indicadores de complejidad, incluso si por sí mismas no son suficientes para definir o medir la complejidad. Estas características pueden verse como algo menos que esenciales, o porque se consideran como necesarias pero no suficientes para la complejidad o porque se consideran como consecuencias naturales de la complejidad y no como rasgos intrínsecos (v. g., véase Ladyman et al. 2013 sobre por qué la forma de “pico” de la complejidad es una consecuencia de otros rasgos). Por otra parte, dada la diversidad de puntos de vista sobre la complejidad, algunos de los rasgos siguientes podrían aceptarse como definitorios, así como algunos rasgos antes mencionados podrían relegarse a una condición secundaria, no esencial.

  1. La organización jerárquica es considerada por muchos como el sine qua non de los sistemas complejos (v. g., Ladyman et al. 2013, 60-62), aunque todavía no se ha podido alcanzar una definición suficientemente precisa y completa de la misma (Lane 2006 ofrece una útil discusión de los principales puntos de vista). Herbert Simon ha anticipado en un influyente artículo que la complejidad podría definirse en términos de una jerarquía “proximamente descomponible” de subsistemas anidados (1962), pero su criterio de “descomposición próxima” es rechazado por aquellos que definen la complejidad de los sistemas no lineales como una jerarquía no descomponible (v. g., Bishop 2011; Moreno et al. 2011, 314; véase también Hooker 2011c sobre la “irreductibilidad” de los sistemas complejos). Incluso dentro de dominios limitados de aplicación —como la complejidad estructural de los organismos— es difícil conseguir definiciones y mediciones de jerarquía ampliamente aceptadas (McShea 2001). Por ejemplo, se observa con frecuencia que los sistemas complejos exhiben patrones de organización estructural semejantes a los fractales, en múltiples escalas, pero es posible que las mediciones matemáticamente precisas de dimensionalidad fractal no sean del todo aplicables a los sistemas vivos (Mitchell 2009, 103-109). Además, las mediciones de la complejidad jerárquica no necesariamente reflejan las propiedades dinámicas propias de los sistemas complejos, especialmente aquellas en cuyos procesos en distintas escalas de tiempo interactúan estrechamente. Por último, ciertos sistemas que parecen presentar ejemplos importantes de complejidad —en particular, los sistemas sociales y los ecosistemas, pero quizá también los sistemas neuronales—pueden no estar gobernados por una sola organización jerárquica, es decir, pueden ser caracterizados por la heterarquía, o por formas de jerarquía constantemente cambiantes (Lane 2006).
  2. Los científicos y divulgadores de la ciencia de la complejidad han afirmado con frecuencia que la emergencia es una característica definitoria de los sistemas complejos y un tema central de la ciencia de la complejidad (Holland 1998; S. Johnson 2001), pero una inspección más de cerca revela una variedad desconcertante de ideas acerca de lo que realmente implica la emergencia. Muchas de las definiciones de emergencia en los sistemas complejos se refieren sólo a lo que es emergente desde nuestro punto de vista —en general, estas definiciones tienen que ver con la dificultad o imposibilidad para predecir o extrapolar las propiedades o la conducta del sistema a partir de lo que se sabe sobre los componentes del sistema (véase Hooker 2011a; 2011c; Bishop 2011). Por otra parte, quienes definen la emergencia en términos epistémicos pueden, al definir los componentes, explícita o implícitamente, descartar la emergencia ontológica o ser agnósticos al respecto. Es posible ofrecer una definición más precisa de emergencia ontológica en términos de ruptura de la simetría (v. g., Anderson 1972) o bifurcación (v. g., Hooker 2011a, 28), pero hasta el momento no hay consenso sobre estas definiciones. En filosofía de la ciencia la emergencia y su hermana, la reducción, son temas muy controvertidos, y quien espere de la ciencia de la complejidad una solución rápida y sencilla a estos asuntos probablemente se verá decepcionado. Como han advertido Ladyman et al. (2013, 41), “estas cuestiones no se resolverán en passant, al caracterizar la complejidad.” Por otra parte, no puede ignorarse la pregunta sobre la emergencia de los sistemas complejos, y parece que considerar con cuidado los ejemplos de complejidad o los métodos e instrumentos de la ciencia de la complejidad puede contribuir a articular conceptos de emergencia y de sus condiciones más refinados (v. g., Hooker 2011c).
  3. Como ocurre con el de emergencia, el concepto de auto-organización se usa ampliamente en relación con los sistemas complejos, pero rara vez está bien definido (véase Keller 2009). Aunque en el caso de la auto-organización por lo menos tenemos claro un contraste: se supone que la mayoría de los artefactos no se auto-organizan sino que nosotros especificamos su orden (sea estructural o conductual). En realidad, hay dos ideas distintas y separables contenidas en el concepto de auto-organización. Una tiene que ver con el origen del orden, y corresponde más o menos a la diferencia entre sistemas “de instrucción” y “de selección” (Edelman 1987). El orden característico de un sistema auto-organizado no está prescrito por una fuente de instrucciones —una fuente de información, externa o interna, que codifique o bien encarne este orden de alguna manera (cf. Oyama 2000 [1985]). Más bien, el orden auto-organizado es el resultado de un proceso de selección basado en las interacciones que constituyen el sistema como tal (su “dinámica intrínseca”). La segunda idea es que la auto-organización es espontánea, o no forzada. Lo que hace esta segunda idea menos fundamental, quizá, es la falta de claridad sobre la diferencia entre la conducta espontánea y la forzada. Por ejemplo, algunos tipos de auto-organización pueden ser forzados, como cuando se añade calor a una capa de líquido para inducir la formación de las celdas de Rayleigh-Bénard. En tales casos, la diferencia entre el comportamiento forzado y el espontáneo puede ser insignificante, puesto que el parámetro de control (un gradiente de energía) funciona como una “influencia paramétrica no específica” (Kelso 1995, 16, 69, 137-138) —es decir, no especifica el orden resultante, sino que permite que el sistema “decida” cómo organizarse. Además, en la medida en que tales gradientes son necesarios para todos los procesos de auto-organización, lo que cuenta como conducta espontánea depende de las condiciones de equilibrio y los tipos de gradientes disponibles en el entorno circundante, y estas condiciones, o influencias paramétricas, se determinan en la mayoría de los casos con independencia del sistema. A menos que queramos hacer de la selección y el mantenimiento de estas condiciones un criterio para la auto-organización —una opción plausible en el caso de los sistemas vivos—parece arbitrario excluir los casos de auto-organización que provocamos al manipular los parámetros de control.
  4. La no linealidad se define en matemáticas en términos de no-aditividad: las interacciones son no lineales si las soluciones de sus ecuaciones dinámicas no pueden combinarse numéricamente para producir más soluciones (Hooker 2011a, 21-22; Bishop 2011). De este modo la no linealidad se relaciona con diversas propiedades detectables de la conducta del sistema, como ruido rosa (véase más adelante). No obstante, incluso cuando no hay descripciones dinámicas disponibles, la no linealidad se usa a menudo para expresar nociones más laxas de no aditividad, algo del estilo de “más es diferente.” Los sistemas dinámicos no lineales pueden usarse para investigar, describir y explicar una amplia gama de características que pueden considerarse como características decisivas de los sistemas complejos (Hooker 2011a), entre éstos están los cambios cualitativos de la conducta del sistema (las transiciones de fase) y la irreductibilidad del sistema (Hooker 2011c). La no linealidad puede usarse también para explicar los desafíos epistémicos especiales de los sistemas complejos sin equiparar la complejidad con la aleatoriedad. Sin embargo, aunque la no linealidad es, sin duda, una poderosa herramienta para analizar diferentes tipos de conducta del sistema, se discute si, y cómo, puede coincidir con la complejidad. Algunos consideran la no linealidad como la característica decisiva de los sistemas complejos (v. g., Manzier 1994); otros la consideran necesaria pero no suficiente (v. g., Schmidt 2011, 227); mientras que otros consideran que no es ni necesaria ni suficiente (v. g., Ladyman et al. 2013). Los que están en el tercer campo señalan a los modelos lineales de los sistemas complejos, aunque otros podrían objetar que tales ejemplos incurren en petición de principio. Mientras tanto, la no linealidad por sí misma parece demasiado inclusiva por ejemplo, si deseamos excluir los fluidos turbulentos (v. g., las nubes) o distinguir la vida de la no-vida, entonces la no linealidad es como mucho una característica necesaria pero no suficiente.
  5. Muchos consideran la adaptabilidad o capacidad de adaptación como un rasgo general de los sistemas complejos (Holland 1992; Mitchell 2009; N. Johnson 2009), mientras que otros la presentan como una forma de distinguir una clase especial de sistemas complejos, especialmente los sistemas vivos (v. g., Di Paolo 2005). La adaptabilidad podría verse como un tipo especial de robustez, que es la capacidad de un sistema para recuperarse de perturbaciones, otro rasgo que se supone que comparten en cierto grado la mayoría de los sistemas complejos, o todos ellos (v. g., Carlson y Doyle 2002). Por ejemplo, las celdas de convección de Rayleigh-Bénard pueden ser una forma bastante robusta de dinámica compleja, pero, en general, no se considera que esta robustez sea adaptativa. ¿Qué es entonces la adaptabilidad? Para empezar, debe aclararse que la adaptabilidad es la capacidad para adaptarse y, por tanto, no debe confundirse con la adaptación, que consiste en estar adaptado a un entorno particular; sin embargo, para definir la primera se requiere la última. En la biología evolutiva del siglo pasado, la capacidad de adaptación se define por lo general en términos de la aptitud reproductiva dentro de un nicho o entorno particular, y a menudo se la concibe como el alcanzar un grado óptimo o un punto máximo bien definido (véase Varela et al. 1991, 185-205). Recientemente, sin embargo, ciertos problemas con esta definición han dado lugar a conceptos más flexibles de adaptación basados en los requisitos mínimos de supervivencia y auto-mantenimiento en un entorno particular. Esta noción de adaptación más modesta parece reducirse a robustez, aunque puede mantenerse la diferencia introduciendo un criterio de autonomía, que se refiere a la capacidad del sistema para regular su propia dinámica constitutiva de acuerdo con normas de conservación y auto-mantenimiento (di Paolo 2005; Hooker 2011a, 35-36). Entonces, con respecto a este sentido de adaptación, la adaptabilidad es la capacidad de un sistema para establecer nuevos tipos de relación coordinada con su entorno —nuevos tipos de “acoplamiento estructural”—, en servicio de su propia existencia continuada como un sistema coherente. Esta perspectiva espera revelar una conexión entre la adaptabilidad, que es un rasgo funcional o conductual, y las formas de organización complejas que se encuentran entre el orden y el desorden. Por eso es de esperar que una aclaración ulterior de las condiciones organizacionales para la adaptabilidad nos diga algo sobre la naturaleza de la complejidad de la vida, así como sobre sus orígenes evolutivos.
  6. La degeneración, en el contexto de la biología y la física contemporáneas, se refiere a diferentes estructuras o configuraciones estructurales que son capaces de realizar la misma función o una similar (v. g., las secuencias múltiples de nucleótidos que “codifican” el mismo aminoácido, véase Edelman y Gally 2001; Mason 2010). Aunque muchos filósofos y científicos no logran reconocer la diferencia (Ladyman et al 2013; Kitano 2002b), es sumamente importante distinguir la degeneración de la redundancia, que se refiere a cierto número de estructuras idénticas que realizan la misma función (v. g., dos riñones). Tal como se aplica a un solo sistema, la degeneración apunta a una definición bastante sencilla de la complejidad del sistema, que sirve de puente a sus dimensiones estructurales y conductuales/funcionales: un sistema con diversas estructuras o configuraciones, pero “isofuncionales”, es estructuralmente más complejo que un sistema funcionalmente equivalente que no es degenerado. También es más complejo que un sistema equivalente con partes redundantes. Al mismo tiempo, es interesante observar que dentro de un único contexto funcional, la degeneración es “complejidad excedente” —en efecto, es desorden— y, como tal, no puede superar ciertos límites sin perjudicar la funcionalidad o amenazar la integridad del sistema. En la medida en que la degeneración ofrece un suministro seguro de “diversidad neutral”, en la que los procesos de selección pueden actuar como el contexto funcional de los cambios de un sistema, contribuye a especificar los rasgos de organización que subyacen a la adaptabilidad. Además, la degeneración puede definirse estrictamente en términos de teoría de la información en la medida en que se relacionen con la integración del sistema (véase más arriba; Tononi et al. 1999), conectando de este modo la degeneración con otros rasgos del orden complejo (como la agrupación o la conectividad de mundo pequeño).
  7. Criticalidad autoorganizada (SOC) y el ruido 1/f son propiedades relacionadas con la dinámica del sistema cercano a transiciones de fase o puntos críticos que a menudo se proponen como rasgos decisivos de los sistemas complejos (Bak 1996). El rasgo clave de la criticalidad es la invariancia de escala: los sistemas críticos carecen de una única escala de conducta característica debido a que muestran una gama similar de variabilidad en todas las escalas. Por ejemplo, se cree que los terremotos son fenómenos críticos debido a que su frecuencia varía de modo inversamente proporcional a su magnitud, de acuerdo con lo que se conoce como una distribución de la ley de potencias. El ruido 1/f o ruido rosa, es una forma común de invariancia de escala que se ha detectado en diversos sistemas vivos y está estrechamente asociado con la criticalidad, aunque puede surgir en otras circunstancias (Aguilera et al. 2015). Lo que es especialmente interesante acerca de los sistemas críticos no es sólo la invariancia de escala per se, sino varios rasgos de conducta que son intrínsecos a la criticalidad o que se siguen como consecuencia. La criticalidad se refiere a un tipo de dinámica global en la que las perturbaciones locales pequeñas se comunican con facilidad a todo el sistema y pueden dar lugar a cambios cualitativos súbitos e importantes en la configuración del sistema, como en las avalanchas y las caídas de los mercados. Sin embargo, mientras que el comportamiento de los sistemas críticos es altamente contingente y susceptible a las “sorpresas” (Bak 1996, 80), el estado de criticalidad mismo puede ser bastante estable y robusto frente a las perturbaciones. De hecho, parece ser ubicuo en la naturaleza. Las teorías de la criticalidad autoorganizada (SOC) intentan ofrecer una descripción dinámica que explique esta ubicuidad, mostrando cómo los sistemas se “auto-ajustan” hacia estados críticos. La investigación sobre complejidad en relación con la SOC está relacionada con el trabajo de Haken y Prigogine (y sus seguidores), ya que ambos enfoques tratan la complejidad como una característica de la dinámica no lineal de los sistemas alejados del equilibrio, pero el primero sugiere una definición más restrictiva de la complejidad y la autoorganización. Por lo tanto, en la física de no equilibrio, la complejidad puede atribuirse a toda la gama de conductas auto-organizadas (la aparición de la dinámica de coordinación, puntos de bifurcación, etc.) o puede restringirse a estados críticos cercanos a las transiciones de fase. Por otra parte, como se ha dicho, la complejidad auto-organizada puede incluir todos y cada uno de los efectos organizativos de influencias paramétricas no específicas —independientemente de que estas influencias sean “forzadas” o ajustadas de forma exógena— o puede restringirse a la auto-afinación hacia estados críticos.


3 La ciencia de la complejidad  

3.1 ¿Qué tipo de ciencia es la ciencia de la complejidad?  

¿Existe realmente una ciencia de la complejidad? O, suponiendo que exista, ¿es realmente una ciencia? Las respuestas varían dependiendo de qué es exactamente lo que se entiende por el término “ciencia”. ¿Hablamos de una disciplina institucionalizada con un objeto bien definido de estudio, un amplio consenso en formalismos matemáticos y programas doctorales dirigidos por profesores titulares especializados en complejidad? La ciencia de la complejidad no tiene actualmente ninguno de estos galardones de la “ciencia dura” institucional. Sin embargo, si nos referimos a algo mucho más laxo: un conjunto de programas científicos de investigación con intereses que se solapan, o un grupo de problemas similares que han surgido en múltiples campos, entonces es mucho más fácil afirmar que la ciencia de la complejidad existe. Pero quizá “ciencia de la complejidad” se refiere a algo más radical, pero también más difícil de definir: un movimiento revolucionario transdisciplinar (Prigogine 1980; Keller 2009; Hooker 2011a) compuesto por esfuerzos múltiples —independientes aunque vagamente comunes— para empujar los límites de la ciencia, establecer un nuevo tipo de ciencia (Kauffman 1990; Wolfram 2002), o transformar la manera en que se hace ciencia (Adami 2012; Schmidt 2011). En este artículo no se pretende decidir el estatus de la ciencia de la complejidad, en especial con respecto a estas posibilidades más radicales. Sin embargo, con el fin de comprender la naturaleza, el desarrollo y la importancia potencial de todo lo que se incluye en el nombre de la ciencia de la complejidad, es necesario tener en cuenta estas aspiraciones más revolucionarias.

Como punto de partida, al menos puede afirmarse la aparición de una nueva ciencia de la complejidad en la medida en que puede señalarse la reciente proliferación masiva de programas de investigación científica que se describen a sí mismos como involucrados en la investigación de la complejidad, por no hablar de los diferentes centros, revistas y conferencias dedicadas a promover la investigación de la complejidad (véanse los recursos en el sitio web Complexity Explorer). Dentro de este amplio y diverso panorama, es posible identificar al menos cuatro orientaciones teóricas distintas que constituyen los núcleos principales para investigar la complejidad: los sistemas dinámicos no lineales (Prigogine 1980; Nicolis y Prigogine 1989; Haken 1978; 1988; 2012; Kelso 1995; Hooker 2011a), la teoría computacional (Holland 1992; 1994; 2014; Wolfram 2002; Mitchell 2009), la teoría de la información (Tononi et al. 1998; Prokopenko et al. 2009), y la teoría de redes (Barabási 2002; 2012; 2016; Sporns 2011). Aunque la primera de estas perspectivas teóricas está estrechamente relacionada con la física, ninguna pertenece exclusivamente a una disciplina: por ejemplo, puede haber físicos y neurocientíficos trabajando con los cuatro enfoques, y muchos científicos trabajan con más de uno. Además, hay muchos vínculos activos entre estos núcleos, y gran parte del trabajo teórico en la ciencia de la complejidad está dedicado a encontrar la manera para poder integrarlos.

Por otra parte, es importante estar atento a las diferencias de perspectiva —posiblemente profundas— que informan estos enfoques (v. g., véase en Keller 2009, un análisis de cómo tras la bandera de la “auto-organización” quedan ocultos distintos enfoques). Por ejemplo, tal vez parte de la incoherencia que continúa aquejando al campo de la ciencia de la complejidad puede atribuirse a las diferencias de perspectiva que acompañan al enfoque computacional y al enfoque dinámico no lineal, respectivamente. Ambos enfoques fueron desarrollados antes que la ciencia de la complejidad y pueden reclamar un papel clave en su aparición. Estas perspectivas no son necesariamente rivales: los ordenadores son indispensables para la investigación de la dinámica no lineal, y algunos teóricos de la complejidad, como el físico Stephen Wolfram (2002), han afirmado que los mecanismos fundamentales que subyacen a todos los sistemas son de naturaleza computacional (véase también Green y Leishman 2011). Pero especialmente cuando la formación de patrones en los sistemas dinámicos no lineales se usa para definir la complejidad —como en la obra de Ilya Prigogine (1980) y Hermann Haken (1978)— parece extenderse a nociones de complejidad y de ciencia de la complejidad muy distintas de las que se derivan la perspectiva computacional.

Compárese, por ejemplo, cómo Wolfram describe la intuición fundacional de la ciencia de la complejidad en su manifiesto A New Kind of Science (2002), a saber, que la conducta compleja puede surgir de operaciones simples (Wolfram 2002, 2), con la afirmación de Prigogine acerca de que la complejidad preconiza una nueva revolución científica que se convierte en el rechazo de la “simplicidad de lo microscópico” (1980, xiii). Para que quede claro: Wolfram no afirma que las partículas elementales sean simples —muy probablemente está de acuerdo con Prigogine en que no lo son. Más bien, su tesis es que los procesos fundamentales de la naturaleza, incluidos los que subyacen a la física de partículas, son operaciones simples basadas en reglas. Sin embargo, estas dos perspectivas parecen, al menos en la superficie, representar intuiciones muy distintas acerca de la naturaleza y la base de la complejidad (véase la sección La complejidad combinatoria y de coordinación, más abajo). A riesgo de caricaturizarla, podría decirse que, si bien la opinión de Wolfram conserva la noción atomística clásica de una realidad simple e inmutable que subyace al cambio y la complejidad, el énfasis de Prigogine sobre la complejidad como heterogeneidad emergente es una reminiscencia de las cosmogonías antiguas en la que la fuente que subyace al orden no es algo simple y definido, sino más bien —aunque en cierto sentido pueda ser simple— es algo indiferenciado y amorfo. El propio Prigogine parece sostener un contraste similar en el título de uno de sus libros más famosos From Being to Becoming (1980). Por supuesto, otra discusión muy distinta es si Prigogine ha logrado establecer una nueva ciencia del devenir (cf. Unger y Smolin 2015).

Dejando de lado las cuestiones metafísicas, la comparación de dos estudios recientes muy refinados en este ámbito sugiere un hiato entre la perspectiva computacional y la de la física del no equilibrio. En su libro, Complexity: A Guided Tour (2009), la científica computacional Melanie Mitchell hace hincapié en los enfoques computacional y de teoría de la información, pero aunque también dedica algunos de los capítulos a la ciencia de redes y a los sistemas dinámicos, la obra de Prigogine y Haken sobre sistemas alejados del equilibrio está relegada a un solo párrafo en el capítulo final (y en ninguna parte se mencionan las células de Rayleigh-Bénard, el ejemplo canónico de la auto-organización en la física de no-equilibrio). Mientras tanto, en el capítulo introductorio del volumen que ha editado, Philosophy of Complex Systems (2011), el físico convertido en filósofo Cliff Hooker invierte esta prioridad, dedicando la mayor parte de su atención a los fenómenos de la física de no-equilibrio (inestabilidades, ruptura de la simetría y temas similares), mientras que apenas menciona los autómatas celulares y otros conceptos básicos del enfoque computacional. ¿Indican estas diferencias de perspectiva nociones diferentes de complejidad que están fundamentalmente en desacuerdo, o simplemente reflejan trasfondos disciplinarios?

La dificultad para responder a estas preguntas es un síntoma de la inestable situación del campo. En consecuencia, si bien es fácil señalar ejemplos particulares de la ciencia de la complejidad, cualquier intento de caracterizar el campo en su conjunto debe ser provisional. La razón principal para ser circunspecto es que no puede decirse con certeza qué sea la complejidad, lo que significa que no podemos asegurar que las diversas ramas de investigación sobre la complejidad se interesen en lo mismo. Esta ambigüedad no es un secreto ni un escándalo; en general se admite que no hay una definición de complejidad comúnmente aceptada (Mitchell 2009, 94-111; Adami 2002; Lloyd 2001; Gershenson 2008); pero ahora, la actitud general es que esta constante falta de consenso no debe verse como un motivo de reparo. Más bien, el desafío de formular una definición adecuada de la complejidad parece haberse convertido en parte de la actividad normal de hacer ciencia de la complejidad. Pero, ¿puede avanzar la ciencia de la complejidad sin una definición de su objeto?

Entre los que responden afirmativamente, algunos señalan que muchos conceptos científicos importantes no tienen una definición precisa y ampliamente aceptada (Ladyman et al. 2013, 34; Mitchell 2009, 95). Por ejemplo, los biólogos no tienen una definición ampliamente aceptada de la vida, y en la física el concepto de fuerza sigue siendo un poco nebuloso. No obstante, esta comparación es un poco engañosa. Aunque los biólogos pueden no tener una definición satisfactoria de la vida, la actividad principal de la biología no es definir la vida per se, sino entender cómo funcionan los sistemas vivos y, excepto algunos casos límite, los biólogos no tienen dificultades para identificar qué sistemas caen bajo su alcance. En física, puede ser difícil imaginar qué sean las fuerzas en términos de la ontología estándar (o por defecto) de sustancias localizadas, pero por lo general están muy bien definidas en términos pragmáticos —es decir, en términos de sus efectos sobre, y sus relaciones con, otras variables—, y sólo se utiliza si su definición se refiere a los efectos medibles. Mientras tanto, hay una asombrosa variedad de sistemas que sirven para ejemplificar complejidad: Internet, las colonias de hormigas, el cerebro consciente, las celdas de convección o los tornados… En la medida en que los científicos no se pongan de acuerdo sobre qué hace que un sistema sea complejo, no se puede delimitar su campo de estudio. Pero lo más importante es que no pueden ponerse de acuerdo en una medida estándar, lo que, podría decirse, es un requisito básico para hacer ciencia.

Sin embargo, si tenemos en cuenta la aparición de la ciencia de la complejidad en su contexto histórico, puede argumentarse que la demanda de una definición precisa de complejidad pone el carro delante del caballo. No hubo un momento decisivo en el que un número de científicos declarara que algo llamado “complejidad” necesitaba por sí misma una ciencia nueva. Aunque es verdad que un pequeño grupo de científicos pedían explícitamente una ciencia de la complejidad a mediados del siglo 20 (Weaver 1948; Simon 1962), es más exacto decir que el término “complejidad” surgió en la década de 1980 como una etiqueta conveniente para un conjunto de problemas interrelacionados que se estaban encontrando en todas las disciplinas científicas y que parecía exigir un nuevo enfoque interdisciplinar o tal vez incluso una nueva forma de hacer ciencia. Por otra parte, la etiqueta se aceptó en parte debido a la influencia del Santa Fe Institute, el instituto de investigación más antiguo dedicado a la ciencia de la complejidad, y todavía el más importante. Pero incluso el Santa Fe Institute no comenzó con la “complejidad”: los primeros informes sobre el Instituto describían su trabajo en relación con la teoría del caos (Crutchfield et al. 1986; véase Keller 2009, 17). Según se describe en la historia de Waldrop (1992), cuando el Santa Fe Institute se fundó en 1984, la decisión de adoptar la “complejidad” como su centro de interés llegó un poco más tarde, después de una serie de largas conversaciones entre figuras destacadas de la física, la economía y la biología sobre los desafíos fundamentales en sus respectivas disciplinas; desafíos que no pueden resumirse fácilmente en un solo párrafo, y mucho menos una sola palabra.

En consecuencia, la “complejidad” en la ciencia de la complejidad puede entenderse mejor como un término general para una amplia gama de fenómenos que han eludido hasta ahora ser explicados mediante los métodos científicos tradicionales. Por supuesto, tampoco hay un modo único, incontrovertible, para definir “la ciencia tradicional” o sus limitaciones. Y ciertamente la ciencia de la complejidad no se define por un consenso sobre este tema. Con todo, el problema de definición parece menos problemático —o más bien, su dificultad es más comprensible—, si se considera que el impulso de la ciencia de la complejidad viene del esfuerzo por ampliar los límites de la explicación científica estándar, o, tal vez, por establecer un conjunto diferente de métodos y normas. Es decir, tal vez el objeto de la ciencia de la complejidad no es un dominio de la investigación —nuevo pero mal definido—, sino que más bien está constituido por las fronteras superiores de dominios existentes de la investigación científica, i. e., cualquier tipo o grado de complejidad que hasta ahora haya demostrado ser inabordable mediante métodos estándar de experimentación o representación matemática (véase Schmidt 2011; Adami 2012). En este caso, no debería sorprender que la “complejidad” de la ciencia de la complejidad haya eludido hasta ahora una definición precisa: si es que se trata de la naturaleza y los límites de la explicación científica, probablemente es bueno que haya cierto desacuerdo.

Por otro lado, aunque muchos de sus defensores sostienen que la ciencia de la complejidad marca un punto de inflexión en la evolución de la ciencia moderna, vale la pena repetir que el carácter revolucionario de la ciencia de la complejidad es todavía una cuestión abierta. Como se verá más adelante, esta pregunta se convierte en parte en una pregunta acerca del grado en que pueden matematizarse los fenómenos complejos, es decir, si la ciencia de la complejidad va más allá del alcance de la representación matemática o está simplemente a la espera de una nueva clase de matemáticas. Considerar esta pregunta seriamente queda fuera del alcance de este artículo. Sin embargo, es importante tener en cuenta cómo los diversos conceptos de la complejidad y la ciencia de la complejidad pueden ponerse en relación con los esfuerzos para ampliar o transformar la base matemática de la explicación científica moderna. Para ilustrar esto, puede considerarse una definición estándar de la complejidad.


3.2 Cuatro maneras de definir la ciencia de la complejidad como algo nuevo  

Una de las formas más comunes de definir la complejidad —aunque de ningún modo la única (véase sección 2.2)— es decir que tiene que ver con sistemas que constan de muchos componentes que interactúan de forma no trivial (v. g., Simon 1962, 468). Los adjetivos “muchos” y “no trivial” son vagos y deben ser tratados con precaución (Prokopenko et al. 2009, 11), al igual que la implicación de que los componentes pueden ser definidos antes y con independencia de sus interacciones sistémicas. No obstante, para los propósitos presentes, la vaguedad de esta definición es útil, ya que deja espacio para múltiples interpretaciones.

Ahora, a diferencia de esta definición de complejidad, puede decirse que la ciencia moderna ha tratado más exitosamente con sistemas que comprenden un número pequeño de componentes o sistemas con muchos componentes que interactúan de formas triviales (Weaver 1948). Esta última afirmación pasa por alto algunos casos importantes. Por ejemplo, la teoría de la selección natural de Darwin no se ajusta a esta descripción y es sin duda una de las teorías más exitosas de la ciencia moderna. Además, hay quienes sostienen que las ciencias biológicas en su conjunto representan un enfoque diferente, centrado en la descripción de funciones, estructuras y su interrelación, y que ha gozado también de notable éxito durante el siglo pasado (Moreno et al. 2010, 312; cf. las observaciones de Kaneko sobre la “enumeración” en biología: 2006, 31-32). Pero admitamos que los tipos de ciencia moderna más célebres —los que merecen distinguirse como ciencia “dura”— son aquellos que han conseguido unir modelos matemáticos y datos medidos con precisión. De hecho, un buen modelo matemático ofrece más que una aproximación ajustada de los datos: también hace predicciones que pueden ser confirmadas empíricamente. Un ejemplo clásico de este tipo de éxito científico es el famoso experimento del eclipse solar de 1919, que confirmó las predicciones de la teoría general de la relatividad de Einstein.

Tales logros son el estándar de oro de la comprensión científica, el ideal al que aspiran todas las disciplinas científicas. Sin embargo, una limitación crucial de este tipo de ciencia es que, para que los modelos matemáticos funcionen, se debe poder resolver sus ecuaciones dinámicas, lo que a su vez requiere que estas ecuaciones se formulen. Históricamente, esto ha significado que los modelos matemáticos exitosos incorporen sólo un número limitado de variables y que para ser modelado el sistema se identifique fácilmente como una forma de dinámica única cuyas ecuaciones diferenciales tienen solución. Un famoso ejemplo de esta limitación es el “problema de los tres cuerpos,” desarrollado en principio en relación con los movimientos de tres cuerpos celestes, y que sólo puede resolverse en ciertos casos. La mecánica estadística, que se ocupa de sistemas con un gran número de componentes (v. g., gases), no es una excepción a esta dificultad, ya que su éxito explicativo depende de prescindir de los comportamientos individuales de los componentes del sistema para que puedan ser descriptos en masa con sólo unas pocas variables. Otra limitación es que los sistemas descriptos de esta manera deben estar en un estado cercano al equilibrio, estable, lo que elimina un enorme conjunto de fenómenos naturales, incluyendo todos los sistemas vivos (véase Hooker 2011a; Schmidt 2011).

En suma, lo que significa “interacciones no triviales” en la descripción de complejidad al principio de esta sección se muestra por el hecho de que la simplificación estadística de las interacciones de los componentes no funciona para muchos sistemas. Sobre la base de esta limitación, podría decirse que un sistema complejo es aquel cuya conducta requiere para su descripción un mayor número de variables de las que actualmente sabemos cómo manejar. Esto quizá no es una descripción muy satisfactoria de la complejidad, pero puede servir como punto de partida. En efecto, si tomamos esta limitación como el problema básico de la complejidad, es posible distinguir varias estrategias distintas para tratar la complejidad, y cada una constituye una versión diferente del punto de inflexión que supone la nueva ciencia de la complejidad. Estas estrategias generalmente caen en una de las siguientes cuatro categorías:

  1. La respuesta más directa es el uso de ordenadores para resolver ecuaciones con más variables. Si esto fuera todo lo que implicara la ciencia de la complejidad, casi no merecería ser distinguida como un campo nuevo. Por supuesto, puede decirse que las computadoras han revolucionado la ciencia en la medida en que han transformado la forma en que se hace la ciencia y han permitido a los científicos modelar un sinnúmero de fenómenos que antes estaban fuera de su alcance. Pero puesto que los ordenadores sólo amplían el alcance de las teorías estándar preexistentes y de las herramientas matemáticas para el análisis cuantitativo de sistemas dinámicos estables, su uso no constituye un punto de inflexión radical, y menos un nuevo tipo de ciencia. La complejidad, en este caso, es sólo un problema de procesamiento de números.
  2. Un movimiento más ambicioso —que muchos creen que constituye el giro crucial de la ciencia de la complejidad (v. g., Mainzer 1994; Hooker 2011a; Schmidt 2011)— es el que emplea herramientas matemáticas nuevas para modelar un conjunto de sistemas más amplio, especialmente sistemas marcados por la inestabilidad y por cambios de forma dinámica. Este enfoque se ejemplifica mejor con la aplicación de la dinámica no lineal de sistemas alejados del equilibrio iniciado y popularizado por Hermann Haken, Ilya Prigogine y otros (Haken 1978; Prigogine 1980; Jantsch 1980). Aunque los modelos no lineales por lo general tienen menos poder predictivo de los modelos lineales clásicos (véase Schmidt 2011, 234-238), puede decirse que conservan muchas de las normas básicas de la ciencia matemática “tradicional”, ya que todavía pueden hacer predicciones verificables sobre importantes características cualitativas de la conducta del sistema, tales como cambios de régimen marcados por puntos de bifurcación y otras características relacionadas con la dinámica no lineal (Schmidt 2011, 242-244). La complejidad, en este caso, se refiere a la “emergencia” o “auto-organización” de los patrones cualitativos de la conducta del sistema, un fenómeno que presenta desafíos teóricos, matemáticos y empíricos especiales, no solamente un mayor número de variables.
  3. A pesar de las innovaciones descriptas, en la práctica muchos sistemas de interés aún no pueden matematizarse. En consecuencia, muchos científicos de la complejidad han recurrido al desarrollo de simulaciones por ordenador cuya ejecución constituye una especie de experimento virtual de Wolfram (2002; Green y Leishman 2011, 144-149; Adami 2012). La predicción queda aún más restringida mediante este enfoque, por lo que es difícil verificar si la simulación captura realmente la dinámica subyacente al fenómeno que se pretende explicar (en lugar de simplemente imitar su conducta). Más bien, la ciencia avanza a través de “demostraciones conceptuales”: simulaciones que demuestran que la naturaleza podría trabajar de esta manera. La complejidad, en este caso, se refiere a la manera llamativa e impredecible en que surge la conducta de un sistema a partir de muchos componentes simples que interactúan de acuerdo con reglas simples.
  4. Por último, algunos teóricos de la complejidad argumentan que en muchos casos importantes (especialmente en los sistemas vivos) la dinámica anterior de un sistema no implica necesariamente la conducta emergente, lo que significa que el comportamiento emergente, en principio, no puede representarse matemáticamente, ni siquiera mediante simulación por ordenador (v. g., Kauffman 2016). Este planteo representa una ruptura con toda comprensión algorítmica o basada en reglas de los mecanismos fundamentales de la complejidad. Con respecto a este tipo de formas radicales de emergencia, la ciencia debe limitarse a tipos de explicación retrospectivos o históricos. En un nivel más general, la ciencia sólo puede aspirar a determinar los principios básicos que rigen la aparición de entidades y conductas cualitativamente novedosas o a las “meta-leyes” que constriñen la evolución de las leyes locales, dependientes de condiciones (Unger y Smolin 2015 ). Complejidad, en este caso, se refiere a la emergencia radical y la novedad, es decir, a conductas que (antes de emerger) no están implicadas como posibilidades definidas dentro del espacio de estado de un sistema.

Uno no está obligado a elegir entre estas opciones —es posible adoptar las cuatro— dependiendo del sistema o conducta en cuestión. Sin embargo marcan formas muy diferentes en que se puede definir la ciencia de la complejidad como un nuevo tipo de proyecto explicativo que intenta hacer frente a sistemas que involucran a un gran número de componentes que interactúan de modo no trivial. En consecuencia, surgen maneras distintas en las que la ciencia de la complejidad va más allá de las limitaciones de la ciencia dura tradicional; que, de nuevo, no se caracteriza fácilmente (aunque con frecuencia se ha caricaturizado como buscando una descripción matemática que pueda caber en una camiseta). Además, estas cuatro respuestas pueden usarse para aclarar otras diferencias de perspectiva que recorren la panoplia de la ciencia de la complejidad.


3.3 Distintas perspectivas en ciencia de la complejidad  

3.3.1 Matemáticas y complejidad  

En primer lugar, está el tema de los fundamentos matemáticos (Hooker 20011a; 2011b). Como se ha dicho, una de las cuestiones centrales no resueltas de la ciencia de la complejidad es si determina una transición importante dentro de la ciencia matemática (v. g., Schmidt 2011) o el inicio de una especie diferente de la ciencia que, aceptando los límites de la ciencia matemática, adopta un conjunto nuevo de herramientas de investigación y normas explicativas, que, sin embargo, podrían ser similares a las matemáticas por su dependencia de operaciones basadas en reglas (Adami 2012; Wolfram 2002). En la actualidad la ciencia de la complejidad incluye ambas opciones y esta situación podría continuar indefinidamente. Sin embargo, es importante tener en cuenta la existencia de puntos de vista contrastantes dentro del campo: algunos creen que para tener una ciencia de la complejidad madura y unificada es necesario establecer un marco matemático o un formalismo completo, mientras que otros creen que el desafío de fondo de la ciencia de la complejidad es aprender cómo hacer ciencia física rigurosa más allá de los límites de la representación formalizada. Se trata de orientaciones muy distintas para el futuro de la ciencia de la complejidad, aunque no son estrictamente incompatibles; cada una puede construir sobre los avances de la otra.


3.3.2 Ciencia computacional y complejidad  

El papel de los ordenadores en la ciencia de la complejidad está estrechamente relacionada con el primer tema (Green y Leishman 2011). Como se ha señalado, los ordenadores se han convertido en una herramienta indispensable para todo tipo de ciencia, pero en el caso de algunos campos —y la ciencia de la complejidad es sin duda uno de ellos— se ha desdibujado la diferencia entre usar ordenadores para modelar procesos naturales y estudiar los programas informáticos como ejemplos de procesos naturales, haciendo de la ciencia computacional una especie de ciencia natural (Denning 2007). Como se ha dicho, muchos teóricos de la complejidad —especialmente en el campo de la vida artificial— han aceptado las simulaciones por ordenador como su principal modo de investigación, y algunos afirman la naturaleza computacional de los procesos naturales (Wolfram 2002; Mitchell 2009, 156-158; Green y Lieshman 2011, 149-152). Esta visión recuerda el modo en que la ciencia computacional y la imagen de la mente como procesamiento de información dominaba la ciencia cognitiva durante la segunda mitad del siglo XX, en la medida en que se asumía en general que el cerebro era un ordenador y que el objetivo de la neurociencia cognitiva era solamente determinar de qué tipo. Los fracasos de la inteligencia artificial, junto con los avances en neurociencia, han llevado a muchos a abandonar este punto de vista, o al menos ser más comedidos sobre las conclusiones que pueden extraerse de un modelo computacional. En ciencia de la complejidad esto también es todavía una cuestión abierta: ¿Es mejor considerar la realidad al nivel más profundo como computacional o algorítmica? ¿O los sistemas estudiados por la ciencia computacional constituyen una clase especial?


3.3.3 Complejidad epistemológica y ontológica  

Estos dos últimos temas —el papel de las matemáticas y el de las ciencias de la computación— apuntan a un asunto más general, a saber, la diferencia entre lo que podrían llamarse las perspectivas epistemológica y ontológica de la complejidad. La primera tiene que ver con cuestiones de predictibilidad, con errores de medición y con los límites de la representación matemática o la simulación computacional. La segunda tiene que ver con las explicaciones causales y la fundamentación teórica, es decir, con cualquier intento de explicar la complejidad en términos de una dinámica subyacente, mecanismos o propiedades básicas de la naturaleza. La mayor parte de la ciencia de la complejidad implica una combinación de puntos de vista epistemológicos y ontológicos que pueden no distinguirse claramente. Entre las cuatro formas de definir la ciencia de la complejidad antes enumeradas, sólo la cuarta sostiene una tesis ontológica explícita sobre la complejidad (que, no hace falta decirlo, puede ser bastante difícil de verificar). La segunda y la tercera podrían ser usadas como base para diversas aserciones ontológicas, o pueden mantenerse neutrales tanto con respecto a los mecanismos subyacentes de la complejidad, como con respecto a las preguntas metafísicas sobre el determinismo, la novedad, la reducción y la emergencia. Como se explica en la sección anterior, muchas definiciones de complejidad son esencialmente de naturaleza epistemológica (v.g., relativas a nuestra dificultad para describir algo), mientras que otras, las definiciones ontológicas pasan por alto nuestras limitaciones epistémicas (v.g., se refieren a características que nos resulta imposible medir). No obstante, la mayoría de los teóricos de la complejidad creen que la definición ideal de complejidad describe una característica objetiva —esto es, una característica relativamente independiente del observador— que además es medible.


3.3.4 Complejidad combinatoria y complejidad de coordinación  

Entre las diversas interpretaciones ontológicas o causales de la complejidad, es posible hacer una distinción ulterior entre lo que se pueden llamar las nociones “combinatoria” y “de coordinación” de la complejidad. La “complejidad combinatoria” y “complejidad coordinativa” no deben tomarse como posiciones bien definidas, no se diga como términos técnicos. Más bien se sugieren aquí como una forma de marcar una amplia y potencialmente profunda diferencia entre intuiciones y enfoques acerca de la complejidad.

La complejidad combinatoria tiene que ver con la explosión de posibilidades combinatorias —incluyendo patrones (inesperadamente interesantes) de la conducta del sistema como un todo— que puede resultar de los componentes simples y las reglas de interacción (cf. Lane 2006, 90). Un claro ejemplo de complejidad combinatoria es el ajedrez, que produce una variedad aparentemente ilimitada de juegos posibles y, por tanto, de entretenimiento sin fin, a partir de sólo 64 escaques, 32 piezas, y un pequeño conjunto de reglas. En términos generales, los “componentes simples” de los sistemas combinatorios son componentes cuyo repertorio conductual (o “dinámica intrínseca”) permanece más o menos inmutable en el contexto interactivo y por eso pueden describirse sucintamente mediante un conjunto de reglas. Un requisito típico para este tipo de simplicidad, y por lo tanto una premisa común de los enfoques combinatorios, es que las interacciones entre los componenciales están bien definidas, y limitadas a los “vecinos más cercanos.” Cuando se cumplen estas condiciones —esto es, cuando puede mostrarse que las interacciones componenciales son fijas, limitadas y bien definidas—, podemos estar seguros de que la complejidad en el nivel sistémico corresponde sólo a los patrones combinatorios.

En cambio, la complejidad de coordinación tiene relación con la manera en la que los patrones de conducta sistémica surgen a partir de cierta coordinación espontánea, o de interrelaciones entre componentes que de otro modo operarían sin coordinación o de forma independiente. Un ejemplo informal, cotidiano, de complejidad de coordinación podría ser las diferentes agrupaciones espontáneas que surgen cuando muchos niños juegan juntos en un espacio cerrado. La intuición es que un gran número de componentes que interactúan no dan lugar a un comportamiento complejo a menos que esta interacción de lugar a patrones a gran escala o a un “orden de largo alcance” (Nicolis y Prigogine 1989, 6) Los patrones en la convección de Rayleigh-Bénard constituyen el ejemplo por excelencia de la complejidad de coordinación (véase más arriba). La complejidad de coordinación se parece a la complejidad combinatoria en muchos aspectos —por ejemplo, la conducta del sistema no puede predecirse fácilmente a partir del conocimiento sobre los componentes individuales—, pero en el caso de la coordinación no es necesario suponer que los componentes sean simples. Por el contrario, la interpretación más usual es que las formas complejas de la conducta del sistema se deben a las constricciones interactivas sobre el comportamiento individual, de modo que el comportamiento individual se define o conforma por el sistema como un todo. Por lo tanto una diferencia potencialmente profunda se refiere a la naturaleza variable de la interacción componencial en los sistemas coordinativos: Los físicos señalan que la aparición de ciertos tipos de conducta compleja van acompañados de cambios en el alcance de la interacción (Nicolis y Prigogine 1989, 13, 41-43; cf. Bak 1996, 51, 60; Bishop 2008). Esta es una cuestión crucial, ya que implica que los componentes mismos pueden cambiar —o incluso ser determinados como tales—de acuerdo con el contexto sistémico de interacción. Si este es el caso, los sistemas de complejidad coordinativa deben ser no-descomponibles de un modo, al menos en principio, ajeno a los sistemas de complejidad combinatoria (sobre sistemas no-descomponibles, v. g., véase Silberstein y Chemero 2013).

No está claro, sin embargo, si los casos de coordinación de largo alcance deben interpretarse como un tipo de interacción causal de largo alcance o tal vez incluso como una especie de “causalidad formal”, como algunos han sugerido (Juarrero 1999; Deacon 2012). Con respecto a los patrones de convección de Rayleigh-Bénard, Nicolis y Prigogine observan que “todo sucede como si cada elemento de volumen estuviera observando la conducta de sus vecinos y la tomara en cuenta a fin de desempeñar su propio papel adecuadamente y participar en el patrón general” (1989, 13; cf. Bishop 2008). El “como si” en la última frase indica que ellos no pretenden que se tome literalmente como una afirmación acerca de mecanismos subyacentes. Pero bien vale la pena plantear la cuestión: ¿qué tipos de complejidad coordinada dependen claramente de que cada componente tenga “conocimiento” del sistema como un todo? Evidentemente, muchos tipos de coordinación social humana involucran este tipo de conocimiento. Pero también sabemos que muchos tipos de comportamiento coordinado, como los bancos de peces y las bandadas de aves, puede explicarse por interacciones simples con el vecino más cercano.

Mientras estas preguntas sigan pendientes, los enfoques combinatorios y coordinativos no pueden describirse como mutuamente excluyentes. No obstante, estos dos enfoques apuntan hacia diferentes modos de comprender los mecanismos y la dinámica que subyacen a la complejidad, y puede resultar que correspondan a tipos de complejidad sustancialmente diferentes. La cuestión clave puede no ser el alcance de la interacción en sí, sino el tipo de componentes que participan. Por ejemplo, una colonia de hormigas puede tomarse como ejemplo de la complejidad combinatoria sólo en la medida en que las hormigas individuales sirven como agentes relativamente simples que permanecen indiferentes al comportamiento de la colonia como un todo. Por el contrario, las interpretaciones coordinativas de la complejidad sugieren que los fenómenos relacionados de criticidad y ruido rosa (véase sección 2.3) son productos de una dinámica global que definen a los componentes como tales. Sin importar cómo esté mediado este tipo de dinámica global, parece que sus componentes no pueden ser simples; es decir, no pueden tener repertorios de conducta fijos, definidos de modo preciso.


3.3.5 Complejidad de organización y complejidad de conducta  

En esta sección, la revisión de la ciencia de la complejidad como un campo se ha anclado por una definición común, pero vaga, de sistemas complejos como comprendiendo “muchos” componentes que interactúan de una manera “no-trivial”. Sin embargo, nada se ha dicho hasta ahora sobre el carácter organizacional de los sistemas complejos, un defecto importante, teniendo en cuenta que gran parte de la ciencia de la complejidad está motivada por la observación de que la naturaleza se caracteriza por formas y patrones de organización recurrentes a lo largo de múltiples escalas (v. g., Solé y Goodwin 2000) . Una vez más se plantea el problema de la definición, ya que hasta ahora no hay una definición ampliamente aceptada de complejidad organizacional que separe los sistemas complejos del resto de la naturaleza. Muchos consideran que la organización jerárquica es el signo que revela la complejidad, pero es necesario especificar esta noción básica, intuitiva, porque es posible encontrar estructuras jerárquicas de algún tipo en todas partes y en cualquier escala, desde los átomos a los supercúmulos cósmicos (Ladyman et al. 2013, 62; Lane 2006).

Conviene notar que en el campo de la ciencia de redes tenemos un enfoque formal para estudiar la organización, provisto de su propio conjunto de herramientas matemáticas (Barabási 2016). Esta ciencia ha conducido a definir algunas propiedades de red de carácter general (v. g., el coeficiente de agrupamiento) que se han usado para caracterizar la organización de una gran variedad de sistemas biológicos y culturales. Estas definiciones incluyen candidatos a la propiedad que mejor caracteriza una “red compleja” (v.g., la conectividad del mundo pequeño o la conectividad libre de escala). De hecho, algunos autores creen que las mejores perspectivas para una teoría unificada de la ciencia de la complejidad se apoyan en la ciencia de redes (Green y Leishman 2011; Barabási 2012).

Por otro lado, es importante recordar la distinción antes expuesta (sección 1.3) entre la complejidad estructural, que corresponde a la organización de las características relativamente estables de un sistema (v.g., las sinapsis de una red neuronal), y la complejidad dinámica o conductual, que corresponde a los patrones de actividad del sistema que cambian en escalas de tiempo más cortas (v.g., patrones de actividad de la red neuronal). Es probable que estos tipos de complejidad estén estrechamente relacionados en muchos sistemas, y que la ciencia de la complejidad los trate a ambos, pero es importante tener en cuenta cómo se distinguen.

Por ejemplo, considérese la relación entre la complejidad y la diversidad. La complejidad organizacional o estructural puede definirse con respecto a la diversidad componencial de varias maneras (heterogeneidad de los componentes, modularidad, etc.), pero en cualquier caso se supone que la diversidad componencial está determinada de algún modo. Sin embargo, en el caso de la complejidad conductual, es más difícil definir el papel de la diversidad porque siempre está cambiando. Si tenemos en cuenta algunos de los sistemas conductualmente más complejos de la naturaleza —animales inteligentes, por ejemplo— la diversidad conductual es evidentemente muy alta, pero nunca se exhibe toda al mismo tiempo. Es decir, mientras que la diversidad conductual potencial de un animal inteligente es enorme, dentro de un contexto particular las conductas que pueden hacerse efectivas generalmente están limitadas por ese contexto. Esto es cierto incluso de la conducta humana (Barker 1968). Además, puede no ser realista pensar en el potencial total de diversidad conductual de un animal inteligente como si estuviera almacenado en algún lugar en el sistema nervioso, listo para el acceso y el uso (v.g., almacenado como un enorme catálogo de esquemas o secuencias conductuales). Más bien, parece que los sistemas conductualmente complejos son expertos en generar respuestas diversas de acuerdo con las constricciones de la situación que enfrentan. Se podría decir que la diversidad es algo que ellos crean, no que contienen, debido a que su potencial total de diversidad conductual está en gran parte indeterminado. Ahora bien, puede muy bien ser el caso de que los sistemas que son capaces de conductas diversas deban ser estructuralmente complejos, de un modo que también se caracterice por la diversidad. Pero el punto es que estos tipos de diversidad no son necesariamente los mismos, y no está claro cómo debemos mapear una en la otra.


4 Grandes preguntas en la ciencia de la complejidad  

4.1 La complejidad y el cosmos  

En la medida en que la noción más amplia de complejidad se refiere al orden anidado y jerárquico característico de nuestro universo en conjunto, tal vez es simplemente un modo nuevo de plantear la pregunta más antigua de la investigación cosmológica: ¿De dónde procede el orden de la naturaleza? Por tanto, podría argüirse que la cosmología es la ciencia que guarda la relación históricamente más profunda con la complejidad. Esta conexión puede no parecer evidente al principio, ya que los presocráticos —considerados por muchos como los padres de la cosmología en Occidente— no estaban preocupados por explicar la complejidad per se. Más bien, les interesaban sobre todo los patrones del orden, el cambio y la recurrencia que observaban a su alrededor en el mundo natural (Kragh 2007). Pero sin duda habrían reconocido que el tema de la complejidad era inherente a su noción básica del cosmos. Un cosmos es un todo ordenado; del mismo modo, el significado de origen de la complejidad tiene que ver con un gran número de objetos interrelacionados entre sí o, más literalmente, algo entrelazado o trenzado. En consecuencia podría decirse que el cosmos, sobre todo para los antiguos, es el complejo arquetípico.

Por supuesto, hay importantes diferencias que separan la cosmología antigua de la física cosmológica tardo-moderna con respecto a la complejidad. Entre muchas diferencias obvias se esconde la cuestión más sutil sobre el tipo de problema que la complejidad plantea a la explicación cosmológica. Como acaba de advertirse, los primeros cosmólogos probablemente asumían la complejidad como una característica de la naturaleza y estaban más interesados por explicar el tipo de orden complejo que observaban. Por el contrario, los cosmólogos modernos se han visto muy presionados para explicar el mero hecho de la complejidad misma. Esta diferencia se debe en parte al modo en que la física moderna ha ampliado considerablemente nuestra conciencia de las diversas maneras en que podría haber sido ordenado nuestro universo, de donde deriva el llamado “Problema de Ajuste fino” (Davies 2007). Debido a que el marco explicativo estándar de la cosmología moderna describe la naturaleza del orden en nuestro universo como dependiente de valores precisos de diversas variables fundamentales —leyes, constantes y condiciones iniciales— la complejidad del orden en nuestro universo parece depender de que estas variables estén “finamente ajustadas” de un modo extraordinariamente improbable si se considera el enorme abanico de posibilidades alternativas (Penrose 2004, 730). Se añaden a este problema las implicaciones de la segunda ley de la termodinámica, a saber, que el orden complejo actualmente observable es un producto anómalo de condiciones iniciales muy alejadas del equilibrio (o tal vez una fluctuación aleatoria), mientras que el final hacia el que el universo tiende espontáneamente es un estado de equilibrio desordenado muy poco complejo. En resumen: la complejidad de nuestro universo es especialmente desconcertante para la cosmología tardo-moderna porque dentro del marco explicativo actual se ve como un estado de cosas sumamente contingente y fugaz, y sobre todo, muy poco probable.

Algunos científicos han propuesto que la complejidad anómala de nuestro universo puede explicarse mediante el escenario del multiverso en el que se dan todas las diferentes clases de universos (Kragh 2007, 235-239; Davies 2007, 151-190). En este escenario nuestro universo sigue siendo improbable, pero no hay ninguna razón para la perplejidad: así como no hay que preguntarse por qué terminamos en la Tierra y no en Neptuno, no hay que preguntarse por qué terminamos en un universo tan complejo (porque sólo en tal universo es posible tener vida inteligente que puede reconocer la complejidad y preguntar por ella —lo que algunos llaman el “efecto de selección del observador”—véase Davies 2007). El escenario del multiverso aún no se ha verificado empíricamente, sin embargo, y en la medida en que puede ser imposible verificarlo, ha sido criticado como una hipótesis ad hoc extravagante, que no ofrece un verdadero avance explicativo (v.g., Unger y Smolin 2015). Una ruta alternativa, que constituye una de las ramas más especulativas de la ciencia de la complejidad, es la búsqueda de una ley o principio básico que conduzca la evolución de nuestro universo de modo que tienda hacia una mayor complejidad (Chaisson 2011; cf. Swenson y Turvey 1991). Tales teorías evolutivas son controvertidas, y cualquier discusión sustancial de sus méritos y defectos nos llevaría rápidamente a detalles técnicos más allá del alcance de esta revisión. Al igual que con otras discusiones sobre la complejidad, la pregunta cosmológica carece de un consenso sobre cómo definir y medir la complejidad, además de los numerosos retos empíricos propios de la física cosmológica (véase Lineweaver, Davis y Reese 2013).

Para cerrar este punto, vale la pena señalar que el problema de la complejidad en la cosmología toca una profunda cuestión filosófica que rara vez sale a la luz en otros sectores de la ciencia de la complejidad, a saber, la relación entre complejidad y valor. Como ha observado Paul Davies, “La verdadera pregunta es si el universo optimiza algo al evolucionar y, si es así, ¿qué es ese algo?” (2013, 38). Davies duda de que el universo se optimice hacia la complejidad, no obstante, llama la atención su apertura a la pregunta sobre la optimalidad en el contexto de la física fundamental. Volviendo a los antiguos, otra razón por la que su perspectiva es tan diferente de la de la física tardo-moderna es que sus nociones de orden estaban profundamente entrelazadas con las nociones de valor. La pregunta primordial en cosmología es la pregunta por el orden cósmico contemplado en el trasfondo del caos, y para esta perspectiva la bondad de este orden era en gran parte incuestionable (Ferré 1996). Por el contrario, en el contexto de la cosmología moderna, el orden complejo de nuestro universo es una propiedad desprovista de valor contemplada al lado de un sinnúmero de alternativas igualmente desprovistas de valor. Aun así, todavía persiste la idea de que la complejidad se relaciona de algún modo con el valor, y la pregunta de Davies sugiere que la ciencia de la complejidad tiene el potencial de traer de nuevo la pregunta sobre el valor al ámbito de la investigación natural.


4.2 Complejidad y vida  

Otra gran pregunta en la ciencia de la complejidad es la definición de la vida. Como se ha dicho, la mayor parte del campo de la biología ha podido avanzar sin una definición ampliamente aceptada, pero es necesario cubrir esta laguna para el desarrollo de ciertas líneas de investigación fundamentales, en especial las que tratan sobre el origen de la vida (Ruiz-Mirazo y Moreno 2011). En general, los enfoques basados en la complejidad intentan definir la vida en términos de principios de organización generales y de sus consecuencias en la conducta en lugar de apelar a sistemas especiales de herencia y desarrollo (es decir, la replicación, la transmisión, la expresión del ADN basada en el material genético) o a materiales orgánicos básicos (es decir, moléculas basadas en el carbono). El objetivo es usar una teoría de los sistemas complejos para definir la condición sine qua non de la vida en términos de la complejidad misma, o en términos de algún rasgo que dependa de un nivel mínimo de complejidad. Un buen modo de poner a prueba tal teoría —aunque en este punto sea puramente imaginaria— es que nos debería permitir reconocer formas de vida extraterrestre que no comparten los rasgos de la vida terrestre que están presentes en todo el planeta, pero que, aun así, son históricamente contingentes (Kaneko 2006, 1-2; Ruiz-Mirazo et al. 2010).

Esta investigación podría proceder de muchas maneras. Una sería buscar una definición y medida de la complejidad específica para la vida, que distinga claramente la complejidad de la vida de la complejidad de la no vida. La ruta más sencilla sería mostrar que la vida puede definirse como la región superior de una escala general de complejidad que incluya a los sistemas no vivos; por ejemplo, el umbral de la vida podría definirse por uno de los “conductores” evolutivos cósmicos antes mencionados (v. g., Chaisson 2011). Sin embargo, una ruta más probable sería mostrar que la vida no es sólo más compleja, pero también que es compleja de un modo distinto (Moreno et al. 2011, 314, 322-326.): por ejemplo, un Boeing 777 es una máquina muy compleja (Carlson y Doyle 2002), pero muchos suponen que su complejidad es diferente de la de los seres vivos. Se han propuesto varios principios de organización o rasgos distintivos de los sistemas vivos —por ejemplo, la degeneración es un rasgo que parece distinguir los sistemas vivos de los no vivos (Edelman y Gally 2001; véase arriba). Pese a todo, incluso una definición de complejidad viviente que incluya la degeneración y otros principios de organización (como la modularidad o la jerarquía) puede no tener éxito al capturar los rasgos de conducta más esenciales de los sistemas vivos, como la autonomía (Moreno et al. 2008).

Entonces, otro enfoque es definir la vida en términos de alguna capacidad conductual o evolutiva fundamental que dependa de un nivel mínimo de complejidad pero que no sea explicable solo en términos de complejidad. Por ejemplo, el biólogo teórico Stuart Kauffman ha propuesto que los conjuntos autocatalíticos —colecciones de moléculas que catalizan su propia producción— podrían servir como los componentes básicos de la vida, el umbral real de lo que podría ser la capacidad para completar un “ciclo de trabajo” (Kauffman 2000). La teoría de Kauffman de la aparición espontánea de orden (1993) —lo que llama “orden gratuito”— pretende explicar la disponibilidad de las relaciones químicas complejas necesarias para la vida, pero no hace de la vida un sinónimo de complejidad. Del mismo modo, la teoría autopoiética de la vida desarrollada por Humberto Maturana y Francisco Varela (2004 [1973]) describe la esencia de la vida como la capacidad de auto-mantenimiento de los sistemas operativamente cerrados. Sobre la base de este enfoque, Ezequiel Di Paolo y otros han argumentado que los procesos de auto-mantenimiento deben incluir una capacidad adaptativa que se guía por normas autodefinidas relacionadas con la integridad del sistema (Di Paolo 2005; Barandiaran y Moreno 2008). Se sostiene que esta auto-regulación normativa de la conducta, o autonomía, constituya un umbral importante para la vida, así como para la aparición del valor y la teleología en la naturaleza (véase Weber y Varela 2002). Sin embargo, aunque puede ser necesario un nivel mínimo de complejidad organizacional para que aparezca la autonomía, es la precariedad de la vida —su dependencia de fuentes de energía y componentes materiales y la correspondiente necesidad de autorregulación adaptativa— lo que constituye la base del valor, no la complejidad de la vida per se.

Puede advertirse, a la luz de estos enfoques basados en la complejidad, que la relación entre la complejidad y la capacidad teleológica de los sistemas vivos es una cuestión crucial. Para aquellos que postulan una tendencia evolutiva universal hacia una mayor complejidad, la emergencia de la vida y sus diversas formas de la teleología pueden verse como “llevadas a cuestas” sobre esta tendencia más básica, que puede ser indiferente a la supervivencia de los sistemas particulares, pero que aun así sugiere una forma primordial de teleología que es más profunda que la vida y, en el contexto de la vida, conduce la evolución hacia una mayor complejidad. En este caso, la complejidad constituiría un “valor madre” más básico que la supervivencia y, como tal, está en el núcleo de la vida y su emergencia. Por el contrario, para los que sostienen que la teleología emerge con la vida como una capacidad de autorregulación orientada al mantenimiento, en la medida en la que la complejidad es necesaria para esta capacidad, su valor es meramente instrumental para el “valor madre” de la auto-conservación (Weber y Varela 2002). La pregunta, entonces, es si la teleología definitiva del proceso de la vida es meramente para vivir o, como sugirió alguna vez el filósofo A. N. Whitehead, para “vivir mejor” (1929).


4.3 Complejidad y conciencia  

Como se ha dicho, una de las áreas de investigación más emocionantes trata de la complejidad del cerebro humano y su papel especial en la generación de la experiencia, el pensamiento y la conducta. Aquí nos centraremos en la conciencia. ¿Cómo pueden los enfoques basados en la complejidad tener éxito donde muchos otros han fracasado?

Aclaremos brevemente la naturaleza del problema. En sentido estricto, un enfoque basado en la complejidad para una teoría neurocientífica de la conciencia, al igual que cualquier otro enfoque neurocientífico, se dirige a los “correlatos neuronales” de la experiencia consciente: “la actividad en las regiones cerebrales o grupos de neuronas que tiene un estatus privilegiado en la generación de la experiencia consciente” (Seth y Edelman 2009, 1425; Metzinger 2000). De acuerdo con varios argumentos filosóficos bien conocidos (Block et al. 1997), el problema con este enfoque es que incluso una teoría completa de los correlatos neuronales de la conciencia no podrá superar la “brecha explicativa” entre la descripción en tercera persona y la descripción en primera persona o la experiencia subjetiva. Esta limitación explicativa es exclusiva de la conciencia: no es sólo otro ejemplo del hecho trivial de que las teorías científicas no pueden sustituir a los fenómenos que explican. Más bien, tiene que ver con el hecho de que parte de lo que necesita ser explicado, en el caso de la experiencia consciente, es su carácter esencialmente cualitativo o fenomenológico. Los aspectos cualitativos propios de la conciencia, definidos como qualia por algunos filósofos (Tye 2015), parecen ser totalmente impenetrables para la explicación; simplemente son. Por ejemplo, ¿por qué el rojo se siente de esa manera? Parece que no hay respuesta. El rojo se siente rojo, y ninguna cantidad de detalles acerca de los correlatos neurales de la experiencia de rojo nos dirá algo más.

Una posible respuesta a este punto de vista es que el problema de la conciencia se ha definido de un modo demasiado estrecho, centrándose en las cualidades de forma aislada. La experiencia consciente no consiste en cualidades, ni siquiera en manojo de cualidades; sino que consiste en un flujo continuo de ricas distinciones cualitativas, o contrastes, de las que los elementos cualitativos individuales sólo pueden derivarse como abstracciones (no hay tal cosa como una experiencia consciente del rojo puro). Por otra parte, aun sin adoptar un método especial de análisis fenomenológico, es posible señalar algunas características básicas, pero no triviales, de este flujo, como ha ejemplificado hace más de un siglo William James en su famoso ensayo The Stream of Thought (1983 [1890]). Estas características incluyen las siguientes (véase Seth et al. 2006, 1080):

  1. Cada momento de la conciencia está sumamente diferenciado y unificado a la vez (sin embargo “momento” se define: lo conscientemente presente parece tener un “espesor” mínimo).
  2. La conciencia está cambiando constantemente y está sumamente diferenciada en el tiempo; nunca tenemos exactamente la misma experiencia consciente dos veces.
  3. Las distinciones cualitativas de la conciencia no están todos marcados con la misma claridad o contundencia: la conciencia tiene un enfoque claro y distinto y un margen vago.
  4. El flujo temporal de la conciencia, aunque continuo, no es estrictamente uniforme: se caracteriza por “posados” y “vuelos”, es decir, estabilizaciones y transiciones.

Independientemente de si estas características fenomenológicas pueden aceptarse sin reservas, el punto es que todas ellas pueden entenderse en relación con rasgos de procesos neuronales que, en principio, son medibles. De acuerdo con ello, en nuestra búsqueda de los correlatos neuronales de la conciencia, deberíamos esperar encontrar un proceso que es a la vez muy diferenciado e integrado, que tiene una estructura de enfoque-margen, etc., y si encontramos que tales procesos neuronales con estos rasgos están, de hecho, privilegiados sin ambigüedad como “correlatos neurales de la conciencia”, entonces habremos logrado un progreso explicativo significativo con respecto a la sensación cualitativa de la conciencia, aunque todavía no pueda decirse por qué el rojo aparece como lo hace.

En pocas palabras, entonces, la promesa de las investigaciones de la complejidad neural es la de explicar la “complejidad dinámica” cualitativo-fenomenológica de la conciencia —como se caracteriza por los rasgos antes mencionados—, especificando con precisión los procesos neuronales que se correlacionan con la conciencia y demostrando que presentan un grado inusualmente alto de alguna medida cualitativa-topológica de “complejidad dinámica” (para la discusión de lo “cualitativo-topológico” véase Schmidt 2011). Sin embargo, debe admitirse que faltan definir los conceptos de complejidad dinámica cualitativo-fenomenológicos y cualitativo-topológicas y que no son lo mismo; quizá los filósofos tienen razón en que entre ellos debe haber siempre una brecha explicativa. Sin embargo, si este enfoque tiene éxito, la demostración de un “isomorfismo” rico (Fingelkurts y Fingelkurts 2004) entre los conceptos fenomenológicos y topológicos de complejidad dinámica supondría un avance explicativo sustancial sobre el problema de la conciencia.


5 Bibliografía  

Adami, Christoph. 2002. “What is complexity?”. BioEssays 24: 1085-1094.

Adami, Christoph. 2012. “Boldly Going Beyond Mathematics”. Science 338: 1421-1422.

Adolphs, Ralph. 2015. “The unresolved problems of neuroscience”. Trends in Cognitive Science 19 (4): 173-175.

Aguilera, Miguel, Xabier E. Barandiaran, Manuel G. Bedia y Francisco Seron. 2015. “Self-Organized Criticality, Plasticity and Sensorimotor Coupling. Explorations with a Neurobiotic Model in a Behavioral Preference Task”. PLoS ONE 10: e0117465.

Alfonseca, Manuel. 2015. Viajes hacia lo infinitamente pequeño y lo infinitamente grande. Buenos Aires: Ediciones Logos e Instituto de Filosofía Universidad Austral.

Anderson, Michael L. 2014. After Phrenology: Neural Reuse and the Interactive Brain. Cambridge, MA: MIT Press.

Anderson, Philip W. 1972. “More is different”. Science, New Series 177 (4047): 393-396.

Anderson, Philip W., Kenneth J. Arrow y David Pines, eds. 1988. The Economy as an Evolving Complex System. Reading, MA: Addison-Wesley.

Barabási, Albert-Lázló. 2002. Linked: The New Science of Networks. Cambridge, MA: Perseus.

Barabási, Albert-Lázló. 2012. “The network takeover”. Nature Physics 8: 14-16.

Barabási, Albert-Lázló. 2016. Network Science. Cambridge: Cambridge University Press.

Barker, Roger G. 1968. Ecological Psychology: Concepts and Methods for Studying the Environment of Human Behavior. Palo Alto, CA: Stanford University Press.

Bickhard, Mark H. 2011. “Systems and Process Metaphysics”. En Philosophy of Complex Systems, editado por Cliff Hooker, 91-104. Oxford: Elsevier.

Bishop, Robert C. 2008. “Downward causation in fluid convection”. Synthese 160: 229-248.

Bishop, Robert C. 2011. “Metaphysical and Epistemological Issues in Complex Systems”. En Philosophy of Complex Systems, editado por Cliff Hooker, 105-136. Oxford: Elsevier.

Block, Ned, Owen Flanagan y Güven Güzeldere, eds. 1997. The Nature of Consciousness: Philosophical Debates. Cambridge, MA: MIT Press.

Bressler, Steven L. y J. A. Scott Kelso. 2001. “Cortical coordination dynamics and cognition”. Trends in Cognitive Sciences 15 (1): 26-37.

Buzsáki, György. 2006. Rhythms of the Brain. Oxford: Oxford Unviersity Press.

Chaisson, Eric J. 2011. “Energy Rate Density as a Complexity Metric and Evolutionary Driver”. Complexity 16: 27-40.

Chaitin, Gregory J. 1975. “Randomness and Mathematical Proof”. Scientific American 232 (5): 47-52.

Cilliers, Paul. 1998. Complexity and Postmodernism: Understanding Complex Systems. Londres y Nueva York: Routledge.

Clark, Jason B. y David R. Jacques. 2012. “Practical measurement of complexity in dynamic systems”. Procedia Computer Science 8: 14-21.

Crutchfield, James P. 2008. “Five Questions on Complexity”. En Complexity: Five Questions editado por Carlos Gershenson, XXX. Copenhague: Automatic Press.

Crutchfield, J.P., J.D. Farmer, N.H. Packard y R.S. Shaw. 1986. “Chaos”. Scientific American 255: 46-57.

Crutchfield, J.P. y C.R. Shalizi. 1999. “Thermodynamic depth of causal states: When paddling around in Occam’s pool shallowness is a virtue”. Physical Review E 59: 275-283.

Crutchfield, James P. y Karl Young. 1989. “Inferring statistical complexity.” Physical Review Letters 63: 105-108.

Davies, Paul C. W. 2007. Cosmic Jackpot: Why Our Universe Is Just Right for Life. Nueva York: Houghton Mifflin Company.

Davies, Paul C. W. 2013. “Directionality principles from cancer to cosmology”. En Complexity and the Arrow of Time, editado por Charles H.Lineweaver, Paul C.W. Davies y Michael Ruse, 18-41. Cambridge: Cambridge University Press.

Deacon, Terrence. 2012. Incomplete Nature: How Mind Emerged from Matter. Nueva York: W.W. Norton & Co.

Denning, Peter J. 2007. “Computing is a Natural Science”. Communications of the ACM 50: 15-18.

Di Paolo, Ezequiel. 2005. “Autopoiesis, adaptivity, teleology, agency”. Phenomenology and the Cognitive Sciences 4 (4): 429-452.

Edelman, Gerald M. 1987. Neural Darwinism: The Theory Neuronal Group Selection. Nueva York: Basic Books.

Edelman, Gerald M. y Giulio Tononi. 2000. A Universe of Consciousness: How Matter Becomes Imagination. New York: Basic Books.

Ferré, Frederick. 1996. Being and value: toward a constructive postmodern metaphysics. Albany: State University of New York Press.

Fingelkurts, Andrew A. y Alexander A. Fingelkurts. 2004. “Making complexity simpler: Multivariability and metastability in the brain”. International Journal of Neuroscience 114: 843-862.

Gell-Mann, Murray. 1995. “What is complexity?”. Complexity 1 (1): 16-19.

Getling, A.V. 2012. “Rayleigh-Bénard Convection”. Scholarpedia 7 (7): 7702.

Gershenson, Carlos, ed. 2008. Complexity: Five Questions. Copenhagen: Automatic Press.

Gordon, Deborah M. 2007. “Control without Hierarchy”. Nature 446: 143.

Gordon, Deborah M. 2014. “The ecology of collective behavior”. PLoS Biology 12(3): e1001805.

Gordon, Deborah M. 2015. “From division of labor to the collective behavior of social insects”. Behavioral Ecology and Sociobiology 70 (7): 1101-1108.

Green, David G. y Tania Leishman. 2011. “Computing and Complexity – Networks, Nature, and Virtual Worlds”. En Philosophy of Complex Systems, editado por Cliff Hooker, 137-161. Oxford: Elsevier.

Haken, Hermann. 1978. Synergetics: An Introduction: Nonequilibrium Phase Transitions and Self-Organization in Physics, Chemistry, and Biology. Berlín: Springer-Verlag.

Haken, Hermann. 1988. Information and Self-Organization: A Macroscopic Approach to Complex Systems. Berlín: Springer.

Haken, Hermann. 2012. “Complexity and Complexity Theories: Do These Theories Make Sense?”. En Complexity Theories of Cities Have Come of Age, editado por Juval Portugali, Han Meyer, Egbert Stolk y Ekim Tan, 7-22. Berlín: Springer-Verlag.

Herculano-Houzel, S. 2012. “The remarkable, yet not extraordinary, human brain as a scaled-up primate brain and its associated cost”. Proc Natl Acad Sci USA. 109 (Suppl 1):10661-8. doi: 10.1073/pnas.1201895109.

Hofstadter, Douglas R. 1979. Gödel, Escher, Bach: An Eternal Golden Braid. Nueva York: Basic Books.

Holland, John. 1992. “Complex Adaptive Systems”. Daedalus 121 (1): 17-30.

Holland, John. 1998. Emergence: From Chaos to Order. Cambridge, MA: MIT Press.

Holland, John. 2014. Complexity: A Very Short Introduction. Oxford: Oxford University Press.

Honey, Christopher J., Jean-Philippe Thivierge y Olaf Sporns. 2010. “Can structure predict function in the human brain?”. NeuroImage 52: 766-776.

Hooker, Cliff, ed. 2011. Philosophy of Complex Systems. Oxford: Elsevier.

Hooker, Cliff. 2011a. “Introduction to Philosophy of Complex Systems: Part A”. En Philosophy of Complex Systems, editado por Cliff Hooker, 3-90. Oxford: Elsevier.

Hooker, Cliff. 2011b. “Introduction to Philosophy of Complex Systems: Part B”. En Philosophy of Complex Systems, editado por Cliff Hooker, 841-909. Oxford: Elsevier.

Hooker, Cliff. 2011c. “Conceptualising Reduction, Emergence and Self-Organization in Complex Dynamical Systems”. En Philosophy of Complex Systems, editado por Cliff Hooker, 195-222. Oxford: Elsevier.

James, William. 1983. The Principles of Psychology. Cambridge, MA: Harvard University Press. Publicado por primra vez en 1890.

Jantsch, Erich. 1980. The Self-Organizing Universe: Scientific and Human Implications of the Emerging Paradigm of Evolution. Oxford: Pergamon.

Johnson, Neil. 2009. Complexity: A Clear Guide to Complexity Theory. Oxford: Oneworld Publications.

Johnson, Steven. 2001. Emergence: The Connected Lives of Ants, Brains, Cities, and Software. Nueva York: Scribner.

Juarrero, Alicia. 1999. Dynamics in Action: Intentional Behavior as a Complex System. Cambridge, MA: MIT Press.

Juarrero, Alicia y Carl A. Rubino, eds. Emergence, Complexity, and Self-Organization: Precursors and Prototypes. Goodyear, AZ: ISCE Publishing.

Kaneko, Kunihiko. 2006. Life: An Introduction to Complex Systems Biology. Berlín: Springer.

Kauffman, Stuart. 1990. “The Sciences of Complexity and ‘Origins of Order’”. Proceedings of the Biennial Meeting of the Philosophy of Science Association 1990 2: 299-322.

Kauffman, Stuart. 1993. Origins of Order: Self-Organization and Selection in Evolution. Oxford: Oxford University Press.

Kauffman, Stuart. 2000. Investigations. Oxford: Oxford University Press.

Kauffman, Stuart. 2016. Humanity in a Creative Universe. Oxford: Oxford University Press.

Keller, Evelyn Fox. 2009. “Organisms, Machines, and Thunderstorms: A History of Self-Organization, Part Two: Complexity, Emergence, and Stable Attractors”. Historical Studies in the Natural Sciences 39 (1): 1-31.

Kelso, J. A. Scott. 1995. Dynamic Patterns: The Self-Organization of Brain and Behavior. Cambridge, MA: MIT Press.

Kelso, J. A. Scott. 2012. “Multistability and metastability: understanding dynamic coordination in the brain”. Philosophical Transactions of the Royal Society B 367: 906-918.

Kitano, Hiroaki. 2002a. “Computational systems biology”. Nature 420: 206-210.

Kitano, Hiroaki. 2002b. “Systems Biology: A Brief Overview”. Science 295: 1662-1664.

Kragh, Helge S. 2007. Conceptions of Cosmos: From Myths to Accelerating Universe: A History of Cosmology. Oxford: Oxford University Press.

Kuhn, Thomas. 1962. The Structure of Scientific Revolutions. Chicago: University of Chicago Press.

Ladyman, James, James Lambert y Karoline Wiesner. 2013. “What is a complex system?”. European Journal of Philosophy of Science 3: 33-67.

Lane, David. 2006. “Hierarchy, complexity, society”. En Hierarchy in Natural and Social Sciences, editado por D. Pumain, 81-119. Berlín: Springer.

Lewin, Roger. 1999. Complexity: Life at the Edge of Chaos, Segunda Edición. Chicago: Chicago University Press.

Lineweaver, Charles H., Paul C.W. Davies y Michael Ruse, eds. 2013. Complexity and the Arrow of Time. Cambridge: Cambridge University Press.

Lloyd, Seth. 1990. “The calculus of intricacy”. The Sciences 30: 38-44.

Lloyd, Seth. 2001. “Measures of complexity: A non-exhaustive list.” IEEE Control Systems Magazine, August.

Lloyd, Seth y Heinz Pagels. 1988. “Complexity as thermodynamic depth”. Annals of Physics 188: 186-213.

Lovejoy, Arthur 0. 1970. The Great Chain of Being: A Study of the History of an Idea. Cambridge, MA: Harvard University Press.

Mainzer, Klaus. 1994. Thinking in Complexity: The Complex Dynamics of Matter, Mind, and Mankind. Berlín: Springer-Verlag.

Maturana, Humberto y Francisco Varela. 2004. De máquinas y seres vivos: autopoiesis: la organización de lo vivo. Santiago de Chile: Editorial Universitaria, Grupo Editorial Lumen. Publicado por primera vez en 1973.

McShea, Daniel W. 2001. “The hierarchical structure of organisms: a scale and documentation of a trend in the maximum”. Paleobiology 27 (2): 405-423.

Metzinger, T., ed. 2000. Neural correlates of consciousness. Empirical and conceptual questions. Cambridge, MA: MIT Press.

Miller, John H. y Scott E. Page. 2007. Complex Adaptive Systems: An Introduction to Computational Models of Social Life. Princeton, NJ: Princeton University Press.

Mitchell, Melanie. 2009. Complexity: A Guided Tour. Oxford: Oxford University Press.

Mitchell, Melanie. 2011. “Biological Computation”. Ubiquity REF

Moreno, Álvaro, Kepa Ruiz-Mirazo y Xabier Barandiaran. 2011. “The Impact of the Paradigm of Complexity on the Foundational Frameworks of Biology and Cognitive Science”. En Philosophy of Complex Systems, editado por Cliff Hooker, 311-333. Oxford: Elsevier.

Moreno, Álvaro, Arantza Etxeberria y Jon Umerez. 2008. “The autonomy of biological individuals and artificial models”. BioSystems 91: 309-319.

Murphy, Nancey. 1999. “Supervenience and the Downward Efficacy of the Mental: A Nonreductive Physicalist Account of Human Action”. En Neuroscience and the Person: Scientific Perspectives on Divine Action, editado por Robert John Russell, Nancey Murphy, Theo C. Meyering y Michael A. Arbib, 147-164. Ciudad del Vaticano y Berkeley, CA: Vatican Observatory Publications y the Center for Theology and the Natural Sciences.

Newman, Mark, Albert-László Barabási y Duncan J. Watts, eds. 2006. The Structure and Dynamics of Networks. Princeton: Princeton University Press.

Nicolis, Grégoire y Ilya Prigogine. 1989. Exploring Complexity: An Introduction. Nueva York: W. H. Freeman and Company.

Oyama, Susan. 2000. The Ontogeny of Information: Developmental Systems and Evolution. Chapel Hill, NC: Duke University Press. Publicado originalmente en 1985.

Penrose, Roger. 2004. The Road to Reality. Londres: Jonathan Cape.

Prigogine, Ilya. 1980. From Being to Becoming: Time and Complexity in the Physical Sciences. San Francisco: W.H. Freeman.

Prokopenko, Mikhail, Fabio Boschetti y Alex J. Ryan. 2009. “An information-theoretic primer on complexity, self-organization, and emergence”. Complexity 15 (1): 11-28.

Roberts, James A., Tjeerd W. Boonstra y Michael Breakspear. 2015. “The heavy tail of the human brain”. Current Opinion in Neurobiology 31: 164-172.

Ruiz-Mirazo, Kepa y Álvaro Moreno. 2011. “The Need for a Universal Definition of Life in Twenty-first-century Biology”. En Information and Living Systems: Philosophical and Scientific Perspectives, editado por George Terzis y Robert Arp, 3-23. Cambridge, MA: MIT Press.

Ruiz-Mirazo, Kepa, Juli Peretó y Álvaro Moreno. 2010. “Defining Life or Bringing Biology to Life”. Origins of Life and Evolution of Biospheres 40 (2): 203-213.

Schmidt, Jan C. 2011. “Challenged by Instability and Complexity…Questioning Classic Stability Assumptions and Presuppositions in Scientific Methodology”. En Philosophy of Complex Systems, editado por Cliff Hooker, 223-254. Oxford: Elsevier.

Seth, Anil K. y Gerald M. Edelman. 2009. “Consciousness and complexity”. En Encyclopedia of Complexity and Systems Science, Vol. 2 ed. B. Meyer, 1424-1443. Berlín: Springer-Verlag.

Seth, Anil K., Eugene Izhikevich, George N. Reeke y Gerald M. Edelman. 2006. “Theories and measures of consciousness: An extended framework”. Proceedings of the National Academy of Sciences 103 (28): 10799-10804.

Sigmund, Karl. 1993. Games of Life: Explorations in Ecology, Evolution, and Behavior. Oxford: Oxford University Press.

Silberstein, Michael y Anthony Chemero. 2013. “Constraints on Localization and Decomposition as Explanatory Strategies in the Biological Sciences”. Philosophy of Science 80: 958-970.

Simon, Herbert. 1962. “The Architecture of Complexity”. Proceedings of the American Philosophical Society 106 (6): 467-482.

Solé, Ricard y Brian Goodwin. 2000. Signs of Life: How Complexity Pervades Biology. Nueva York: Basic Books.

Sporns, Olaf. 2007. “Complexity”. Scholarpedia 2 (10): 1623.

Swanson, Larry W. y Jeff W. Lichtman. 2016. “From Cajal to Connectome and Beyond”. Annual Review of Neuroscience 39: 197-216.

Swenson, Rod. 1988. “Emergence and the principle of maximum entropy production: Multi-level system theory, evolution, and non-equilibrium thermodynamics”. 'Proceedings of the 32nd annual meeting of the International Society for General Systems Research 32: 32.

Swenson, Rod y Michael T. Turvey. 1991. “Thermodynamic Reasons for Perception-Action Cycles”. Ecological Psychology 3 (4): 317-348.

Taylor, Mark C. 2000. The Moment of Complexity: Emerging Network Culture. Chicago: University of Chicago Press.

Tononi, Giulio y Gerald M. Edelman. 1998. “Consciousness and complexity”. Science 282: 1846-1851.

Tononi, Giulio, Gerald M. Edelman y Olaf Sporns. 1998. “Complexity and coherency: integrating information in the brain”. Trends in Cognitive Sciences 2 (12): 474-484.

Tononi, Giulio, Olaf Sporns y Gerald M. Edelman. 1994. “A measure for brain complexity: Relating functional segregation and integration in the nervous system”. Proc. Natl. Acad. Sci. U.S.A. 91: 5033-5037.

Tononi, Giulio, Olaf Sporns y Gerald M. Edelman. 1999. “Measures of degeneracy and redundancy in biological networks”. Proc. Natl. Acad. Sci. U.S.A. 96: 3257-3262.

Tye, Michael. 2015. “Qualia”. En The Stanford Encyclopedia of Philosophy (Fall 2015 Edition), editado por Edward N. Zalta. URL = <http://plato.stanford.edu/archives/fall2015/entries/qualia/>.

Unger, Roberto M. y Lee Smolin. 2015. The Singular Universe and the Reality of Time: A Proposal in Natural Philosophy. Cambridge: Cambridge University Press.

Varela, Francisco J., Evan Thompson y Eleanor Rosch. 1991. The Embodied Mind: Cognitive Science and Human Experience. Cambridge, MA: MIT Press.

Waldrop, M. Mitchell. 1992. Complexity: The Emerging Science at the Edge of Order and Chaos. Nueva York: Simon and Schuster.

Weaver, Warren. 1948. “Science and Complexity”. American Scientist 36: 536.

Weber, Anton y Francisco Varela. 2002. “Life after Kant: Natural purposes and the autopoietic foundations of biological individuality”. Phenomenology and the Cognitive Sciences 1 (2): 97-125.

Whitehead, Alfred North. 1929. The Function of Reason. Princeton: Princeton University Press.

Whitehead, Alfred North. 1978. Process and Reality, Edición corregida, editado por David Ray Griffin y Donald W. Sherburne. Nueva York: Free Press. (Publicado por primera vez en 1929).

Wilson, Andrew D. y Sabrina Golonka. 2013. “Embodied cognition is not what you think it is”. Frontiers in Psychology 4 (58): 1-13.

Wolfram, Stephen. 2002. A New Kind of Science. Champaign, IL: Wolfram Media, Inc.


6 Cómo Citar  

Barrett, Nathaniel. 2017. "Complejidad". En Diccionario Interdisciplinar Austral, editado por Claudia E. Vanney, Ignacio Silva y Juan F. Franck. URL=http://dia.austral.edu.ar/Complejidad


7 Derechos de autor  

DERECHOS RESERVADOS Diccionario Interdisciplinar Austral © Instituto de Filosofía - Universidad Austral - Claudia E. Vanney - 2017.

ISSN: 2524-941X

Contenidos objetivos de las experiencias conscientes (por ejemplo, el color rojo) que resultan irreducibles a procesos puramente físicos.