Determinismo e indeterminismo

Claudia E. Vanney
Universidad Austral

Juan F. Franck
Universidad Austral

De DIA

La pregunta sobre si nuestra realidad está inexorablemente determinada o si, por el contrario, se encuentra librada al azar y la sorpresa ha sido una preocupación constante en el ser humano a través de las diferentes épocas y culturas. El determinismo como cuestión metafísica tuvo su origen en la antigüedad clásica, asociado a la noción de destino inexorable o de fatalidad. Durante el período medieval el problema del determinismo se insertó en la discusión teológica, como tema subyacente en la doctrina de la predestinación. Sin embargo, la cosmovisión determinista con fundamentos teóricos en la ciencia es una comprensión moderna, concebida a partir de los éxitos predictivos de la física de Newton y de la mecánica racional.

Durante el siglo XX, la cosmovisión científica se alejó considerablemente de la imagen determinista del mundo-reloj asumiendo nuevas modalidades. Los estudios sobre la naturaleza de las teorías científicas dieron lugar a definiciones más precisas del determinismo, pero los grandes avances de la física cuestionaron su naturaleza misma. Por un lado, el estudio de sistemas altamente inestables resultó un obstáculo insalvable para quienes pretendían obtener una predicción unívoca de todo estado futuro en todos los sistemas reales. Por otro, la mecánica cuántica exigió una revisión del determinismo clásico al introducir la aleatoriedad en el estrato fundamental de la realidad. El desarrollo de la biología, además, introdujo también nuevas perspectivas de análisis, por ejemplo, desde la genética y desde la biología sistémica. Finalmente, la veracidad del testimonio de la conciencia que nos dice ser dueños de nuestras decisiones volvió a ser acaloradamente discutida, ya que si bien un mundo determinista la ponía en duda, un mundo indeterminista, en el que el sustrato último de la realidad parece depender del azar, tampoco asegura de suyo un rol demasiado relevante al libre albedrío. Así, la relación entre el determinismo/indeterminismo y el libre albedrío dio origen contemporáneamente al debate entre compatibilistas e incompatibilistas.

Pero la discusión sobre los resultados científicos que se refieren al determinismo o al indeterminismo del mundo natural no atañe sólo a la filosofía de la naturaleza y de la ciencia, sino también a la teología natural. Esta relación se explicita sobre todo en la consideración de la acción providente de Dios en el gobierno del mundo. En el apartado final, se mencionan las nuevas perspectivas de análisis abiertas por la ciencia contemporánea para el estudio de esta cuestión teológica.


1. Causalidad y determinismo  

En sentido amplio, se entiende por causa a aquella realidad de la que depende el ser o el hacerse de otra. Para la filosofía, causa es el principio real -no meramente lógico- que influye positivamente en otra cosa (efecto), haciéndolo depender de algún modo de sí: sin la causa el efecto no puede comenzar a ser o subsistir. Toda causa tiene prioridad sobre su efecto según un orden de naturaleza. En muchos casos, además, esta prioridad también supone una anterioridad temporal.

La primera formulación del principio de causalidad -todo lo que se mueve es movido por algo (Phys. VII, c. 1, 241b 24)- se debe a Aristóteles. La aplicación rigurosa de este principio condujo a Aristóteles a proponer la existencia de un Primer Motor, Acto Puro, causa primera y radical del movimiento de los móviles. Posteriormente, Tomás de Aquino refirió este principio al ser de las cosas –todo lo que no siempre fue, si comienza a ser, necesita algo que sea causa de su ser (Compendium theologiae, c. 7). Según él, la causalidad tiene vigencia tanto cuando algo empieza a ser de modo absoluto, como en el inicio temporal de cualquier perfección -todo lo que conviene a algo y no es de su esencia, le pertenece por alguna causa (Summa contra gentiles, I, 22).

En el pensamiento de Aristóteles, la causalidad aparece principalmente al considerar el aspecto dinámico del ser y su devenir, dando cuenta del paso de la potencia al acto. Basándose en la relación de dependencia entre la causa y el efecto menciona cuatro tipos de causas, distinguiendo: la causa formal o quididad; la materia o el sujeto; la tercera, aquella de donde procede el principio del movimiento; y la cuarta, la que se opone a ésta, es decir, la causa final o el bien, que es el fin de cualquier generación o movimiento (Metafísica, I, 3, 983a 25-33).

La causa eficiente en su sentido primordial tiene un sentido dinámico, referido al movimiento y al hacerse de las cosas (Metafísica, VIII, 4, 1044a 32; Física, II, 3, 194-195). Es decir, la acción de la causa eficiente no se debe entender únicamente como motor del movimiento local, sino también interviniendo en la generación de los seres, donde la causa eficiente ejerce una acción transformadora sobre el compuesto sustancial afectando principalmente a la forma, que es la que se pierde o adquiere en los individuos, tanto en la generación sustancial como en las alteraciones accidentales.

Durante la época moderna el racionalismo mantuvo el principio de causalidad, pero lo consideró bajo otra perspectiva: la idea de causa tendió a subordinarse a la de razón e incluso a confundirse con ella. Con el empirismo la causalidad abandonó el plano ontológico y se convirtió en una categoría gnoseológica. En su Ensayo sobre el Entendimiento Humano, Locke afirma: “Aquello que produce cualquier idea simple o compleja, lo denotamos por el nombre general de causa, y aquello que es producido, por el nombre de efecto” (Libro II, Cap. XXVI, Secc.I). Con Hume se completó el viraje y la relación causal se asimiló a la mera conjunción entre la causa y el efecto (Tratado sobre la Naturaleza Humana, Libro I, Parte III, Secc. II-III).

Con el nacimiento de la ciencia moderna las causas final, formal y material se fueron ocultando en la discusión filosófica, de manera que la causalidad se identificó con la causa eficiente. Los éxitos predictivos de la física de Newton y de la mecánica racional condujeron a pensar que era posible agotar toda descripción del universo desde el mecanicismo, reduciendo la causalidad a una causalidad determinista y mecánica.


2. El mecanicismo en el siglo XIX  

El mecanicismo de los siglos dieciocho y diecinueve concibió al mundo como un gran sistema de relojería, cuyos estados evolucionan de un modo inexorable a partir de un estado inicial, de manera que “aquellas partes del universo ya establecidas señalan y decretan de un modo absoluto lo que serán las otras partes (…) Cualquier otro futuro distinto de aquel que fue fijado desde la eternidad es imposible. El todo se halla en todas y cada una de las partes, engarzándose con el resto en una unidad absoluta, un bloque de hierro en que no puede haber error, sombra, o vuelta atrás” (James 1897, 150).

El exponente más paradigmático del determinismo mecanicista fue Pierre-Simon Laplace, quien en su Essai philosophique sur les probabilités formuló hipotéticamente la existencia de una super-inteligencia capaz de calcular con la misma precisión lo acaecido y el futuro a partir de una información exhaustiva del universo en un instante cualquiera de su transcurso: “Hemos de considerar el estado actual del universo como el efecto de su estado anterior y como la causa del que ha de seguirle. Una inteligencia que en un momento determinado conociera todas las fuerzas que animan a la naturaleza, así como la situación respectiva de los seres que la componen, si además fuera lo suficientemente amplia como para someter a análisis tales datos, podría abarcar en una sola fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más ligero; nada le resultaría incierto y tanto el futuro como el pasado estarían presentes ante sus ojos” (Laplace 1985 [1814], 25).

Los avances de la ciencia durante el siglo XX, sin embargo, señalaron diversas limitaciones de esta comprensión mecanicista, que condujeron a distinguir entre determinismo y causalidad. Distintos pensadores adoptaron posturas diversas. Paulette Février consideró a la causalidad como una categoría del a posteriori, relacionada con los encadenamientos entre acontecimientos pasados, mientras que concibió el determinismo como una categoría del a priori, relativa al porvenir y, por tanto, a la idea de previsión (Février 1957). La posibilidad de nexos causales no deterministas también fue admitida por autores como Louis de Broglie, uno de los padres de la mecánica cuántica (de Broglie 1941). Otros pensadores, como Rudolf Carnap, asimilaron la causalidad a la legalidad, y sostuvieron que el nexo causal es más general que la idea de determinación (Carnap 1966). Para Mario Bunge, en cambio, el principio causal es un caso particular del principio de determinación (Bunge 1978).


3. Determinismo e indeterminismo científico  

Durante el siglo XX, la cosmovisión científica se alejó considerablemente de la imagen determinista del mundo-reloj asumiendo nuevas modalidades (Vanney 2013, Vanney y Lombardi 2015, Vanney y Franck 2016). Los estudios sobre la naturaleza de las teorías científicas dieron lugar a definiciones más precisas del determinismo, y los grandes avances de la física cuestionaron su naturaleza misma. Por un lado, los sistemas caóticos resultaron un obstáculo insalvable para quienes pretendían obtener una predicción unívoca de todo estado futuro en todos los sistemas reales. Por otro, la mecánica cuántica exigió una revisión del determinismo clásico al introducir la aleatoriedad en el estrato fundamental de la realidad. El desarrollo de la biología, además, también introdujo nuevos elementos de análisis, tanto desde las perspectivas genéticas como sistémicas.


3.1. El determinismo en las formulaciones teóricas  

A comienzos del siglo XX las teorías físicas fueron consideradas como un conjunto de enunciados articulados deductivamente, que constituían un sistema axiomático. Desde esta perspectiva sintáctica, los elementos primitivos y las hipótesis de partida (leyes fundamentales o principios) de la teoría son adoptados sin demostración, y a partir de ellos es posible deducir un conjunto de enunciados singulares -consecuencias observacionales- que permiten el testeo empírico de la teoría (Klimovsky 1994). Por ejemplo: las nociones de espacio, tiempo, masa y fuerza son los elementos primitivos de la mecánica, y las tres ecuaciones de Newton son sus leyes fundamentales; la teoría electromagnética añade a los elementos primitivos de la mecánica clásica la noción de carga eléctrica, siendo las cuatro ecuaciones de Maxwell, junto con la fuerza de Lorentz, las leyes fundamentales de la teoría.

Al asumir que las teorías físicas son sistemas axiomáticos, conviene distinguir las dimensiones sintáctica y semántica. La dimensión sintáctica es el resultado de las relaciones formales entre los símbolos del sistema. La dimensión semántica, en cambio, se manifiesta en la interpretación del sistema axiomático mediante una correspondencia de cada símbolo con su referente.

Los autores que adoptan una concepción sintáctica de las teorías científicas consideran que el determinismo es una característica del lenguaje científico, y buscan deducirlo desde la estructura proposicional de las teorías. Ernst Nagel, por ejemplo, sostuvo que una teoría es determinista si y solo si el conjunto de proposiciones que especifican el estado del mundo en un instante t, junto con una serie de proposiciones nomológicas (leyes) obtenidas en la teoría, permiten obtener deductivamente proposiciones que caracterizan el estado del mundo en otro instante t′ (Nagel 1953). Es decir, para la concepción sintáctica el determinismo no es una característica de la realidad física, sino una consecuencia de la estructura del lenguaje teórico de la ciencia.

La concepción semántica de las teorías, en cambio, sostiene que ni las teorías son entidades lingüísticas, ni los recursos de un determinado lenguaje son instrumentos apropiados para individuar las teorías. Para los autores que defienden esta posición, la identidad de una teoría científica no depende de su particular presentación formal, sino que está dada por una colección de modelos que representan a los fenómenos (Suppe 1989). Así, una misma teoría puede utilizar diferentes formalismos, siempre que estos definan una misma clase de modelos. Desde esta perspectiva, Richard Montague propone una acepción semántica del determinismo: una teoría T es determinista si y sólo si dos modelos cualesquiera de T que coinciden en un instante t0, coinciden para todo instante t (Montague 1974).

En ambos casos, el determinismo es una característica de las ecuaciones dinámicas que rigen la evolución del estado del sistema físico. En 1986 John Earman propuso clasificar las diversas teorías físicas en deterministas o indeterministas a partir del análisis de sus ecuaciones dinámicas (Earman 1986). Para realizar esta clasificación, consideró que un sistema es determinista si dado el valor de las variables dependientes en un cierto instante, las ecuaciones dinámicas fijan de un modo unívoco el valor de dichas variables para todo instante. Es decir, el carácter determinista de una teoría científica particular se asocia a la existencia de soluciones únicas para las ecuaciones dinámicas. Cuando las soluciones posibles son únicas hay determinismo, pues la evolución del sistema resulta establecida, y en caso contrario no. Pero aunque la propuesta de Earman resulta clara, no es trivial clasificar las teorías físicas según este criterio, pues nociones importantes –como la de sistema o la de estado– no suelen estar definidas con la precisión que sería necesaria. Así, incluso dentro de una misma teoría suele quedar abierta la posibilidad de formular legítimamente el determinismo de maneras diversas, requiriendo de un juicio interpretativo para elegir la mejor formulación (Lombardi 2002, Bishop 2005).


3.2. Sistemas caóticos e indeterminismo gnoseológico  

El paradigma determinista mecanicista prevaleció en la física sin cuestionamientos hasta que Henri Poincaré encontró limitaciones intrínsecas en la predicción de la evolución temporal de algunos sistemas mecánicos. Fue a fines del siglo XIX cuando Poincaré demostró que no existe una solución analítica no perturbativa que permita resolver el movimiento de tres cuerpos celestes. Pues si bien con el método perturbativo es posible alcanzar una precisión en la predictibilidad de hasta veinte decimales correctos, este método no puede ofrecer una precisión mayor, porque no converge analíticamente (Poincaré 1982).

Se suele decir que poseemos un conocimiento determinista de un sistema cuando la información que tenemos de su estado en un instante dado permite conocer unívocamente todos los estados en los instantes posteriores dentro de un margen de error acotado por el interés particular que mueve la investigación (Lombardi 1998, 72). Pero el estudio de los sistemas caóticos puso fuertemente a prueba esta posibilidad. Pues si bien en los sistemas mecánicos siempre es posible calcular la evolución temporal de las imprecisiones iniciales de las diversas variables, las incertidumbres finales dependen en gran medida de las características de las ecuaciones de movimiento. Cuando las ecuaciones que rigen la evolución temporal de un sistema físico son lineales, las predicciones de su evolución posterior se mantienen dentro de un rango de error acotado. En los sistemas caóticos, en cambio, el desconocimiento exacto del estado inicial hace imposible predecir la evolución temporal de cada una de las partículas que lo componen. Debido a que, en estos sistemas, el movimiento de las partículas está regido por ecuaciones muy sensibles a las condiciones iniciales, las trayectorias que siguen dos puntos inicialmente muy cercanos entre sí divergen exponencialmente (y no linealmente) con el transcurso del tiempo, de manera que las pequeñas incertidumbres iniciales son amplificadas exponencialmente (Bishop 2015).

Así, para sostener un determinismo en la dinámica de los sistemas caóticos se requiere una interpretación peculiar. Como es posible predecir estadísticamente de un modo holístico los estados futuros, los procesos aparentemente aleatorios macroscópicamente se pueden interpretar como respuestas de leyes deterministas microscópicas subyacentes, responsables de restaurar la dependencia temporal unívoca entre los estados del sistema. Cuando se considera que la estadística tiene la exclusiva función de permitir el tratamiento de sistemas muy complejos con un número enorme de grados de libertad, la probabilidad se puede concebir como la expresión de nuestra ignorancia acerca de los procesos perfectamente deterministas que estarían siguiendo un sinnúmero de elementos inobservables (Lombardi 1998).

El estudio de los sistemas caóticos ha dado así lugar a un nuevo tipo de indeterminismo, el indeterminismo gnoseológico. Este indeterminismo no se fundamenta en la existencia de distintas trayectorias posibles para el sistema, sino en la imposibilidad de conocer el valor de ciertas magnitudes con una precisión absoluta. Es decir, el indeterminismo gnoseológico simplemente afirma que se ignora una información relevante.

Aunque un determinismo gnoseológico resulta difícilmente sostenible referido al conocimiento humano, no es un argumento incuestionable a favor del indeterminismo. Por ejemplo, el indeterminismo gnoseológico es compatible con un determinismo de las teorías científicas. El siguiente texto de Pierre-Simon Laplace ejemplifica esta afirmación: “la curva descrita por una simple molécula de aire o de vapor está determinada de una forma tan exacta como las órbitas de los planetas. Entre ellos no hay más diferencia que la derivada de nuestra ignorancia. La probabilidad es relativa en parte a esta ignorancia y en parte a nuestros conocimientos” (Laplace 1985 [1814], 27). Como también este texto de Charles Darwin: “Hasta aquí he hablado a veces como si las variaciones […] fuesen debidas a la casualidad. Esto, por supuesto, es una expresión completamente incorrecta, pero sirve para reconocer llanamente nuestra ignorancia de la causa de cada variación particular” (Darwin 1983 [1859], 189).


3.3. Física cuántica e indeterminismo en la naturaleza  

Si el estudio de los fenómenos caóticos puso en cuestionamiento el paradigma mecanicista, la mecánica cuántica lo hizo aún más. Al introducir la aleatoriedad en el estrato fundamental de la realidad, se abrieron las puertas a la consideración de un indeterminismo en la naturaleza misma, es decir, a un indeterminismo ontológico.

Pero los resultados no son concluyentes. A pesar de sus enormes éxitos predictivos parece difícil encontrar en la historia de la ciencia una teoría que haya despertado mayores controversias respecto de su interpretación como lo hizo la física cuántica. Transcurridos ya más de noventa años desde sus primeras formulaciones, el problema de la interpretación del formalismo cuántico persiste aún como un desafío abierto (Vanney 2015) puesto que las distintas interpretaciones ni siquiera ofrecen una visión unánime sobre el estado cuántico.

La función de onda representa matemáticamente el estado cuántico de un sistema físico, brindando información sobre los estados posibles del sistema y sus respectivas probabilidades. Sin embargo, aunque la visión estándar de la mecánica cuántica considera que la función de onda describe un conjunto de eventos posibles, todavía no hay acuerdo acerca de su significado ontológico (Pusey, Barrett y Rudolph 2012). Algunos autores sostienen que la función de onda es real, mientras que otros niegan su realidad objetiva.

Aunque el principio de indeterminación de Heisenberg es un principio fundamental de la teoría, la función de onda evoluciona según la ecuación determinista de Schrödinger. Así, algunos autores se apoyan en las características de la ecuación de Schrödinger para afirmar que el universo entero, concebido como un sistema cuántico aislado, evoluciona de un modo totalmente determinista. Otros, en cambio, destacan que no es posible predecir unívocamente el valor que adquieren las magnitudes de un sistema cuántico, sino sólo inferirlas probabilísticamente.

Por otra parte, una de las primeras dificultades que se presentan a la hora de alcanzar una interpretación adecuada de los fenómenos cuánticos es el problema de la medición. Medir, en general, consiste en asignar experimentalmente un valor cuantitativo a una magnitud observable. La medición no supone un problema en la física clásica, porque en ella, cuando se mide la misma variable en un mismo sistema, se obtiene siempre el mismo resultado. En un contexto cuántico, en cambio, pueden obtenerse varios resultados distintos cuando se repite una misma medición. La teoría cuántica sólo permite calcular la probabilidad de obtener un resultado particular, de manera que el núcleo del problema de la medición cuántica consiste en explicar por qué en una ocasión determinada se obtuvo un resultado específico (Krips 2013). Este problema ha jugado un papel central en el debate Einstein-Bohr, estableciendo además el contexto para varias de las paradojas de la teoría, como la paradoja del gato de Schrödinger y la paradoja Einstein-Podolsky-Rosen (Wheeler y Zureck 1983). Explicar adecuadamente la medición cuántica es, aún hoy, una de las mayores preocupaciones interpretativas de la teoría.

El problema de la medición atañe directamente a la cuestión del determinismo. Mientras que los enfoques deterministas asumen la existencia de una conexión unívoca entre las propiedades del sistema físico a lo largo del tiempo, el problema de la medición revela una peculiaridad de los sistemas cuánticos: éstos no poseen en cada instante todas sus propiedades definidas. No es posible atribuir entonces simultáneamente un carácter descriptivo y disposicional al estado cuántico, requisitos indispensables de toda teoría determinista entendida en sentido tradicional (Fortin 2015).

Desde el surgimiento de la mecánica cuántica se propusieron diversos formalismos, interpretaciones, y variantes de la teoría en busca de una solución del problema de la medición. Para explicarlo, por ejemplo, algunas interpretaciones de la mecánica cuántica asumen un colapso de la función de onda. Pero ni todas las interpretaciones aceptan la hipótesis del colapso, ni las distintas interpretaciones brindan una respuesta unánime sobre el indeterminismo. Para algunas interpretaciones, como la de Copenhague (Faye 2014) o las interpretaciones modales (Lombardi y Dieks 2014), el indeterminismo cuántico es una propiedad intrínseca del mundo natural. Otras interpretaciones, en cambio, consideran que el indeterminismo es una mera manifestación de que ignoramos cierta información relevante, o que es una consecuencia de las limitaciones de nuestras teorías actuales. Entre estas últimas se encuentran la interpretación bohmiana (Goldstein 2013) y la everettiana (Bevers 2011). Para un tercer grupo, por ejemplo las interpretaciones estadísticas (Home y Whitaker 1992), las teorías científicas no estarían en condiciones de afirmar o de negar un determinismo o un indeterminismo en el mundo natural.


3.4. Determinismo genético y complejidad biológica  

Las discusiones acerca de la relación que existe entre las micro-evoluciones y las macro-evoluciones pronto se trasladaron de la física a la biología. Los avances de la biología molecular condujeron a planteamientos reduccionistas, que aspiraron a conducir todas las explicaciones biológicas al ámbito de la biología molecular. Si bien el reduccionismo genético clásico (Monod 1970) abrió las puertas a perspectivas indeterministas al introducir el azar, para el determinismo genético posterior los genes determinan por completo la morfología y el comportamiento de los fenotipos (Dawkins 1976). Sin embargo, ni existen leyes de la biología que puedan ser reducidas a leyes de la biología molecular, ni los genes y el ADN logran satisfacer los criterios de reducción de un modo adecuado. Actualmente no faltan biólogos antirreduccionistas que consideran apropiadas las explicaciones de la macrobiología, y consideran que tienen una autonomía suficiente como para no requerir ser corregidas, completadas o sustentadas por explicaciones a nivel molecular (Rosenberg 2007).

Durante las últimas décadas los científicos han descubierto que la información almacenada en el genoma está regulada en gran medida por factores epigenéticos. Las aproximaciones epigenéticas asumen los componentes genéticos de la innovación, como las variaciones genéticas o el gen regulador de la evolución, pero se concentran en intentar explicar los mecanismos que subyacen en la generación de novedades (Müller 2010, López-Moratalla y Cerezo 2011). Actualmente el paradigma epigenético es aceptado sin cuestionamientos, a pesar de que todavía no hay un modelo explicativo que pueda dar cuenta de un modo preciso de la dinámica del sistema como un todo (Madhani et al. 2008, Ptashne, Hobert y Davidson 2010).

El indeterminismo fue introducido en las explicaciones biológicas dentro del contexto de los fenómenos complejos y de los procesos de auto-organización (Hooker 2011). Las perspectivas evolutivas, sistémicas y organizacionales de la complejidad biológica abrieron nuevos caminos para el estudio de las funciones orgánicas, que permitieron considerar las teorías evolutivas no sólo desde la biología molecular –asumiendo una selección natural sobre una base genética–, sino también a la luz del desarrollo y la auto-organización de los seres vivos.

La consideración de una dimensión estocástica o aleatoria a nivel microscópico junto con una determinación funcional de las partes y del sistema a nivel macroscópico implicó el reconocimiento de un principio de orden u organización en los vivientes, y permitió aplicar la teoría de sistemas al estudio de los seres vivos (Von Bertalanffy 1950, 1986, Boogerd et al. 2007). Actualmente, para algunos autores, la indeterminación que se percibe en las ciencias de la vida se debe no tanto a la contingencia de las propiedades de la materia biológica, sino principalmente al modo específico que es propio de la emergencia de propiedades sistémicas (Bertolaso 2013).


4. Determinismo, indeterminismo y libre albedrío  

La investigación neurocientífica actual también abre un nuevo capítulo en el problema del determinismo. La asociación que hoy podemos establecer, cada vez con mayor detalle, entre funciones neurales y actos mentales, lleva a plantearse el nada despreciable problema de la naturaleza de la conciencia y de aquellos actos de los que nos consideramos autores. Los experimentos de Libet y otros similares (Libet 1985, Haggard y Eimer 1999, Soon 2008) forzaron a examinar nuevamente el problema, aunque las diversas posiciones son independientes de ese tipo de resultados y a menudo no lo consideran (Mele 2015).

Una descripción preliminar de lo que entendemos por libre albedrío le reconoce dos notas: (a) que dependa de nosotros realizar (o no) una acción determinada, y (b) que el origen de la acción esté en nosotros mismos. Es evidente que el determinismo en sus diversas formas podría ser un obstáculo contra la posibilidad del libre albedrío así entendido, ya sea que el universo estuviera regido por una física determinista, que nuestras acciones resultaran de la herencia genética, de motivaciones inconscientes, de la educación, de condicionamientos sociales, del destino o de un decreto divino. Sin embargo, y aunque indudablemente el tema del determinismo o del indeterminismo gravita sobre el libre albedrío, algunos, como Galen Strawson (1986), sostienen que debería ser resuelto por la ciencia y que no necesariamente debería modificar nuestra concepción del libre albedrío. Por eso la discusión filosófica se ha centrado mayormente en la cuestión de la compatibilidad de la existencia de la libertad en un caso y en otro. Las posiciones se dividen lógicamente en compatibilistas e incompatibilistas. Entre las últimas, el libertarismo afirma la realidad del libre albedrío y defiende en consecuencia el indeterminismo, mientras que el determinismo duro la niega.

En esta sección nos ceñiremos a una presentación de los argumentos esgrimidos durante el último medio siglo, ya que la discusión actual en torno al determinismo se ha inscripto en ese marco. La denominación de ‘clásico’ remite por consiguiente a las primeras posiciones dentro de ese debate, que no necesariamente coinciden con las concepciones de aquellos autores antiguos (Platón, Aristóteles, Epicuro), medievales (Agustín, Anselmo, Tomás) o modernos (Hobbes, Spinoza, Leibniz, D’Holbach, Hume, Kant) que han signado la discusión previa.


4.1. Compatibilismo y libertarismo clásicos  

El incompatibilismo que afirma la realidad del libre albedrío, es decir el libertarismo, ha argumentado de diversas maneras que es esencial al acto libre y responsable contar con lo que se ha llamado ‘posibilidades alternativas’, es decir que el sujeto hubiese podido obrar de otra manera a como lo hizo. Es clásico el argumento modal o de consecuencia (Ginet 1966, van Inwagen 1983). El mismo parte de considerar que si rigiera un determinismo causal, como ni el pasado ni las leyes naturales están en nuestro poder, tampoco lo estarían nuestras acciones y en ningún caso podríamos haber obrado de otra forma. Obviamente, de ahí no se infiere ni la veracidad ni la falsedad del testimonio de nuestra conciencia a favor de la realidad del libre albedrío, pero sí su imposibilidad en un mundo determinista.

El compatibilismo clásico (e.g. Ayer 1954) intenta desarmar el argumento apoyándose en los condicionales contrafácticos. Parte de una concepción diferente de libre albedrío y sostiene que un agente es libre si puede hacer lo que quiere y nada se lo impide. Pero puesto que poder hacer una cosa no implica efectivamente hacerla, ese poder debe entenderse en términos condicionales: el agente lo haría si quisiera hacerlo. Y eso equivale a decir que puede obrar diversamente, de modo que las posibilidades alternativas se expresan mediante un condicional: que el agente habría podido obrar de manera diferente a como lo hizo equivale al condicional según el cual lo habría hecho si lo hubiera querido. Pero el condicional se mantendría verdadero aun en el caso de que su querer estuviera determinado, ya que también en ese caso se podrá decir que si hubiese querido, habría obrado diversamente. El principio de posibilidades alternativas se limitaría entonces a reconocer que el agente habría obrado diversamente si algún acontecimiento en el pasado, en este caso su querer o decisión, hubiese sido distinto. Por lo tanto, el principio mantiene su verdad en un escenario determinista.

Entre las críticas que se pueden mencionar a este uso de los condicionales, está la formulada por Roderick Chisholm (1964). En síntesis, Chisholm razona que el condicional (a) ‘alguien habría obrado diversamente si lo hubiera elegido’ no equivale a decir que (b) ‘habría podido obrar diversamente’, salvo que sea verdadero que (c) ‘habría podido elegir obrar diversamente’. Pero si (c) no fuese verdadero, se mantendría la verdad de (a), como sostiene el compatibilista, pero no la de (b). Por consiguiente, (a) y (b) no son equivalentes y el intento de expresar el requisito de las posibilidades alternativas mediante un condicional es erróneo.


4.2. Nuevos argumentos compatibilistas  

Más recientemente los compatibilistas han propuesto dos nuevos tipos de argumentos para cuestionar la idea de que el libre albedrío implica obrar de acuerdo a posibilidades alternativas: los ejemplos de personajes (character examples) y los ejemplos de tipo Frankfurt. El primer tipo de argumentos se remonta a Dennett (1984) y consiste en decir que hay opciones que son resultado de las acciones de toda una vida. En esos casos el sujeto no podría obrar diversamente, pero eso no quita libertad a su opción, en el sentido de que sigue siendo moralmente responsable. Es más, parecería que solamente en dichos casos puede asumir verdadera responsabilidad por sus acciones. Un ejemplo típico sería Lutero al romper definitivamente con Roma. Al decir “No puedo hacer otra cosa” no se quitaba de encima la responsabilidad, sino que la asumía plenamente. No obstante, a esto puede responderse que en algún momento de su vida Lutero sí pudo haber actuado diversamente y es de ese modo que se fue haciendo responsable también de sus futuras decisiones. Si nunca hubiera podido obrar de otra manera, difícilmente podría hablarse de una responsabilidad moral y, por consiguiente, tampoco de verdadera libertad. No es necesario que dicha posibilidad esté presente en todas las acciones, pero sí al menos en algunas (Kane 1996). Kane habla en este contexto de acciones auto-formadoras (self-forming actions), es decir aquellas acciones de las que el agente es ‘últimamente responsable’ –otra expresión acuñada por Kane– y mediante las cuales forja su propia personalidad, predisponiéndose para obrar de una determinada manera en el futuro. Si ninguna de esas acciones hubiese estado en poder del agente, no cabría hablar de libertad ni de responsabilidad.

El otro tipo de argumentos ha recibido variadísimas formulaciones desde que fue formulado por primera vez en 1969 por Harry Frankfurt, quien dio nombre también al principio de posibilidades alternativas. Se trata de una serie de ejemplos en los que un agente, Jones, ha decidido realizar una determinada acción, pero luego es forzado, amenazado o hipnotizado para realizar esa misma acción. El escenario hace posible que el agente sea responsable de su acción, puesto que la realiza intencionalmente, sin tener verdaderas posibilidades alternativas. El ejemplo que se ha vuelto famoso es el del siniestro Black, quien es capaz de controlar a Jones mediante una poción, hipnosis o incluso manipulando su cerebro. Si Jones hace lo que Black quiere, este no interviene, pero si advierte que Jones va a hacer algo distinto, entonces echa mano de sus artes para controlarlo. En el primer caso Jones es plenamente responsable pero no puede decirse que disponga de posibilidades alternativas ni que pudiera obrar diversamente. El argumento de consecuencia sería inválido y el compatibilismo saldría victorioso. Una defensa de la validez de estos ejemplos se encuentra en Mele y Robb (1998).

John Martin Fischer (1994, 2007) defiende una versión semejante a la de Frankfurt, pero distingue entre ‘posibilidades alternativas’, requisito de la libertad, y el ‘principio de posibilidades alternativas’, que afirma que la responsabilidad moral requiere posibilidades alternativas. Fischer distingue entre un control regulativo de nuestras acciones, que consistiría en poder determinar por sí mismo los acontecimientos, y un control guía, suficiente para la responsabilidad, que implica que el agente actúa por sí mismo de acuerdo a razones. En los ejemplos tipo Frankfurt este segundo tipo de control puede darse en algunas secuencias actuales de acontecimientos. Fischer sostiene que en un mundo determinista no tendríamos el primer tipo de control pero sí el segundo y de ese modo intenta retener la intuición central del incompatibilismo, que al obrar el agente sea dueño de su acción, pero dentro de una visión compatibilista, en la que rija el determinismo y no haya por lo tanto verdaderas posibilidades alternativas. Es decir, que podríamos ser moralmente responsables sin ser propiamente libres, como en los casos planteados por Frankfurt. De ahí que denomine semicompatibilismo a su posición.

Más recientemente, Carolina Sartorio (2015) propone un modelo compatibilista basado en las cadenas causales actuales y prescindiendo de la intención del agente. La propuesta continúa la concepción de libertad de Fischer y Ravizza (1998). Pongamos el siguiente caso: un jinete monta un caballo desbocado y al llegar a una encrucijada en la que se presentan varios caminos, movido por su encono contra los romanos, desvía el caballo por uno de ellos creyendo que es el único que conduce a Roma. En el camino hiere a varios romanos. Según Sartorio, si es verdad que solo un camino lleva a Roma, entonces su acción causa el daño, pero si todos los caminos conducían igualmente a Roma, entonces su acción no es la causa del daño infligido a los romanos, independientemente de lo que el jinete creyera, porque de todas formas los habría atropellado. Aparentemente, las cadenas causales son idénticas (el jinete desvía el caballo por un camino con la intención de herir romanos), pero un dato extrínseco a la acción, a saber si es verdad que solo un camino o todos ellos llevan a Roma, alteraría en realidad la cadena causal actual y sería decisivo para la atribución de responsabilidad al jinete. El principio de posibilidades alternativas no es entonces tan relevante porque en ningún caso podría haber obrado diversamente. Lo determinante es el control que el agente tiene sobre sus acciones, un control que podría conservar también en un mundo determinista.

Otras estrategias compatibilistas son las que ven la libertad, y la consiguiente responsabilidad, en las ‘actitudes reactivas’ (P. Strawson 1962) y en las ‘voliciones de segundo orden’ (Frankfurt 1971). Las actitudes reactivas son los sentimientos morales del sujeto ante una situación u otra persona, como ser gratitud, indignación, deseo de venganza, resentimiento, etc. Aunque la acción haya sido resultado de leyes deterministas, esos sentimientos constituyen un elemento inherente a nuestras relaciones interpersonales y no pueden reducirse ni a su utilidad ni a su racionalidad objetiva. Las voliciones de segundo orden implican una teoría jerárquica de la voluntad y fueron introducidas por Frankfurt para designar la posición que el sujeto adopta ante sus propios motivos para actuar. Lo que mueve inicialmente al agente a obrar es muchas veces un impulso, una costumbre o una tendencia con la que él mismo puede estar o no de acuerdo reflexivamente. La acción es libre cuando es conforme a estas voliciones de orden superior.

Ahora bien, se puede oponer a estos argumentos que tanto las reacciones como las voliciones de primer y también de segundo orden podrían estar determinadas o resultar de una manipulación, de modo que se desdibujaría ese rasgo del acto libre según el cual el agente debería tener el control de su acción. De ese modo, el determinismo seguiría siendo un problema para un compatibilista que adoptara alguna de esas estrategias. Para evitar este tipo de críticas se ha propuesto que el agente obra libremente cuando los motivos por los que obra están de acuerdo con sus verdaderas creencias (Watson 1975), o cuando obra lo correcto por las razones adecuadas (Wolf 1990). En ambos casos sería innecesario apelar a la indeterminación de la voluntad que propone el incompatibilismo, aunque es posible que el fantasma de la manipulación de esos motivos, creencias o razones no haya desaparecido del todo.


4.3. El incompatibilismo y la causalidad propia del agente  

Entre las teorías incompatibilistas, el libertarismo tiene los mayores desafíos, ya que debe resolver tanto el problema del determinismo como la cuestión de la compatibilidad. En efecto, tiene que mostrar que ni el determinismo ni el compatibilismo son verdaderos. Pero se enfrenta además a un problema adicional, que se ha llamado la ‘cuestión de la inteligibilidad’, estrechamente vinculado al del origen o fuente de la acción. La crítica incompatibilista al determinismo que consiste en observar que si nuestras acciones fueran totalmente consecuencia de sucesos en el pasado y de las leyes de la naturaleza, no estarían en nuestro poder y no podrían entonces decirse libres, tiene como contrapartida la afirmación de que hacia el futuro debe existir un indeterminismo causal, al menos el suficiente para que el curso del universo no esté fijado completamente de antemano y que se abra verdaderamente ante el agente un “jardín de senderos que se bifurcan”, al decir de Borges.

Cuando se trata de seres inanimados, se entiende que la causalidad ocurre mediante eventos o acontecimientos que producen otros eventos o acontecimientos (e.g. la elevada temperatura hace comenzar la combustión de un determinado material, que a su vez prende fuego a un árbol, etc. etc.), pero el tipo de causalidad que entra en juego para decidir la responsabilidad de una persona parecería diferente, porque consiste en la acción de un agente. Ahora bien, si el agente ha de realizar un movimiento corporal para ejecutar la acción, estarán sin duda involucrados eventos neurales, los cuales tienen normalmente como causa otros eventos neurales. Para evitar la sobredeterminación causal y ser responsable de la acción, el agente debería causar directamente el evento neural que desencadena el movimiento necesario para realizar dicha acción. Pero una causación directa por parte de un agente que no involucre un evento concreto en el cerebro, parece difícilmente inteligible, además de innecesaria, puesto que dicho evento desencadenante del movimiento bien podría haber sido producido por otro evento, no por un agente. ¿Qué agregaría la causalidad del agente? Si no tiene otro evento como causa, ¿no daría lo mismo decir que ocurrió sin causa, que simplemente sucedió?

Entonces, si del determinismo causal se sigue la negación de la libertad (pace los compatibilistas), el indeterminismo parecería implicar que las acciones no tienen causa. Por supuesto, el libre albedrío no saldría beneficiado con esa explicación, aunque pareciera sustraído al determinismo causal, porque quedaría sujeto a lo que se ha llamado la ‘suerte moral’ (moral luck), tanto para bien como para mal (Nagel 1979). La aceptación de que existe una causalidad propia del agente, como distinta de la propia de los eventos, se ubica entre ambos extremos. En opinión de Chisholm, es necesario aceptar el agente como causa que resuelva la indeterminación a la manera de un ‘motor inmóvil’. Por otra parte, la misma dificultad que encuentra la causalidad del agente se puede aplicar a todo tipo de causalidad: ¿qué agrega la noción de causa a una serie de acontecimientos que suceden uno luego del otro? (Chisholm 1964) En este sentido, es ilustrativo considerar la opinión de que es justamente la experiencia que el agente tiene de generar su propia acción lo que proporciona la noción de causa, que serviría luego de paradigma para aplicar a las cosas inanimadas (Reid 1969 [1788]).

Entre quienes son partidarios de recurrir a una causalidad propia del agente, Randolph Clarke (2003) propone entenderla según su papel en la acción intencional, siendo intenciones, motivos y razones eventos desencadenantes de acciones. La causalidad sería una relación entre causa y efecto, al igual que entre eventos, con la diferencia de que el agente tendría el estatuto ontológico de una sustancia. De ese modo, que el agente sea causa significaría que ocupa un lugar especificado en la relación de causalidad que tiene como efecto una determinada acción. Timothy O’Connor (2000), en cambio, reclama una causalidad más clara para el agente, que debería ser causa directa de la acción, no mediante sus intenciones, sino en virtud de un poder causal propio. Jonathan Lowe también sostiene que el agente sería causa directa de la acción y que su necesidad podría probarse contracausalmente. Los eventos neurales y fisiológicos necesarios para que la acción se realice tienen su origen también en el agente de modo general, aunque no pueda determinarse cuáles específicamente ocurrirán (el agente no determina qué neuronas dispararán ni en qué lugar exacto la mano se posará sobre el picaporte), pero si el agente no hubiera ejercido su causalidad propia, nada de eso habría ocurrido (Lowe 2008).

Alfred Mele admite la causalidad del agente pero no ve necesario adherir al incompatibilismo. Su posición parte de pensar al agente libre como autónomo, es decir como aquel que tiene un control ideal sobre sus acciones y que no está sujeto a manipulación o control por parte de otros. La decisión que sigue a la deliberación es esencial al libre albedrío, pero en esa deliberación se calibran razones y motivos que pueden surgir frente al agente de diversas formas: pueden ser causados determinísticamente por el mismo proceso deliberativo o pueden surgir de manera indeterminista en la mente de la persona que delibera, sea aleatoriamente sea como consecuencia de razones y motivos causados por ese proceso. El agente es autónomo y conserva el control de su acción cuando inclina la balanza hacia unos u otros, pero ese control no tiene que ser último, en el sentido de Kane. Así se elude el problema de la ‘suerte’ moral, admitiendo un modesto indeterminismo interior al agente, el cual mediante sus decisiones va contribuyendo a forjar su carácter. Si el acento se pone sobre el control y la autonomía, Mele sostiene, es posible ser agnóstico respecto del determinismo y del indeterminismo, conservando las ventajas de ambos sin ser compatibilista ni libertario (Mele 1995, 2002).

Otros indeterministas apelan a los motivos o razones para actuar como forma de explicar nuestras acciones, sin necesidad de acudir a la causalidad (Ginet 1990). Robert Kane se diferencia de Ginet en que sostiene que las razones para actuar ejercen una cierta forma de causalidad, aunque no sea una causalidad distinta de la propia de los eventos. Las razones no causan necesariamente pero sí inclinan más o menos, de acuerdo al carácter del agente (Kane 1996). Es interesante mencionar en este contexto el llamado argumento del ‘agente que desaparece’ (disappearing agent), que consiste precisamente en decir que si toda causalidad es del tipo evento, el agente no hace nada para que se dé la acción y, por consiguiente, no tiene ninguna responsabilidad sobre ella (Pereboom 2012). Su autor, sin embargo, lo emplea para esgrimir la idea de que, como la causalidad no es algo real, nadie es responsable de sus acciones.

Eleonore Stump (1996) reconoce que los ejemplos tipo Frankfurt tienen éxito frente a la exigencia de posibilidades alternativas, pero argumenta que el incompatibilismo no necesita mantener esa exigencia. Le basta con sostener que la cadena causal que resulta en una acción no proviene de fuera del agente y que la causa última del acto son las facultades cognitivas del agente y su voluntad. De modo semejante, en la defensa del incompatibilismo Kevin Timpe subordina el principio de posibilidades alternativas al problema del origen o fuente de la acción. Las posibilidades alternativas serían un resultado de satisfacer la condición de ser fuente de la acción en la secuencia actual de acontecimientos, y una condición de la secuencia actual es que el agente sea sensible a razones para actuar y decida de acuerdo a ellas (Timpe 2008).

El debate va mostrando paulatinamente que en cuanto al libre albedrío se refiere, una verdadera distinción entre causalidad propia de eventos y propia de agentes exige considerar específicamente la naturaleza del agente racional, que decide en base a razones para actuar pero sin abandonar en estas ni en sus motivos la decisión por el curso a seguir (Gasser 2014).

Distanciándose de muchos autores, Murphy y Brown (2007) sostienen que el problema del determinismo es secundario, no tanto porque la realidad o no del libre albedrío se resolvería con independencia de él, sino porque afectaría solamente a niveles inferiores de un sistema complejo como es el agente. A su vez, no sería necesaria una causalidad propia del agente, ya que el libre albedrío consistiría en la facultad de un sistema complejo tomado como un todo, no en una parte de ese sistema ni en una propiedad de un individuo que actuaría sobre otras partes de un sistema. El libre albedrío ejercería una causalidad arriba-abajo (top-down o downward) sobre niveles inferiores, que podrían tener perfectamente un comportamiento determinista. El problema no sería el determinismo entonces, sino el reduccionismo neurobiológico.


4.4. El determinismo duro  

Mientras que los deterministas duros clásicos afirman el determinismo y niegan al hombre libertad en sentido fuerte, que implique la responsabilidad sobre nuestras acciones, los defensores contemporáneos del determinismo duro prefieren dejar el problema del determinismo a la discusión científica. Niegan la existencia del libre albedrío pero no por afirmar la verdad del determinismo sino por sostener que es incompatible tanto con el determinismo como con el indeterminismo. Contrariamente a quienes son optimistas respecto de las posibilidades de una mecánica cuántica indeterminista de favorecer la realidad del libre albedrío (Hameroff 2012), sostienen que si el indeterminismo tuviera lugar en el nivel micro-físico, sus efectos serían despreciables en el macroscópico, donde ocurren nuestras acciones. Y si acaso tuviera efectos importantes, no favorecería tampoco el libre albedrío, sino todo lo contrario, ya que si nuestras acciones dependieran de la resolución aleatoria de un cierto grado de probabilidad, tampoco estarían en nuestro poder (Dennett 1984, Honderich 1988).

Para Galen Strawson (1986) el libre albedrío exige una responsabilidad última de parte del agente, como defiende Kane. Muchos compatibilistas no lo advertirían y por eso desarrollan ejemplos estilo Frankfurt. Por su parte, los libertarios creen que dicha responsabilidad es real, pero Strawson considera que no es posible encontrar una acción de la que seamos ‘últimamente responsables’, ya que implicaría un regreso al infinito. En consecuencia, la auto-determinación exigida por el incompatibilismo no existe y el ‘pesimismo’ respecto del libre albedrío sería la posición correcta.

Entre los incompatibilistas destaca Derk Pereboom, ya mencionado, quien denomina a su posición ‘incompatibilismo duro’, ya que piensa que la libertad es incompatible con el determinismo y que este es verdadero. Pero no cree que eso tenga consecuencias tan terribles como algunos suponen; por el contrario, contribuiría a generar empatía, tolerancia y capacidad de perdonar (Pereboom 2001).

Desde el comienzo de la discusión contemporánea sobre el libre albedrío se observa a menudo un presupuesto fisicalista o neurorreduccionista sobre la naturaleza de los actos mentales, incluyendo obviamente nuestras intenciones y decisiones. Gradualmente, sin embargo, se hace cada vez más claro que una acción y un evento en el universo no tienen el mismo status ontológico, menos aún si se trata de la acción de un agente racional. Así, mientras la cuestión del determinismo o indeterminismo físico o biológico permanece abierta, entre quienes no creen en la posibilidad de acciones libres cobran fuerza argumentos tomados de otras ciencias, como la psicología o la sociología. Cualquiera sea la posición que se adopte, sin embargo, el foco se desplaza progresivamente de la realización de un movimiento físico al acto intencional y voluntario. Sin evadir la explicación de cómo un acto mental puede influir sobre el curso de la naturaleza física, el antiguo problema de la causación mental, la discusión alcanza entonces el terreno de la filosofía de la acción y de la voluntad, a fin de establecer tanto las condiciones de una verdadera acción libre como si esas condiciones se cumplen realmente en algún caso. Por otra parte, hay que resaltar que el problema del libre albedrío, particularmente en relación a la cuestión del determinismo, recoge un aspecto parcial del tema clásico de la libertad, a saber la capacidad de optar (Blanco y Roldán 2016). Puede afirmarse así que la contraposición entre compatibilismo e incompatibilismo tiene sus limitaciones, resultando insuficiente cuando se considera a la libertad desde perspectivas que no la reducen al libre albedrío, como por ejemplo, la distinción de origen tomista entre libertad electiva y libertad de amor indefectible al bien trascendental (Sanguineti 2013).


5. Determinismo, indeterminismo y acción divina  

La discusión científica sobre el determinismo o el indeterminismo del mundo natural atañe no sólo a la filosofía de la naturaleza y de la ciencia, sino también a la teología natural (Vanney 2015). Pues al estudiar la acción providente de Dios en el gobierno del mundo no resulta indiferente asumir una cosmovisión determinista o indeterminista. Los avances de la ciencia en el último siglo también abrieron nuevas perspectivas de análisis en esta cuestión.


5.1. Dios en un mundo determinista  

Durante los siglos dieciocho y diecinueve, el universo fue comparado a un gran mecanismo de relojería. Según Wolfhart Pannenberg, la cuestión más importante en la intersección entre ciencia y religión durante la época moderna se refiere a la interpretación mecanicista de la naturaleza (Pannenberg 2006). La comprensión mecanicista condujo a la concepción de un Dios relojero, que creó el cosmos y lo dejó evolucionar por sí mismo, ignorándolo.

Esta tesis deísta, apoyada también por algunos teólogos protestantes liberales como Friedrich Schleiermacher (Schleiermacher 1956, §46), Rudolph Bultmann (Bultmann 1953) y Gordon Kaufman (Kaufman 1968), tuvo fuertes implicancias teológicas. Una visión causalmente cerrada de la naturaleza confronta a la teología de la acción divina, forzando a elegir entre dos alternativas:

a) No-intervencionismo: Dios sólo establece las condiciones iniciales. Si las leyes de la mecánica determinan el curso del universo rígidamente, no hay ninguna cabida para una acción providente de Dios sin violar las leyes de la naturaleza.

b) Una acción divina objetivamente especial: Dios realmente interviene en el orden natural, pero lo hace violando o suspendiendo las leyes ordinarias de la naturaleza.


5.2. Dios en un mundo indeterminista  

En los últimos veinte años, el programa de investigación llamado “Perspectivas científicas sobre la acción divina” estudió diversas áreas de la ciencia contemporánea que ofrecen diferentes espacios de indeterminación, con la finalidad de explicar la acción divina en el mundo natural (Wildman 2004, Russell, Stoeger y Murphy 2009). Varios investigadores de este programa sostuvieron que Dios, al seleccionar las leyes de la naturaleza, eligió unas leyes muy específicas con propiedades notables que, sin restringirse a un mero despliegue de sus consecuencias, dan lugar a una genuina emergencia de la complejidad e indeterminación en la naturaleza (Murphy 2010).

En 1958, William Pollard había sugerido que las indeterminaciones cuánticas eran el dominio a través del cual actúa la providencia divina en el gobierno de todos los eventos (Pollard 1958). Para Robert Russell, director del programa de investigación mencionado, la mecánica cuántica resulta, entre otros, un marco muy adecuado para dar cabida a una “acción divina no-intervencionista objetivamente especial” (Russell et al. 2001). Nicolás Saunders, filósofo de la física, distingue cuatro posibles ámbitos de acción divina en el dominio cuántico: 1) Dios altera la función de onda entre las mediciones; 2) Dios hace sus propias mediciones en un sistema dado; 3) Dios altera las probabilidades de obtener un resultado particular; 4) Dios controla los resultados de las mediciones (Saunders 2000). Pero las cuatro alternativas tienen aspectos problemáticos, pues algunas conllevan acciones divinas altamente intervencionistas y otras dependen críticamente del status ontológico que se le otorgue a las probabilidades de la medición. En este sentido, como muchos de los investigadores del programa “Perspectivas científicas sobre la acción divina” asumen un indeterminismo intrínseco en la naturaleza, también prefieren las interpretaciones de la mecánica cuántica que aceptan el postulado de la proyección o colapso de la función de onda. Crítico a este programa, Saunders señala: “La tesis de que Dios determina todos los eventos cuánticos es no sólo científicamente irreconciliable con la teoría cuántica, sino también teológicamente paradójica (…) Si Dios actúa en la mecánica cuántica con regularidad, hay entonces relativamente pocos procesos que escapan a tal control. Si éste es el caso, parece muy irracional que Dios hubiera formulado la mecánica cuántica, como un resultado de la creación del mundo, para que sea indeterminada (…) En efecto, si tuviéramos que acoplar las propuestas discutidas aquí con la común interpretación del problema de la medición cuántica, llegaríamos a la absurda conclusión de que Dios a menudo evita actuar en el universo por la ausencia de alguien para realizar una medición” (Saunders 2000, 541-542).

Desde una perspectiva más metafísica, otros filósofos también han argumentado que para admitir una acción divina en el mundo natural no sería un requerimiento indispensable la indeterminación cuántica (Silva 2014). Para explicar la diversidad de lo real conviene reconocer una pluralidad de sentidos concurrentes de la causalidad, de manera que se pueden considerar tantos tipos de causas como maneras diversas de subordinación real (Polo 2004). La diversidad de causas alude a sentidos diversos de la prioridad que se implican mutuamente. Es decir, si bien existen varios sentidos de la causalidad, éstos no ocurren aislados. Todas las causas son causas, pero lo son concurriendo, produciendo la causalidad según un orden determinado, de manera que la suficiencia de la pluralidad causal reside en la concurrencia causal completa.

La causalidad de las criaturas no produce el ser en cuanto tal, sino que las criaturas son causas transformadoras, causas del hacerse de las cosas o causas segundas. Pero la causalidad creada exige una causa primera que sea causa del ser. Desde una perspectiva aristotélico-tomista, el término propio de la causalidad creada en los procesos de generación o corrupción es la forma, que es el acto primero de la sustancia corpórea. A su vez, en los fenómenos de alteraciones accidentales, el término es un nuevo accidente de la sustancia. Así, el agente creado no es causa única y absoluta de su efecto, sino más bien es causa de que éste se origine. Las causas creadas influyen directa e inmediatamente, más que en el ser del efecto, en su modo de ser, ya sea sustancial o accidental. En cambio, la causalidad creadora o causalidad divina tiene como objeto propio el ser. Es decir, Dios es la Causa Primera del ser de las cosas. La Causa creadora es trascendente en relación con las causas finitas: no pertenece al orden de las causas segundas, sino que es su fuente absoluta. La creación es el acto fundacional del ser de las creaturas a partir de la nada. La Causa trascendente penetra hasta lo más íntimo de sus criaturas, de manera que está en ellas sin confundirse con ellas. Este perdurar del acto divino es la conservación en el ser.

El fundamento real se distingue de lo que en él se funda. Aristóteles puso el fundamento de lo real en algo que no siendo movido mueve, que es eterno, sustancia y acto puro (Metafísica, 1072 a 25-26): el Primer Ser mueve a modo de causa final, porque la causa fundamental no puede encontrarse en una serie infinita de causas segundas. Tomás de Aquino señaló, además, que la fundación radical del ser es privativa de Dios, porque sólo Dios es el Ser subsistente, y una Causa universal y todopoderosa.

Para Tomás de Aquino los entes están dirigidos intrínsecamente a un fin por su naturaleza (Summa Theologiae, II-II, q. 26, a.1 ad. 2), pero también están dirigidos de un modo trascendente por el Creador, que les dio la naturaleza. El fin del Creador, que es Él mismo, es previo al fin intrínseco de la naturaleza. De esta manera, puede asimilarse la unidad de orden del universo al designio establecido por la Inteligencia ordenadora del Creador, que posee en acto el fin del cosmos. Con otras palabras, el Origen del orden de la naturaleza se encuentra en el acto intelectual creador de Dios (trascendente al cosmos), que conoce y establece un orden necesario en él. De este modo, el orden estático y dinámico de perfecciones del mundo responde a la causalidad divina.

Por esta razón, cuando se asume que la acción de Dios en la naturaleza requiere huecos de indeterminación en las leyes científicas o la existencia de regiones donde la causalidad no está bien definida, se utiliza una comprensión de la causalidad un tanto ambigua, que adolece de una distinción precisa entre la causalidad divina y la causalidad creada. La equivalencia entre la causalidad divina y la causalidad creada también resulta problemática, pues si el estatus causal de Dios es reducido al estatus de cualquier otra causa, las acciones divinas pierden su carácter de providentes. Es difícil comprender cómo una causa, que es solamente una causa más entre otras, pueda guiar el mundo creado a su destino final (Silva 2013).


5.3. Designio y azar  

En las antípodas de los investigadores mencionados en la sección anterior se encuentran otros que atribuyen el colapso de la función de onda a una mera cuestión de azar. Esta posición también tiene implicaciones teológicas, pues desafía fuertemente la idea de un designio divino en la naturaleza o de un propósito divino en la creación. Muchos pensadores materialistas asumen, por esta razón, como una premisa básica de sus investigaciones, que nuestro mundo no es el resultado de un propósito divino sino un mero producto del azar (Monod 1970, Dawkins 1988, Dennett 1995).

Desde la teología se han dado respuestas diversas a este problema. Algunos teólogos, como los mencionados anteriormente, atribuyen a Dios la determinación de las posibilidades que el indeterminismo cuántico deja abiertas de un modo directo. Otros, en cambio, sostienen que tanto las leyes como el azar integran el plan divino, porque Dios creó el universo como un proceso auto-organizativo. Para estos últimos, Dios ha dado un propósito al cosmos, aunque sin determinar la secuencia de los eventos de un modo directo. “Dios permite en la naturaleza una cierta apertura y flexibilidad, que se convierte en lo natural, en la base estructural de la flexibilidad de los organismos conscientes y, a su debido tiempo y más especulativamente, posiblemente en la libertad del cerebro-humano-en-el-cuerpo-humano, es decir, de las personas (…) Esto nos ayuda a percibir el mundo natural como una matriz en la cual la apertura y la flexibilidad y, en la humanidad, incluso tal vez la libertad puedan emerger de un modo natural” (Peacocke 1995, 281).


5.4. Causalidad hacia abajo  

El holismo del mundo cuántico, fruto del entrelazamiento de los estados cuánticos, por un lado, y la biología sistémica por otro, también abrieron perspectivas nuevas a la reflexión sobre el sentido de la causalidad y la acción divina en el mundo natural.

Los estados cuánticos de los sistemas de muchas partículas no se pueden expresar como un simple producto de los estados de las partículas individuales, sino como una superposición de dichos estados, incluyendo un término de interferencia. Esta propiedad se conoce con el nombre de entrelazamiento cuántico (Bub 2014). En 1935 Erwin Schrödinger ya había explicado que, cuando entre dos partículas hubo una interacción física temporal, ambas se deben describir mediante una única función de onda (Schrödinger 1935). Pero esta afirmación tiene consecuencias notables: cuando un sistema cuántico interactúa con otro en un momento cualquiera, ambos sistemas continúan manteniendo una asombrosa correlación. En otras palabras, el entrelazamiento entre ellos persiste incluso después de haber sido separados por grandes distancias (Aspect, Dalibard y Roger 1982). Pero como la no-localidad también podría entenderse como una acción-a-distancia causal instantánea (como lo hace la mecánica bohmiana), con el riesgo de violar el espíritu de la teoría de la relatividad especial, varios autores prefieren asumir una no-separabilidad holística en la interpretación de la mecánica cuántica (Redhead 2001).

En la física newtoniana, todo sistema puede ser analizado en partes, cuyos estados y propiedades determinan las del todo que componen. Los estados entrelazados de la mecánica cuántica, en cambio, resisten a este análisis, oponiéndose así al reduccionismo metodológico de la física de Newton (Healey 2009). Algunos académicos han señalado que el carácter holístico de la física cuántica “es consistente con una visión de múltiples niveles de la realidad y con la emergencia de nuevos tipos de eventos en los niveles más altos de la organización” (Barbour 2000, 89). Esta afirmación no implica necesariamente un reduccionismo (Gershenson 2013). Hay una fuerte inclinación natural a asumir que la física de partículas, tal como la describe la teoría física de campos, subyace a la física atómica. De una manera similar, en términos generales, la física atómica subyace a la química, y la química a la bioquímica. Pero es importante destacar que las relaciones inter-teóricas difieren en los casos mencionados, sin que sea posible proporcionar ejemplos claros de reducción teórica, como lo sería, por ejemplo, la deducción de una teoría a partir de otra, junto con una buena elección de las definiciones de los términos.

La existencia de múltiples niveles de realidad no implicaría un reduccionismo porque “hay que esperar que los niveles ‘superiores’ contengan mucho (en términos de estructuras, conceptos o explicaciones) de lo que es distintivo, recibiendo un alto nivel de ‘autonomía’ de los ‘niveles’ inferiores” (Butterfield 2001, 113-114). En el nivel microfísico, las unidades constitutivas de los sistemas son lo que son por su incorporación a la totalidad del sistema. Este último ejerce restricciones precisas sobre sus componentes (causalidad hacia abajo), haciendo que las componentes se comporten de un modo diverso a como lo harían si estuvieran aisladas. Es decir, “además de la causalidad hacia arriba, hay efectos contextuales por los que los niveles superiores ejercen influencias cruciales sobre los niveles inferiores, configurando las condiciones de contorno y de contexto para las acciones de los niveles más bajos. Esto se relaciona con la emergencia de leyes efectivas de comportamiento en los niveles superiores, que permiten hablar de la existencia de entidades de niveles superiores con todo derecho. Ellas juegan un papel efectivo no sólo en su propio nivel, sino que también influencian los niveles inferiores configurando el contexto para sus acciones” (Ellis 2012, 1896).

La biología sistémica ofrece una perspectiva similar. Para el reduccionismo biológico, los sistemas se definen desde un enfoque causal hacia arriba. Pero el desarrollo biológico coordina de un modo peculiar la diferenciación de las partes constitutivas del sistema con su contribución al funcionamiento del organismo. Como la biología del desarrollo considera minuciosamente las redes de flujo y las relaciones jerárquicas que definen un sistema y el contexto en el que éste existe, toda causalidad no aleatoria puede ser un resultado del desarrollo en algún nivel (Bertolaso 2011).

Es decir, al reconocer la existencia de propiedades holísticas no deducibles desde las partes del organismo, el emergentismo dio una nueva respuesta al reduccionismo. Para indicar la capacidad selectiva de los organismos complejos respecto a algunas propiedades de sus partes constitutivas, las consideraciones emergentistas utilizan la noción de causalidad hacia abajo (Campbell 1974). Una causalidad hacia abajo –bajo la forma de restricciones organizacionales o informacionales- parece predominar en los sistemas maduros, en los que el funcionamiento depende en menor medida de las partes constitutivas de los niveles inferiores. En resumen, al enfatizar las relaciones que intervienen en la estructuración del organismo, las perspectivas de la biología sistémica manifiestan la conveniencia de considerar la compatibilidad y la mutua dependencia de los dos enfoques causales: hacia arriba y hacia abajo (Bertolaso 2013).

Algunos teólogos, como Arthur Peacocke, asumieron esta perspectiva para explicar la acción de Dios en el mundo natural, y destacaron que el modo en el que opera la causalidad hacia abajo brinda una nueva comprensión de la interacción entre Dios y la naturaleza, que preserva de alguna manera la trascendencia divina. “Si Dios interactúa con el ‘mundo’ en este nivel superviniente de totalidad, entonces Él puede ser causalmente efectivo de un modo ‘hacia abajo’ sin la derogación de las leyes y regularidades (y de las impredictibilidades que hemos observado) que operan en la miríada de subniveles de existencia que constituyen el mundo” (Peacocke 1993, 159).


6. Discusión final  

La ciencia contemporánea ha renovado el interés por cuestiones fundamentales, como el debate sobre el indeterminismo de la naturaleza o el dilema entre determinismo y libertad, que conciernen no sólo a las ciencias naturales, sino también a la filosofía y a la teología.

Cuando las disciplinas científicas abordan estas cuestiones suelen restringir el ámbito de estudio, asumiendo implícitamente premisas como: “supongamos que el mundo es como la mecánica cuántica dice que es”. Este contexto restringido habilita a un ejercicio que arroja luz en múltiples direcciones. Por una parte, ayuda a comprender mejor qué dice la teoría misma. Por otra, permite determinar con mayor precisión su rango de aplicación. Por último, también sugiere posibles falsaciones. Es decir, el ejercicio de explorar una teoría científica en forma radical, como si fuese una teoría acabada del mundo, resulta un ejercicio formidable para ir más allá de la teoría misma.

Por esta razón, preguntar si para la física, la biología o la neurociencia el mundo es determinista o no, es una pregunta con gran importancia heurística. Pero al indagar en su respuesta hay que tener presente que el sujeto de quien se predica el determinismo en las teorías científicas no es la naturaleza, sino diversas objetivaciones científicas, que brindan un cierto conocimiento de los procesos naturales, pero que no se identifican con la naturaleza misma. Las teorías científicas se abocan a un tema, circunscribiéndose y abordando aquello que estudian de una forma peculiar. Por esta razón, el condicional “si el mundo fuera como tal teoría (in)determinista dice que es, el mundo sería (in)determinista”, encuentra una rápida respuesta en la afirmación de que el mundo nunca es lo que la teoría dice que es. En el mejor de los casos, sólo se podría declarar: “los sistemas que estudia tal teoría son, al parecer, (in)deterministas”. Pero queda por delante la difícil tarea de reconciliar con el mundo el recorte y la idealización que la teoría hizo del mundo.

Las miradas disciplinares son inevitables –pues en cada disciplina se trabaja bajo el marco de una doctrina teórica, con métodos y procedimientos propios–, pero las cuestiones fundamentales requieren un abordaje especial, pues sus respuestas deben superar las descripciones parciales. Únicamente una investigación interdisciplinar, que cuente con un marco epistemológico adecuado, puede dar lugar a una unión –sin confusión– de ciencias y métodos donde se enriquezcan los resultados con los aportes diversos.


7. Bibliografía  

Aristóteles. 1967. Física, Metafísica. En Obras Completas. Madrid: Aguilar.

Aspect, Alain, Jean Dalibard, y Gérard Roger. 1982. "Experimental Test of Bell's Inequalities Using Time- Varying Analyzers."  Physical Review Letters 49 (25):1804-1807.

Ayer, Alfred J. 1954. “Freedom and Necessity”. En Philosophical Essays, 3-20. New York: St. Martin’s Press.

Barbour, Ian G. 2000. When Science Meets Religion. London: Society for Promoting Christian Knowledge.

Bertolaso, M. 2011. "Epistemology in life sciences. An integrative approach to a complex system like cancer."  Ludus Vitalis XIX (36):245-249.

Bertolaso, Marta. 2013. "La indeterminación biológica y las perspectuvas sistémicas de la biología contemporánea."  Anuario Filosofico 46:387-403.

Bevers, Brett Maynard. 2011. "Everett's “Many-Worlds” proposal."  Studies in History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics 42 (1):3-12. doi: http://dx.doi.org/10.1016/j.shpsb.2010.11.002.

Bishop, R. 2015. "Chaos." En The Standford Encyclopedia of Philosophy, editado por Edward N. Zalta. http://plato.stanford.edu/archives/win2015/entries/chaos/

Bishop, Robert C. 2005. "Anvil or onion? Determinism as a layered concept."  Erkenntnis 63 (1):55-71. doi: 10.1007/s10670-005-0363-y.

Blanco, Carlos y Juan Pablo Roldán. 2016. “¿Es compatible el concepto de libertad personal con la investigación neurocientífica?”. En ¿Determinismo o indeterminismo? Grandes preguntas de la ciencia a la filosofía, editado por Claudia E. Vanney y Juan F. Franck, 369-388. Buenos Aires: Logos - Universidad Austral.

Boogerd, Fred C., F. J. Bruggeman, J. Hofmeyr, y H. Westerhoff, eds. 2007. Systems Biology: Philosophical Foundations. Amsterdam: Elsevier.

Bub, Jeffrey. 2014. Quantum Entanglement and Information. En The Stanford Encyclopedia of Philosophy, editado por Edward N. Zalta. http://plato.stanford.edu/archives/fall2014/entries/qt-entangle/

Bultmann, Rudolf. 1953. "New Testament and mythology." En Kerygma and myth: a theological debate, editado por Hans Werner Bartsch, 1-44. London: Society for Promoting Christian Knowledge.

Bunge, M. 1978. Causalidad. El principio de causalidad en la ciencia moderna. Buenos Aires: Eudeba.

Butterfield, Jeremy. 2001. "Some worlds of quantum theory." En Quantum Mechanics. Scientific Perspectives on Divine Action, editado por R. J. Russell, P. Clayton, K. Wegter-McNelly y J. C. Polkinghorne, 111-140. Vatican City: Vatican Observatory Publication.

Campbell, D. T. 1974. "Downward causation in hierarchically organized biological systems." En Studies in the Philosophy of Biology, editado por F. J.  Ayala y T. Dobzhansky. Berkeley: University of California Press.

Carnap, Rudolf. 1966. Philosophical foundations of physics: an introduction to the philosophy of science. New York: Basic Books.

Chisholm, Roderick M. 1964. “Human Freedom and the Self”. The Lindley Lecture. En Free Will, editado por Gary Watson, 24-35. Oxford: Oxford University Press.

Clarke, Randolph. 2003. Libertarian Accounts of Free Will. New York: Oxford University Press.

Darwin, Charles. 1983 [1859]. El origen de las especies. Madrid: Sarpe.

Dawkins, R. 1976. The Selfish Gene. Oxford: Oxford University Press.

Dawkins, Richard. 1988. The blind watchmaker. London: Penguin.

de Broglie, Louis. 1941. Continu et discontinu en physique moderne. Paris: A. Michel.

Dennett, Daniel C. 1995. Darwin's dangerous idea: evolution and the meanings of life. New York: Simon & Schuster.

Dennett, Daniel. 1984. Elbow Room. Cambridge, MA: MIT Press.

Earman, John. 1986. A premier on determinism. Dorddrech: Reidel.

Ellis, George F. R. 2012. "On the limits of quantum theory: Contextuality and the quantum–classical cut."  Annals of Physics 327 (7):1890-1932. doi: http://dx.doi.org/10.1016/j.aop.2012.05.002

Faye, Jan. 2014. "Copenhagen Interpretation of Quantum Mechanics." En The Stanford Encyclopedia of Philosophy, editado por Edward N. Zalta. http://plato.stanford.edu/archives/fall2014/entries/qm-copenhagen/

Février, Paulette. 1957. Determinismo e indeterminismo. México: UNAM.

Fischer, John Martin. 1994. The Metaphysics of Free Will: A Study of Control. Oxford: Blackwell.

Fischer, John Martin. 2007. “Compatibilism”. En Fischer et al. Four Views on Free Will, 44-84. Oxford: Blackwell Publishing.

Fischer, John y Ravizza, Mark. 1988. Responsibility and Control. Cambridge: Cambridge University Press.

Fortin, S. 2015. "Determinismo e indeterminismo en mecánica cuántica." En Fronteras del determinismo científico. Filosofía y ciencias en diálogo, editado por Claudia E. Vanney y Olimpia Lombardi, 69-84. Madrid: Biblioteca Nueva.

Frankfurt, Harry. 1969. “Alternate Possibilities and Moral Responsibility”. Journal of Philosophy 66: 829-39. doi: 10.2307/2023833.

Frankfurt, Harry. 1971. “The Freedom of the Will and the Concept of a Person”. Journal of Philosophy 68: 5-20. doi: 10.2307/2024717.

Gasser, Georg. 2014. “Kausalkräfte und agenskausale libertarische Willensfreiheit”. En Vermögen und Handlung. Der dispositionale Realismus und unser Selbstverständnis als Handelnde, editado por Anne Sophie Spann y Daniel Wehinger, 311–335. Münster: Mentis.

Gershenson, Carlos. 2013. "The Implications of Interactions for Science and Philosophy."  Foundations of Science 18 (4):781-790. doi: 10.1007/s10699-012-9305-8.

Ginet, Carl. 1966. “Might We Have No Choice?” En Freedom and Determinism, editado por Keith Lehrer, 87-104. New York: Random House.

Ginet, Carl. 1990. On Action. Cambridge: Cambridge University Press.

Goldstein, Sheldon. 2013. "Bohmian Mechanics." En The Stanford Encyclopedia of Philosophy, editado por Edward N. Zalta. http://plato.stanford.edu/archives/spr2013/entries/qm-bohm/

Haggard, Patrick y Martin Eimer. 1999. “On the Relation between Brain Potentials and the Awareness of Voluntary movements”. Experimental Brain Research (126/1): 128-133.

Hameroff, Stuart. 2012. “How quantum brain biology can rescue conscious free will.” Frontiers in Integrative Neuroscience 6. doi: 10.3389/fnint.2012.00093.

Healey, Richard. 2009. Holism and Nonseparability in Physics. En The Stanford Encyclopedia of Philosophy, editado por Edward N. Zalta. http://plato.stanford.edu/archives/spr2009/entries/physics-holism/

Home, D., y M. A. B. Whitaker. 1992. "Ensemble interpretations of quantum-mechanics - a modern perspective."  Physics Reports-Review Section of Physics Letters 210 (4):223-317. doi: 10.1016/0370-1573(92)90088-H.

Honderich, Ted. 1988. A Theory of Determinism. 2 vols. Oxford: Clarendon Press.

Hooker, C., ed. 2011. Philosophy of Complex Systems, Handbook of the Philosophy of Science. Oxford: Elsevier.

Hume, David. 1975. A treatise of human nature. Oxford: Clarendon Press.

James, W. 1897. "The dilemma of determinism." En The will to believe: and other essays in popular philosophy, 145-183. New York: Dover Publication.

Kane, Robert. 1996. The Significance of Free Will. Oxford: Oxford University Press.

Kaufman, Gordon D. 1968. "On The Meaning of “Act of God”."  Harvard Theological Review 61 (02):175-201. doi: 10.1017/s0017816000027991.

Klimovsky, G. 1994. Las desventuras del conocimiento científico. Buenos Aires: A-Z Editora.

Krips, Henry. 2013. "Measurement in Quantum Theory." En The Stanford Encyclopedia of Philosophy, editado por Edward N. Zalta. http://plato.stanford.edu/archives/fall2013/entries/qt-measurement/

Laplace, Piere Simon. 1985 [1814]. Ensayo filosófico sobre las probabilidades. Madrid: Alianza.

Libet, B. 1985. “Unconscious cerebral initiative and the role of conscious will in voluntary action”. Behavioral and Brain Sciences 8(04): 529-539.

Locke, John. 1986. Ensayo sobre el entendimiento humano. México DF: Fondo de cultura económica.

Lombardi, O. 1998. "La teoría del caos y el problema del determinismo."  Diálogos XXXIII: 21-42.

Lombardi, O. 2002. "Determinism, internalism and objectivity." En Between Chance and Choice. Interdisciplinary Perspectives on Determinism, editado por H. Atmanspacher y R. Bishop, 75-87. Exeter: Imprint Academic.

Lombardi, Olimpia, y Dennis Dieks. 2014. "Modal interpretations of Quantum Mechanics." En The Stanford Encyclopedia of Philosophy, editado por Edward N. Zalta. http://plato.stanford.edu/archives/win2012/entries/qm-modal/

López-Moratalla, N., y M. Cerezo. 2011. "The self-construction of a living organism." En Information and Living Systems: Philosophical and Scientific Perspectives, editado por G. Terzis and R. Arp. Cambridge-MA: MIT Press.

Lowe, E. J. 2008. Personal Agency: The Metaphysics of Mind and Action. Oxford: Oxford University Press.

Madhani, Hiten D., Nicole J. Francis, Robert E. Kingston, Roger D. Kornberg, Danesh Moazed, Geeta J. Narlikar, Barbara Panning, y Kevin Struhl. 2008. "Epigenomics: a roadmap, but to where?"  Science 322 (5898):43-44. doi: 10.1126/science.322.5898.43b.

Mele, A. 1995. Autonomous Agents: From Self-Control to Autonomy. New York: Oxford University Press.

Mele, Alfred (ed.). 2015. Surrounding Free Will: Philosophy, Psychology, Neuroscience. Oxford: Oxford University Press.

Mele, Alfred y David Robb. 1998. “Rescuing Frankfurt-style Cases”. The Philosophical Review 107: 97-112. doi: 10.2307/2998316.

Mele, Alfred, 2002. “Autonomy, self-control, and weakness of will”. En The Oxford Handbook of Free Will, editado por Robert Kane, 529–548. New York: Oxford University Press.

Monod, Jacques. 1970. Le hasard et la nécessité. Essai sur la philosophie naturelle de la biologie moderne. Paris: Editions du Seuil.

Montague, R. 1974. "Deterministic Theories." En Formal Philosophy, 303-359. New Haven: Yale University Press.

Müller, G. B. 2010. "Epigenetic innovation." En Evolution. The Extended Synthesis, editado por M. Pigliucci y G.  Müller, 307-332. Cambridge-MA: MIT Press.

Murphy, Nancey y W. Brown. 2007. Did My Neurons Make Me Do It? Oxford: Oxford Unversity Press.

Murphy, Nancey. 2010. "Divine action, emergence and scientific explanation." En The Cambridge companion to science and religion, editado por P. Harrison, 244-259. New York: Cambridge University Press.

Nagel, Ernest. 1953. "The Causal Character of Modern Physical Theory." En Readings in the Philosophy of Science, editado por H. Feigl y M. Brodbeck. New York: Appleton-Century-Crofts.

Nagel, Thomas. 1979. “Moral luck”. En Mortal Questions, 24-38. Cambridge: Cambridge University Press.

O’Connor, Timothy, 2000. Persons and Causes: The Metaphysics of Free Will. New York: Oxford University Press.

Pannenberg, Wolfhart. 2006. "Problems between science and theology in the course of their modern history."  Zygon 41 (1):105-112. doi: 10.1111/j.1467-9744.2006.00728.x.

Peacocke, Arthur. 1993. Theology for a scientific age: being and becoming - natural, divine and human. Minneapolis: Fortress Press.

Peacocke, Arthur. 1995. "God's Interaction with the World: The Implications of Deterministic "Chaos" and of Interconnected and Interdependent Complexity." En Chaos and Complexity: Scientific Perspectives in Divine Action, editado by R. J. Russell, N. Murphy y A. R. Peacocke, 263-287. Vatican City: Vatican Observatory Publications.

Pereboom, Derk. 2001. Living without Free Will. Cambridge: Cambridge University Press.

Pereboom, Derk. 2012. “The disappearing agent objection to event-causal libertarianism”. Philosophical Studies (1):1-11. doi: 10.1007/s11098-012-9899-2.

Poincaré, H. . 1982. Méthodes Nouvelles de la Mecanique Celeste. Paris: Gauthier Villars.

Pollard, William. 1958. Chance and Providence. God's Action in a World Governed by Scientific Laws. New York: Charles Scibner's Sons.

Polo, L. 2004. Curso de Teoría del Conocimiento. Tomo IV. Segunda edición ed. Pamplona: Eunsa.

Ptashne, Mark, Oliver Hobert, y Eric Davidson. 2010. "Questions over the scientific basis of epigenome project."  Nature 464 (7288):487-487.

Pusey, Matthew F., Jonathan Barrett, y Terry Rudolph. 2012. "On the reality of the quantum state."  Nature Physics 8 (6):475-478. doi: 10.1038/nphys2309.

Redhead, Michael. 2001. "The tangled story of nonlocality in quantum mechanics." En Quantum Mechanics. Scientific Perspectives on Divine Action, editado por R. J. Russell, P. Clayton, K. Wegter-McNelly y J. C. Polkinghorne, 141-158. Vatican City: Vatican Observatory Publication.

Reid, Thomas. 1969 [1788]. Essay on the Active Powers of the Human Mind. Cambridge, MA: MIT Press.

Rosenberg, A. 2007. "Reductionism (and antireductionism) in Biology." En The Cambridge Companion to the Philosophy of Biology, editado por D. L. Hull y M.  Ruse, 120-138. Cambridge: Cambridge University Press.

Russell, Robert J., William R. Stoeger, y Nancey Murphy, eds. 2009. Scientific Perspectives in Divine Action. Twenty Years of Challenge and Progress. Vatican City: Vatican Observatory Publications.

Russell, Robert John, Philip  Clayton, Kirk Wegter-McNelly, y John Polkinhorne, eds. 2001. Quantum mechanics: scientific perspectives on divine action. Vatican City State: Vatican Observatory Publications.

Sanguineti, Juan José. 2013. “Libertad, determinación e indeterminación en una perspectiva tomista”. Anuario Filosófico 46(2): 387-403.

Sartorio, Carolina. 2015. “Cómo no perder el control en un mundo determinista”. En Fronteras del determinismo científico. Filosofía y ciencias en diálogo, editado por Claudia E. Vanney y Olimpia Lombardi, 187-199. Madrid: Biblioteca Nueva.

Saunders, Nicholas. 2000. "Does God cheat at dice? Divine action and quantum possibilities."  Zygon 35 (3):517-544.

Schleiermacher, Friedrich. 1956. The Christian Faith. 1 ed. Edinburg: T. & T. Clark.

Schrödinger, Erwin. 1935. "Discussion of Probability Relations between Separated Systems."  Mathematical Proceedings of the Cambridge Philosophical Society 31 (04):555-563. doi: 10.1017/s0305004100013554.

Silva, I. 2013. "Indeterminismo y providencia divina."  Anuario Filosofico 46:405-422.

Silva, Ignacio. 2014. "Revisiting Aquinas on Providence and Rising to the Challenge of Divine Action in Nature." The Journal of Religion 94 (3):277-291. doi: 10.1086/676024.

Soon, C. S. et al. 2008. “Unconscious determinants of free decisions in the human brain”. Nature Neuroscience 11(5): 543-5.

Strawson, Galen. 1986. Freedom and Belief. Oxford: Oxford University Press.

Strawson, Peter F. 1962. “Freedom and Resentment”. Proceedings of the British Academy 48: 1-25.

Stump, Eleonore. 1996. “Libertarian Freedom and the Principle of Alternative Possibilities”. En Faith, Freedom and Rationality, editado por Daniel Howard-Snyder y Jeff Jordan, 73-88. Lanham, MD: Rowman and Littlefield.

Suppe, Frederick. 1989. The Semantic Conception of Theories and Scientific Realism. Chicago: University of Illinois Press.

Timpe, Kevin. 2008. Free Will. Sourcehood and its Alternatives. New York-London: Continuum.

Tomás de Aquino. 1952-1965. Summa Theologiae, Summa contra gentes, Compendium teologiae. Edición Marietti, Taurini-Romae.

van Inwagen, Peter. 1983. An Essay on Free Will. Oxford: Clarendon Press.

Vanney, C., ed. 2013. El debate sobre el determinismo: nuevas perspectivas desde la ciencia contemporánea. Vol. 46, Anuario Filosofico. Navarra: Servicio de Publicaciones de la Universidad de Navarra.

Vanney, C., y J. F. Franck, eds. 2016. ¿Determinismo o indeterminismo? Grandes preguntas de la ciencia a la filosofía. Buenos Aires: Logos - Universidad Austral.

Vanney, Claudia E. 2015. "Is Quantum Indeterminism Real? Theological Implications."  Zygon (in press).

Vanney, Claudia E., y Olimpia Lombardi, eds. 2015. Fronteras del determinismo científico. Filosofía y ciencias en diálogo. Madrid: Biblioteca Nueva.

Von Bertalanffy, L. 1950. "The Theory of Open Systems in Physics and Biology."  Science 111 (2872):23-29. doi: 10.2307/1676073.

Von Bertalanffy, L. 1986. Teoría General de los Sistemas. Fundamentos, desarrollo, aplicaciones. México: Fondo de Cultura Económica.

Watson, Gary. 1975. “Free Agency”. Journal of Philosophy 72: 205-20. doi: 10.2307/2024703.

Wheeler, John A., y Wojciech H. Zureck, eds. 1983. Quantum Theory and Measurement. Princeton: Princeton University Press.

Wildman, Wesley. 2004. "The Divine Action Project, 1988–2003." Theology and Science 2 (1):31-75. doi: 10.1080/1474670042000196612.

Wolf, Susan. 1990. Freedom within Reason. Oxford: Oxford University Press.


8. Cómo Citar  

Vanney, Claudia E. y Franck, Juan F. 2016. "Determinismo e indeterminismo". En Diccionario Interdisciplinar Austral, editado por Claudia E. Vanney, Ignacio Silva y Juan F. Franck. URL=http://dia.austral.edu.ar/Determinismo_e_indeterminismo


9. Derechos de autor  

DERECHOS RESERVADOS Diccionario Interdisciplinar Austral © Instituto de Filosofía - Universidad Austral - Claudia E. Vanney - 2016.

ISSN: 2524-941X