Abrir menú principal

DIA β

Cambios

Metafísica analítica

26 bytes eliminados, 16:39 15 feb 2022
sin resumen de edición
En este artículo se van a explicar cuáles han sido los hitos de esta evolución histórica, desde el rechazo frontal a la metafísica en el neopositivismo lógico a su recuperación. Se van a explicar las metodologías principales que se utilizan en metafísica analítica, así como las críticas que esas metodologías han recibido. En tercer lugar, se presentarán algunas de las áreas principales en las que se ha concentrado la discusión filosófica entre quienes cultivan la disciplina.
===¿Qué es la ‘metafísica analítica’?===
En la ''Metafísica'', Aristóteles caracteriza al tipo de indagación que está realizando como “ciencia” o “teoría del ente en cuanto ente” (IV, 1, 1003a 21). La forma en que se hace esta indagación de qué sea el ente es considerando los diferentes sentidos en que se dice el verbo “ser”, cuyo caso focal de aplicación es la ''ousía'' o sustancia (VII, 1, 1028a 14-15). Por esto, la indagación acerca de qué sea el ente viene a ser la indagación de qué sea la ''ousía'' (VII, 1, 1028b 3-4). Diferentes categorías de entidades admiten la atribución del verbo “ser” (VII, 1, 1028a 10). Estas diferentes categorías, sin embargo, no están a la par en cuanto a su prioridad ontológica. Cualidades, cantidades y relaciones son ontológicamente dependientes de la sustancia y, por ello, ‘son’ en un sentido derivativo (VII, 1, 1028a 23-25). Las líneas centrales de este tipo de indagación no resultan muy diferentes de lo que pretende hacer un metafísico contemporáneo. Típicamente, un metafísico va a proponer categorías de entidades y, luego, va a describir y justificar relaciones de dependencia entre ellas, de manera de generar una estructura en la que se pueda discriminar lo que es ontológicamente prioritario y lo que es ontológicamente derivativo. Por supuesto, muchos metafísicos contemporáneos no admitirán que existan ‘sustancias’ –tal como las entendía Aristóteles– o no admitirán la existencia de cualidades, cantidades y relaciones como entidades numéricamente diferentes de los objetos particulares. Esos metafísicos propondrán otras categorías como prioritarias, o postularán la reducción de algunas de ellas respecto de otras. En cualquier caso, van a proponer un catastro de tipos básicos de cosas que existen y cuáles de ellas dependen de cuáles otras, o cuáles de ellas fundan cuáles otras, tal como lo ha hecho Aristóteles. Si esto es así, si el tipo de indagación que hace un metafísico contemporáneo no difiere –en lo sustantivo– de lo que se ha hecho tradicionalmente al hacer metafísica, ¿por qué razón se requiere caracterizar una disciplina como ‘metafísica analítica’ y no llamarla simplemente ‘metafísica’ a secas? La razón para ello es principalmente histórica y tiene que ver con la evolución que ha experimentado la tradición filosófica analítica el siglo pasado.
====La metafísica de los padres fundadores====
Los padres fundadores de la tradición filosófica analítica tenían en común una gran valoración de los logros de la lógica moderna y de su utilidad para la clarificación de cuestiones filosóficas, pero también tenían en común la pretensión de ofrecer una imagen global de la realidad que contrastaba con varias corrientes idealistas o psicologistas dominantes. Moore y Russell, por ejemplo, reaccionaban contra los hegelianos ingleses de fines del siglo XIX quienes, por cierto, tenían una concepción metafísica acerca de la estructura básica del mundo. Al reaccionar contra estas corrientes, sin embargo, no estaban criticando el proyecto de hacer metafísica, sino proponiendo otra diferente. Mientras los idealistas tendían a postular la dependencia de todas las entidades respecto del ‘todo’, Moore y Russell tendían a postular una ontología ‘atomista’ en la que –al contrario– las entidades ontológicamente prioritarias son independientes entre sí y es su existencia la que funda la existencia del mundo como un todo (cf. Russell 1918; Soames 2003a, 4-11, 182-193; 2014a, 133-171, 568-629). Frege, por su parte, proponía una distinción ontológica entre ‘objetos’ (''Gegenstande''), ‘funciones’ (''Funktionen'') y ‘conceptos’ (''Begriffe'') (cf. Frege 1892a, 1892b; Soames 2014a, 3-59). Un ‘concepto’ es un tipo de función que se caracteriza porque su valor es siempre un valor de verdad. Objetos y funciones son, entonces, las categorías fundamentales en la metafísica de Frege. Para efectuar esta distinción entre categorías ontológicas, sin embargo, Frege se orienta por una distinción semántica entre ‘nombres propios’ y ‘predicados’. Los predicados resultan de sustituir por variables los nombres propios que aparezcan en oraciones completas. Si se tiene la oración “Micifuz es un gato”, sustituir el nombre propio “Micifuz” por una variable libre ''x'' arroja el predicado “''x'' es un gato”. Estos constituyentes de una oración completa han de poseer un valor semántico, de manera que su estructuración genere condiciones de verdad determinadas para las oraciones que puedan ser formadas. Un ‘objeto’ es todo aquello a lo que hace referencia un nombre propio. Un ‘concepto’ es todo aquello a lo que hace referencia un predicado (cf. Frege 1892b). Un nombre propio no puede ser sustituido por un predicado, ni viceversa. Un predicado posee un carácter ‘incompleto’ o ‘insaturado’ que no posee un nombre propio. Para Frege, esta diferencia entre nombres y predicados determina una diferencia igualmente marcada entre ‘objetos’ y ‘conceptos’. De esta manera, por ejemplo, una de las razones para sostener que los números son objetos es que se hace referencia a ellos mediante nombres. Esto muestra de entrada ciertas características del enfoque ‘analítico’ de cuestiones ontológicas que fue común hasta la década del 70 del siglo pasado. Frege insiste en que para dilucidar la ontología de las matemáticas no debemos orientarnos por aquello que nos resulte evidente a nuestra percepción sensible o a nuestra intuición imaginativa. Los números no son entidades –si es que lo son– accesibles por percepción. La forma adecuada de acceder a la ontología de los números es considerar, en cambio, la ‘objetividad’ de los enunciados matemáticos (cf. Frege 1884, §§ 58-61). Si un enunciado posee un valor de verdad determinado, entonces las expresiones que conforman tal enunciado deben tener valores semánticos definidos, esto es, referencia. Si se considera una ecuación matemática como 2 + 3 = 5, parece evidente que es objetivamente verdadera. Los numerales “2”, “3” y “5”, por lo tanto, deben tener referentes. Esos referentes, para Frege, deben ser objetos.
En Russell y Wittgenstein también se puede apreciar cómo se adoptan compromisos metafísicos debido a exigencias que provienen de lo que se considera que debe ser una adecuada teoría del significado. En el ''Tractatus logico-philosophicus'', por ejemplo, Wittgenstein sostiene que deben existir objetos (''Gegenstande'') de existencia necesaria, pues de otro modo no podría haber significado determinado (cf. 1921, 2.0211; Soames 2003a, 197-213; 2014b, 3-23). Para que un enunciado posea condiciones de verdad se requiere que los nombres que ocurren en tal enunciado tengan referencia. La referencia de algunos nombres puede, tal vez, analizarse por la referencia previamente presupuesta de otros nombres, pero este procedimiento no puede seguirse al infinito. Se requieren ciertos nombres cuya referencia esté garantizada, esto es, nombres que refieren a objetos de tal naturaleza que la cuestión acerca de si existen o no carece de sentido. Estos ‘objetos tractarianos’ son de existencia necesaria (cf. 1921, 2.022, 2.023), son la ‘sustancia del mundo’ (cf. 1921, 2.021) y son las piezas fundamentales en las que debe resolverse cualquier análisis (cf. 1921, 2.0201). Nuevamente, se puede ver que no hay aquí una renuncia a hacer metafísica. Se está proponiendo una estructura ontológica fundamental para el mundo. Existe, eso sí, un giro metodológico que pone el centro de atención en las condiciones requeridas para una teoría del significado.
====''Horror metaphysicus''====
La asociación de la filosofía analítica con una postura ‘anti-metafísica’ aparece en las siguientes generaciones de filósofos que se entienden como herederos del pensamiento de Frege, Russell y el Wittgenstein del ''Tractatus''. Los neo-positivistas o empiristas lógicos son, quizás, el ejemplo más característico. Son, por una parte, continuadores de diferentes corrientes ‘positivistas’ del siglo XIX que asignan a la ciencia natural un lugar central –si es que no exclusivo– en el conocimiento humano. Son también continuadores de los programas logicistas de Frege y Russell. Frege y Russell habían pretendido reconstruir la aritmética como parte de la lógica, utilizando herramientas formales mucho más sofisticadas que las que habían estado disponibles desde Aristóteles. Estas mismas herramientas formales ofrecen la promesa de una reconstrucción semejante pero ahora de las ciencias naturales (cf. por ejemplo, Carnap 1928; Soames 2014b, 129-159). Esta reconstrucción permitiría, al mismo tiempo, mostrar cómo es que la ciencia natural se encuentra epistemológicamente justificada a partir de la experiencia y cómo las especulaciones ‘metafísicas’ carecen de sentido (cf. Carnap 1932; Ayer 1936, 13-29; Soames 2003a, 271-299; 2014b, 107-198). Es más, el adjetivo “metafísico” llega a ser usado por los neopositivistas como sinónimo de “sin sentido”. A pesar de sus declaraciones, sin embargo, nunca dejaron de hacer ontología, aunque bajo otros nombres. Los problemas acerca de cómo debían ‘traducirse’ diferentes tipos de expresiones eran problemas realmente acerca de la naturaleza de ciertas entidades. La metafísica es, además, condenada como ‘sin sentido’ mediante un criterio de significado especialmente estrecho: el principio de verificabilidad. De acuerdo con este ‘principio’ el significado de un enunciado sintético son sus condiciones de verificación empírica, esto es, el conjunto de experiencias que serían evidencia para ella. Todo enunciado no analítico que no pueda ser verificado empíricamente resulta sin significado. Este principio, sin embargo, no tardó en mostrarse como inadecuado (cf. Soames 2003a, 271-299; 2014b, 311-333). Pero, a pesar de estos problemas de la estrategia neopositivista, el ''élan'' anti-metafísico ganó aceptación y fue también acogido por otras corrientes alternativas dentro de la misma tradición filosófica analítica. Tanto los cultivadores de la filosofía del lenguaje ordinario (cf. Ryle 1932) como el segundo Wittgenstein (cf. Wittgenstein 1953, §§ 110-133) mantuvieron la idea de que los problemas tradicionales de la metafísica deberían ‘disolverse’ cuando se pudiese comprender cómo es que surgen de una inadecuada comprensión de las estructuras semánticas de nuestros lenguajes. Aún cuando la apelación a un principio como el de verificabilidad les parezca a estos filósofos una simplificación inadecuada, siguen pensando que en los enunciados acerca de los que se ha discutido tradicionalmente en la metafísica debe existir algún defecto. Debe existir algún error de construcción sintáctica o alguna expresión sin valor semántico. El descubrimiento de cuál sea ese defecto requiere una comprensión más profunda acerca de cómo funciona nuestro lenguaje natural.
A la actitud de filósofos como Quine, que da completa preeminencia a la ciencia natural, debe oponerse la de otros filósofos que tienen una actitud más ‘ecuménica’ hacia nuestro acceso ordinario al mundo. Peter Strawson es quizás el ejemplo más notorio de esta actitud (cf. Strawson 1959). La corriente de filosofía del lenguaje ordinario conduce a una valorización de los presupuestos ontológicos que hacemos normalmente. No se requiere una reforma de la perspectiva ordinaria por lo que sea que nos muestre la ciencia natural, sino simplemente comprender mejor cuál es la metafísica que sustenta tal perspectiva. Esto es lo que se ofrece en lo que Strawson denomina una “metafísica descriptiva” por oposición a una “metafísica revisionaria”. La ‘metafísica descriptiva’ pone de relieve cuáles son los esquemas conceptuales que utilizamos para pensar sobre el mundo y cuáles son sus presupuestos. No pretende reducir ese esquema a uno que se considere más ‘científico’, sino sólo mostrar cómo es que sus nociones básicas están conectadas entre sí. La comprensión adecuada de tal esquema no es un análisis reductivo, sino que es la comprensión de esa red de conexiones conceptuales mutuas. Mientras que la perspectiva naturalista representada especialmente en Quine ganó prevalencia en Estados Unidos, en Reino Unido es la perspectiva de filósofos como Strawson la que resulta dominante. Esto incide también en que los filósofos en Reino Unido tengan un mayor aprecio por una tradición filosófica más amplia en la que Aristóteles y Kant son relevantes.
====La transformación de la década de 1970====
En un período que se inicia aproximadamente a mediados de la década de 1960 del siglo pasado pero que tiene su cénit en la década de 1970, los supuestos centrales que habían sido asociados a la filosofía analítica son abandonados por buena parte de los filósofos que se inscriben en la tradición. En diferentes áreas de discusión los temas y problemas de filosofía del lenguaje pasan a tener un lugar secundario. Convergen en este período varias líneas de desarrollo paralelas: una nueva concepción de la modalidad metafísica, una nueva valoración del ‘realismo científico’ y de sus presupuestos, y una nueva libertad especulativa que no está constreñida por exigencias formales, sino que se vale de las construcciones formales para pensar hipótesis metafísicas de gran alcance. Filósofos decisivos para esta transformación son Saul Kripke, David Lewis y David Armstrong, entre otros. Al llegar al cambio de milenio, “metafísica” ya no es un nombre vergonzante, sino que designa una disciplina filosófica perfectamente respetable y cultivada con pasión por nuevas generaciones de filósofos.
Aparece, entonces, que lo que denominamos “metafísica analítica” ha surgido por la evolución histórica interna de una tradición filosófica que se ha iniciado con la pretensión de hacer una reconstrucción racional de las matemáticas y las ciencias naturales usando las herramientas de la ‘nueva’ lógica. Esta tradición ha supuesto que una comprensión adecuada de la estructura lógico-semántica de nuestros lenguajes permitiría ‘disolver’ las cuestiones metafísicas tradicionales. La constatación del fracaso de este programa, esto es, la constatación de que los problemas metafísicos no se pueden adjudicar como cuestiones lógico-semánticas ha conducido a una reapropiación de las cuestiones ontológicas sustantivas. Tal como se va a explicar más abajo, sin embargo, aunque se ha abandonado la suposición de que los problemas metafísicos sustantivos se pueden resolver mediante análisis lógico-semántico, sí hay una selección de problemas que está determinada, en buena medida, por la atención a las condiciones de verdad para tipos de enunciados y la atención a qué es lo que debería hacer verdaderos esos enunciados, cuando lo son.
===Metodologías en metafísica analítica y algunas críticas===
Podemos distinguir al menos tres metodologías prominentes dentro de la metafísica analítica: (i) la metodología del compromiso ontológico, (ii) la metodología del ''Truthmaking'' y (iii) la metodología de la estructura y la fundación. La primera de ellas, como se anticipó en la sección §1.2, proviene del método del ‘compromiso ontológico’ propuesto por Willard V. O. Quine (cf. Quine 1948; 1969, 91-113). Esta metodología, huelga decir, tomó con el tiempo un camino propio, distante hasta cierto punto del lugar que ocupa dentro del proyecto empirista de Quine. No quisiéramos detenernos extensamente en explicar esta metodología dado el tratamiento ofrecido en §1.2, pero nos gustaría explicar su compresión de la ontología como el tratamiento de cuestiones de existencia. De acuerdo con la aproximación quineana a este tipo de problemas, expresiones como el verbo “existir” o “haber”, o expresiones cuantificacionales como “algo” o “alguno”, deben ser tratadas como expresiones que indican un cierto compromiso ontológico. De este modo, consideremos la siguiente proposición:
Una vez precisadas estas dos cuestiones, estamos ahora en una posición tal que podemos caracterizar adecuadamente a la tercera metodología empleada dentro de la tradición de la metafísica analítica, a la cual en el inicio de esta sección hemos denominado la metodología de la estructura y la fundación. De acuerdo con esta metodología, el propósito de la metafísica debiera ser establecer con precisión qué funda o fundamenta exactamente a qué (Schaffer 2009) o, dicho de otro modo, qué entidades son fundamentales y qué entidades serían no fundamentales y por tanto dependientes de entidades fundamentales. Así, las preguntas ontológicas tal como las entiende la metodología del compromiso ontológico devienen hasta cierto punto triviales para el defensor de la metodología de la estructura y de la fundación. Si acaso entonces los números existen, si acaso existe una entidad divina tal como sostiene el teísmo clásico, si acaso existen objetos materiales ordinarios como árboles o sillas, son todas preguntas que podemos eventualmente responder afirmativamente sin mayor disquisición. Lo relevante será determinar cuáles de estas entidades existen fundamentalmente y sin fundarse en la existencia de otras entidades, y cuáles existen en virtud de las relaciones de dependencia que tienen con entidades fundamentales. Se volverá a insistir sobre estos puntos más abajo (cf. § 4).
===Temas centrales===
En esta sección se hará una presentación sucinta de algunas áreas de discusión que han llegado a ser centrales en la metafísica analítica contemporánea. Se podrá apreciar en la consideración de estas áreas más acotadas cómo es que ha producido la evolución explicada –en términos generales– en el § 1, así como se podrán apreciar en acción las maniobras metodológicas discutidas en el § 2.
====Propiedades====
El llamado ‘problema de los universales’ es la cuestión acerca de cómo pueden diferentes objetos llegar a ser –en algún sentido– algo unificado. Se lo ha llamado, por esto, como el problema de ‘lo uno en lo múltiple’. Si dos objetos particulares son cubos perfectos, entonces parece haber algo que esos objetos comparten. Esto es, que dos objetos sean cubos perfectos parece implicar que hay una entidad de cierto tipo, a saber, ''ser un cubo perfecto''. Desde Platón se ha pensado que esto es una razón para postular características o propiedades numéricamente diferentes de los objetos que las instancien y que –por su naturaleza– pueden encontrarse ejemplificadas en diferentes objetos particulares. Una entidad de este tipo es lo que ha sido denominado tradicionalmente un ‘universal’. Durante todo el siglo pasado se siguió discutiendo acerca de los universales, pero con diferentes énfasis. El enfoque de partida fue, como es de esperar, el del compromiso ontológico. Señala D. F. Pears:
Las alternativas a las ontologías de universales ofrecen otras entidades que pueden cumplir las mismas funciones teóricas, pero sin poner en cuestión este enfoque fundamental. El nominalismo de semejanza, por ejemplo, ha sostenido que las funciones de los universales pueden ser satisfechas por clases de objetos semejantes entre sí (cf. Lewis 1983a, 14-15; Rodriguez-Pereyra 2002). Las teorías de tropos, por otro lado, han sostenido que los universales pueden ser sustituidos por clases de tropos –esto es, propiedades particulares– semejantes entre sí (cf. Campbell 1990; Maurin 2002, 59-116), o clases naturales de tropos (cf. Ehring 2011, 175-241). En ambos casos, hay tantas propiedades como sean necesarias para determinar completamente el carácter cualitativo intrínseco de todo lo que hay, así como las relaciones externas entre lo que hay. Explícitamente, no hay clases de semejanza de objetos o de tropos para cada predicado posible. La discusión en metafísica de propiedades está más viva que nunca, pero ya no es una discusión sobre ‘compromisos ontológicos’. El debate tiene que ver con la aptitud que tengan universales, clases de semejanza de objetos o clases de tropos para satisfacer ciertas funciones teóricas que se espera que deben satisfacer los universales o lo que haga sus veces.
====Modalidad====
La preocupación filosófica por la modalidad y las nociones afines ha existido siempre. En el siglo pasado, sin embargo, esa preocupación ha pasado por un contraste muy marcado, desde un desprestigio casi completo a un interés obsesivo. Esto se explica en buena medida por la transformación que impulsaron las ideas de Kripke y otros filósofos en la década del 70, tal como se ha indicado arriba. Los positivistas lógicos estuvieron inclinados a pensar que la necesidad de ciertas proposiciones estaba fundada simplemente en el significado que se ha convenido en otorgar a expresiones de un lenguaje. Los términos pueden tener asignado cualquier significado que queramos darle. Esto es un hecho puramente convencional. Dadas esas convenciones, habrá expresiones que, por su modo de estructuración, son verdaderas sin importar cómo sea el mundo. Otras serán falsas sin importar cómo sea el mundo –y sus negaciones, entonces, serán verdaderas sin importar cómo sea el mundo. Otras, en fin, no tendrán valores de verdad determinados por tales convenciones y la estructura semántica. Estas proposiciones serán algunas veces verdaderas, otras veces falsas de acuerdo con cómo sean los hechos. Un ejemplo muy característico de este enfoque es el de Carnap (1956). El ámbito de lo ‘necesario’ y, correlativamente, el ámbito de lo ‘imposible’ está fundado en los significados. La dilucidación de cuál sea el significado es algo que puede hacerse perfectamente a priori. Los positivistas rechazan la existencia de verdades ‘sintéticas a priori’ –tal como lo había propuesto Kant– pero no se han movido un ápice de la asimilación de la necesidad con lo que puede justificarse a priori. De acuerdo con la definición de Carnap:
El ‘actualismo’ en cualquiera de sus formas contrasta con el ‘posibilismo’ acerca de los mundos posibles. La tesis central del posibilista es que las posibilidades no están fundadas en los entes actuales. No hay privilegio ontológico del mundo ‘actual’ por sobre otros mundos posibles. Todos ellos están ontológicamente a la par. El ejemplo más característico de una posición de este tipo es el realismo modal ‘extremo’ de David Lewis (cf. 1973a, 1986b). Lewis sostiene que no debe buscarse ningún sustituto teórico de los mundos posibles. Estos deben ser admitidos como una base ontológica para la explicación de otras entidades. Los mundos posibles son entidades como ‘nuestro’ mundo: una suma de objetos conectados todos ellos –y sólo ellos– por estar a alguna distancia espacio-temporal entre sí. Esa totalidad de mundos posibles es lo que hace verdaderos o falsos los enunciados modales (cf. Lewis 1986b, 5-20), pero también permite explicar la naturaleza de las propiedades (cf. Lewis 1986b, 50-69), las proposiciones (cf. Lewis 1986b, 27-50) y ofrece condiciones de verdad para los condicionales contrafácticos (cf. Lewis 1973a, 84-91). Las relaciones causales, a su vez, son concebidas como ‘dependencias contrafácticas’ (cf. Lewis 1973b). ¿Qué es el mundo ‘actual’ en esta perspectiva? No se trata, tal como se ha explicado, del fundamento de todas las posibilidades, sino de un mundo seleccionado por ser el mundo en que habita el hablante que utiliza el adjetivo “actual” o el adverbio “actualmente”. Se trata de una expresión demostrativa, tal como “aquí”, cuyo valor varía de acuerdo con el contexto de su uso (cf. Lewis 1986b, 92-96).
====Tiempo====
El debate dentro de la tradición metafísica analítica acerca de la naturaleza del tiempo se configura de manera determinante, al menos en un momento inicial, por el tratamiento que hace del tema el filósofo cantabrigense J. M. E. McTaggart en su artículo “The Unreality of Time” (1908) y en el primer volumen su libro ''The Nature of Existence'' (1921). Según McTaggart, existen dos maneras de ordenar la serie o dimensión temporal. La primera de ellas, que corresponde a lo que McTaggart denomina “serie A” y que da lugar a la teoría-A del tiempo, establece que las posiciones en el tiempo se pueden ordenar de acuerdo con la posesión de propiedades tales como “estar a dos días en el futuro”, “estar a un día en el futuro” o “ser un día pasado”. De esto parecieran seguirse dos otros aspectos distintivos de esta teoría. El primero de ellos es que la teoría-A del tiempo supone la existencia de lo que ordinariamente llamamos el paso del tiempo. Este paso o flujo del tiempo, sin entrar en mayores detalles, consistiría en el hecho de que los eventos o sucesos que conforman la serie temporal exhibirían un cierto dinamismo en lo que respecta a sus propiedades temporales, de manera que dichos eventos pasarían de tener la propiedad de ser futuros a tener la propiedad de ser presentes y luego la de ser pasados. El segundo de ellos es que la semántica para enunciados temporales que nos ofrece la teoría-A implica aceptar que las condiciones de verdad de dichos enunciados contienen de modo irreductible hechos acerca de su tiempo verbal. Entre otras cosas, se seguiría de esto que para el defensor de la teoría-A el valor de verdad de un enunciado temporal podría ser cambiante.
Otras teorías que se han propuesto en este debate a la par con una teoría-A del tiempo son la teoría del “bloque creciente” (''growing block''; Broad 1923; Correia y Rosenkranz 2013, 2018) y la teoría del “punto destacado en movimiento” (''moving spotlight''; Cameron 2015, Deasy 2015, Miller 2019). De acuerdo con la teoría del bloque creciente, solo el presente y el pasado podrían ser considerados como reales desde el punto de vista ontológico. Dicho de otra manera, entonces, para esta teoría el presente constituiría una especie de límite o frontera entre aquello que es real y aquello que no existe por aún encontrarse en el futuro. Por su parte, la teoría del punto destacado (PDM) acepta la existencia de una multiplicidad de puntos o instantes de tiempo igualmente existentes, pero sostiene, junto con ello, que existe un instante de tiempo destacado —el instante de tiempo presente— que está constantemente cambiando y que da lugar a un tipo especial de cambio. Tal tipo de cambio, a diferencia de lo que sostiene la teoría-B, simplemente no puede ser explicado a partir de variaciones en las propiedades de esta multiplicidad de instantes de tiempo. En cierto modo, la PDM combinaría intuiciones eternalistas junto con la tesis de la teoría-A de que encontramos algo ontológicamente relevante en el hecho de que los cosas dejen de ser futuras para ser presentes y luego a pasen a ser pasadas.
====Persistencia====
El contraste entre lo que podríamos llamar teorías dinámicas del tiempo y teorías estáticas del tiempo encuentra un correlato plausible en la división principal que en esta sección asumiremos entre teorías sobre la persistencia en el tiempo de objetos materiales. Aunque probablemente corresponda admitir un mayor número de precisiones, podemos dividir las teorías sobre la persistencia de objetos materiales en dos grandes grupos, a saber, aquellas que permiten que los objetos materiales se extiendan en la dimensión temporal y aquellas que desautorizan tal modo de extensión. En el primer grupo se encuentra la teoría “perdurantista” de la persistencia, una teoría típicamente adoptada por quienes también suscriben una ontología temporal eternalista y una explicación temporal como la que nos propone la teoría-B (Lewis 1986b, Heller 1990, Sider 2001). Para la teoría perdurantista, los objetos materiales se extienden a través del tiempo en virtud de tener diferentes partes temporales en diferentes momentos de su existencia. Debemos pensar aquí en el tiempo como una dimensión más —una cuarta dimensión, para ser más precisos— en la que los objetos materiales se extienden.
Del mismo modo, si el tetradidimensionalismo se entiende sólo como una posición que implica que el tiempo constituye una cuarta dimensión más, entonces se seguiría por una cuestión de hecho (más no ''de iure'') que algunas versiones del endurantismo, coma las de Mellor (1998) o Gilmore (2006, 2007) contarían como tetratridimensionalistas. Incluso, si robusteciéramos nuestra formulación del tetradimensionalismo y sostuviéramos que el tiempo no sólo constituye una cuarta dimensión, sino que además es una dimensión fuertemente análoga al espacio, tendríamos el resultado contraintutivo de que la teoría de la persistencia de las entidades simples extendidos resultaría ser una variante del tetradimensionalismo, debiendo situarse por esta razón junto al perdurantismo. Como solución práctica a lo que quizás podría ser sólo una disputa terminológica, proponemos aquí equiparar el endurantismo con la versión más fuerte del tridimensionalismo y el perdurantismo con la versión más fuerte del tetradimensionalismo, con la estipulación adicional de aceptar también el principio según el cual la extensión a través del tiempo implica la existencia de partes temporales propias. Entre otras cosas, aceptar tal estipulación volvería metafísicamente imposible la teoría de la persistencia de las entidades simples extendidas.
====Causalidad====
La noción de ‘causalidad’ nunca ha dejado de ser objeto de reflexión para los filósofos en la tradición analítica debido a la importancia que la ciencia natural le asigna a la identificación de conexiones causales. Durante buena parte del siglo pasado, sin embargo, han sido prevalentes concepciones reductivistas, si es que no abiertamente eliminativistas (cf. en particular, Russell 1913). David Hume inauguró en el siglo XVIII una forma de pensar en la causalidad como algo que resulta de regularidades entre tipos de eventos –o que nuestra ‘costumbre’ proyecta desde regularidades. Esta forma de pensar fue, en gran medida, dominante para los empiristas lógicos y sus sucesores. De acuerdo a la teoría regularista de la causalidad el hecho de que el evento ''c'' –del tipo ''C''– causa el evento ''e'' –del tipo ''E''– se reduce a que: (i) ''c'' es espacio-temporalmente continuo con ''e''; (ii) ''c'' precede temporalmente a ''e''; y (iii) el hecho de que todo evento del tipo ''C'' es sucedido regularmente por un evento del tipo ''E'' (cf. Psillos 2002, 19). Ordinariamente suponemos que la existencia de relaciones causales entre eventos (debido a las propiedades universales que están instanciadas en esos eventos) es lo que funda las regularidades que podemos constatar empíricamente. Las regularidades son ontológicamente derivativas respecto de la causalidad. El punto de vista de los defensores de la teoría de la regularidad es exactamente el inverso: es la causalidad la que está fundada en regularidades o se reduce a regularidades. Últimamente, no hay ‘poderes’ o ‘potencias’ en los objetos para ‘hacer’, ‘efectuar’ o ‘producir’ algo. Los acontecimientos se suceden unos a otros del modo que lo hacen porque sí, pudiendo haberse sucedido de otro modo. Nosotros después podemos contemplar estas sucesiones ‘desde arriba’, por decirlo de algún modo, y constatar que hay tipos de eventos que ocurren regularmente. Esas regularidades son las que hemos denominado relaciones ‘causales’. Señala Ernest Nagel –en una obra clásica de filosofía de la ciencia de los años 60 del siglo pasado– cuáles son las características de una relación causal:
En los últimos veinte años, han ganado mucha prevalencia los enfoques que descansan en la práctica científica y en las metodologías empíricas para detectar estructuras causales (cf. en especial, Spirtes, Glymour y Scheines 2000; Pearl 2009). Estos enfoques asumen una posición no reductivista sobre los hechos causales y surgen de la reflexión estadística acerca de las diferencias entre meras ‘correlaciones’ entre distribuciones de datos y las estructuras causales que se busca descubrir. Algunos filósofos han buscado explotar estas teorías como una forma de dilucidar el concepto de ‘causalidad’, sin buscar una reducción ontológica de los hechos causales a hechos no-causales. Esta posición ha sido denominada como ‘intervencionista’ (cf. Woodward 2003). A pesar de las connotaciones que puedan ser asociadas con esta expresión, no se busca ‘analizar’ la noción de ‘causa’ mediante la noción de ‘intervención’, sino sólo iluminar qué sea la causalidad por manipulaciones experimentales idealizadas, tal como en la práctica experimental se busca descubrir una estructura causal objetiva con ‘intervenciones’ que permitan aislar e identificar variables relevantes.
===Perspectivas futuras===
Ha sido notorio en los últimos quince años el desarrollo de una serie de corrientes que han tenido por objeto conceptos de prioridad ontológica. El trabajo para dilucidar tales nociones está teniendo un impacto en todas las discusiones ontológicas tradicionales, pues esas discusiones han tenido que ver con qué sea fundamental o qué sea prioritario. El punto de partida de estos desarrollos ha sido el importante trabajo de Kit Fine acerca del concepto de ‘esencia’ (cf. Fine 1994). La rehabilitación de la modalidad metafísica había ya sido una rehabilitación de la inteligibilidad de la ‘esencia’. La perspectiva que se había adoptado, no obstante, era de carácter puramente modal. Los objetos existen en diferentes mundos posibles –esto es lo que presupone, en efecto, la idea de ‘designadores rígidos’. Se puede hacer un ‘filtro’ de las propiedades que un objeto posee en algunos mundos posibles en los que existe, pero que no posee en otros. La ‘esencia’ de un objeto está constituida por las propiedades que ese objeto posee en todos los mundos posibles en que existe, esto es, las propiedades que no han sido ‘filtradas’ como accidentales[[#5|<sup>5</sup>]]<span id=".....">.
===Notas===
<span id="1"> 1.- Si [''Gn''] –donde “''n''” es un nombre propio– entonces [∃''x Gx'']. Este es una derivación característica en lógica de predicados de primer orden. Tal como se ha explicado más arriba, la lógica de primer orden fue considerada la lógica ‘canónica’ que pone de relieve los compromisos ontológicos de una teoría. [[#.|Volver al texto]]
Autores, Editores, Burócratas, Administradores
2246
ediciones