Concepciones semánticas de la información

10 837 bytes añadidos, 12:47 13 may 2016
sin resumen de edición
El ''enfoque sistémico,'' desarrollado especialmente en lógica de situación (Barwise y Perry 1983, Israel y Perry 1990, Devlin 1991; Barwise y Seligman 1997 proveen un fundamento para una teoría general del flujo de información), también define a la información en términos de espacio de estados y consistencia. Sin embargo, es ontológicamente menos demandante que el enfoque modal, ya que asume un dominio de aplicación claramente limitado. Este enfoque también es compatible con el enfoque probabilista de Dretske, aunque no requiere una medida de la probabilidad sobre los conjuntos de estados. El contenido informacional de ''p'' no está determinado ''a priori'' mediante un cálculo de estados posibles permitidos por un lenguaje representacional, sino que está determinado en términos del contenido factual que ''p'' lleva con respecto a una situación determinada. La información rastrea las transiciones posibles en el espacio de estados de un sistema bajo condiciones normales. Tanto Dretske como los teóricos de situación requieren alguna presencia de información que ya sea inmanente al ambiente (''información ambiental''), como regularidades nómicas o restricciones. Este “externalismo semántico” puede ser controversial.
 
El ''enfoque inferencial'' define información en términos de espacio de vinculación: la información depende de las inferencias válidas relativas a estados epistémicos o a una teoría de agentes de información.
 
Para cada uno de los enfoques extensionalistas previos, puede darse una interpretación intencional al considerar el espacio relevante como un espacio doxástico, en el cual la información es vista como una reducción del grado de incerteza personal, dado un estado de conocimiento del informado. Wittgenstein estuvo de acuerdo con esta distinción en sus ''Comentarios sobre la Filosofía de la Psicología:''
 
La idea central es que hay un juego de lenguaje en el cual produzco información de manera automática, información que puede ser completamente tratada por otras personas como ellas tratan a la información no automática –sólo que aquí no habrá ‘mentira’ alguna–, información que yo mismo puedo recibir de una tercera persona. La oración ‘automática’, reporte, etc., puede también llamarse un ‘oráculo’… Pero, por supuesto, esto significa que el oráculo no debe disponer de las palabras ‘yo creo…’. (Wittgenstein 1980, §817).
 
Al usar la noción de juego de lenguaje, Wittgenstein parece tener en mente la noción de juego de información, que ya hemos encontrado anteriormente.
 
 
===La paradoja de Bar-Hillel-Carnap===
 
Los enfoques extensionalistas, delineados en la sección previa, pueden verse afectados por lo que hemos llamado, un poco hiperbólicamente, la ''Paradoja de Bar-Hillel-Carnap'', en la medida en que ellos suscriben al Principio de Relación Inversa (Floridi 2004b).
 
En resumen, hemos visto que, siguiendo al PRI, cuanto menor sea la probabilidad de'' p'', mayor es la cantidad de información semántica que'' p'' transporta. Esto explica por qué la mayoría de los filósofos acuerda en que gran parte de las tautologías no llevan información en absoluto, ya que su probabilidad o posibilidad es 1; pero también ha conducido a algunos a considerar que las contradicciones –las cuales describen estados imposibles o con probabilidad 0– son la clase de mensajes que contienen una gran cantidad de información semántica. Esta es una pendiente resbaladiza ya que al volver una oración cada vez menos y menos probable, se está aumentando gradualmente su contenido informacional pero, en un punto determinado, la oración “implosiona” (en la cita que aparece más adelante, se vuelve “demasiado informativa para ser verdadera”).
 
Bar-Hillel y Carnap fueron unos de los primeros en explicitar esta desigualdad anti-intuitiva'' prima facie''. Nótese cómo la cuidadosa redacción que se utiliza traiciona el deseo de neutralizar el problema:
 
'''La Paradoja de Bar-Hillel-Carnap (PBC):'''
 
Al comienzo, tal vez pueda parecer extraño que una oración que se contradice a sí misma y que, por lo tanto, ningún receptor ideal aceptaría, sea considerada como portadora de la información más inclusiva. Sin embargo, debería enfatizarse que aquí la información semántica no está implicando verdad y, por lo tanto, una oración falsa que resulta decir mucho es altamente informativa en nuestro sentido. Si la información que transporta es verdadera o falsa, científicamente valiosa o no, etc., no nos concierne. Una oración que se contradice a sí misma afirma demasiado; es demasiado informativa para ser verdadera (Bar-Hillel y Carnap 1953, 229).
 
Desde su formulación, la PBC fue reconocida como una desafortunada consecuencia de cualquier ''teoría cuantitativa de la información débilmente semántica, ''aunque es perfectamente correcta y lógicamente inevitable. Es “débilmente” semántica porque los valores de verdad no juegan ningún papel en ella. Como consecuencia, el problema ha sido, a menudo, o bien ignorado o bien tolerado (Bar-Hillel y Carnap 1953), como el precio que hay que pagar por un enfoque que de otra manera sería valioso. Sin embargo, se han hecho algunos intentos para delimitar sus consecuencias anti-intuitivas, especialmente, en Teoría de Sistemas de Información (Winder 1997) –donde la consistencia es una restricción esencial que debe ser satisfecha para que la base de datos preserve la integridad de los datos– y en Teoría de la Decisión, donde la información inconsistente es obviamente inútil para quien toma decisiones.
 
En estos casos, en lugar de asignarles la máxima cantidad de información semántica, se han sugerido tres estrategias, siempre que no haya modelos posibles que satisfagan un enunciado o una teoría:
 
<!--[if !supportLists]-->1.    <!--[endif]-->Asignar a todos los casos inconsistentes el mismo valor: información infinita (Lozinskii 1994). Esto está en consonancia con un enfoque económico, el cual define ''x'' como imposible si y sólo si ''x'' tiene un precio infinito;
 
<!--[if !supportLists]-->2.     <!--[endif]-->Eliminar todos los casos inconsistentes ''a priori'', como resultados imposibles en toma de decisión (Jeffrey 1990). Esto está en línea con el enfoque sintáctico desarrollado por la TMC;
 
<!--[if !supportLists]-->3.      <!--[endif]-->Asignar a todos los casos inconsistentes el mismo valor: información cero. (Mingers 1997, Aisbett y Gibbon 1999).
 
El último enfoque es cercano al'' enfoque fuertemente semántico,'' el cual abordaremos a continuación.
 
 
===El enfoque fuertemente semántico de la información===
 
La hipótesis general es que la PBC señala que algo ha salido esencialmente mal con la teoría de la información semánticamente débil. Esta hipótesis se fundamenta en un principio semántico que es muy débil, a saber, que los valores de verdad son independientes de la información semántica. Un enfoque semánticamente más fuerte, según el cual la información encapsula la verdad, es capaz de eludir la paradoja y alinearse con la concepción común de qué es lo que en general cuenta como información factual (como hemos visto en la sección 3.2.3). La TMC ya ofrece algunas seguridades iniciales: identifica la cantidad de información asociada a, o generada por, la aparición de una señal (un evento o la realización de un estado de cosas) con la eliminación de posibilidades (reducción de la incerteza) representada por esa señal (evento o estado de cosas). En la TMC no ocurre ninguna desigualdad anti-intuitiva comparable a la PBC, y la línea del argumento es que, como en el caso de la TMC, una teoría de la información fuertemente semántica, basada en valores aléthicos y de discrepancia –en lugar de probabilidades–, puede también evadir exitosamente la PBC. (Floridi 2004b; Floridi 2005, ver Bremer y Cohnitz 2004, cap. 2 para un resumen; Sequoiah-Grayson 2007 defiende la teoría de la información semánticamente fuerte contra la reciente objeción de Fetzer 2004 y Dodig-Crnkovic 2005).
 
Antes de describir este enfoque, nótese que algunos autores han propuesto un enfoque aléthico diferente, que utiliza verosimilitud para explicar la noción de información semántica (Frické 1997; Cevolani 2011, 2014; D'Alfonso 2011). Normalmente, estos enfoques buscan identificar la información factual con la similitud con respeto a la verdad completa acerca de todas las cuestiones empíricas o acerca de algunos dominios restringidos relevantes de interés factual. También estos enfoques evitan la PBC y tampoco utilizan probabilidades. De cualquier manera, la verosimilitud es diferente de la verdad misma en la medida en que un portador de verdad puede ser similar a la verdad sin ser realmente verdadero, ''i.e''. cuando es falso, de manera que los enfoques de la información en términos de verosimilitud permiten que puntos de vistas falsos o teorías falsas puedan tener información. (De hecho, en este enfoque, las afirmaciones falsas pueden a veces portar más información que sus negaciones verdaderas; Frické 1997).
 
Por el contrario, en la concepción de Floridi, la información semántico-factual está definida, en términos de espacio de datos, como datos bien formados, significativos y veraces. Esto restringe el enfoque probabilístico que se introdujo anteriormente, ya que primero requiere que el contenido sea calificado como veraz. Una vez que el contenido es calificado de esa manera, la cantidad de información semántica en ''p'' se calcula en términos de la distancia de ''p'' respecto de la situación/recurso ''w'' que se supone que ''p'' modela. La distancia total es equivalente a un'' p'' verdadero en todos los casos (en todos los mundos posibles o con probabilidad igual a 1), incluyendo'' w'' y, por lo tanto, es mínimamente informativo. En cambio, la proximidad máxima es equivalente al modelado preciso de ''w'', en el nivel acordado de abstracción.
 
Supongamos que vendrán exactamente tres invitados a cenar esta noche. Esta es nuestra situación ''w''. Imaginemos que nos dicen que:
 
(T) Puede venir o no venir algún invitado a cenar esta noche; o
 
(V) Vendrán algunos invitados esta noche; o
 
(P) Vendrán tres invitados esta noche.
 
El ''grado de informatividad'' de (T) es cero porque se aplica tanto a ''w'' como a ¬''w, ''ya que es una tautología. (V) funciona mejor y (P) tiene el grado máximo de informatividad porque, como una verdad totalmente exacta, precisa y contingente, apunta directamente a su objetivo ''w''. Generalizando, cuanto más distante sea una información semántica-factual σ de su objetivo ''w, ''mayor es el número de situaciones a las cuales se aplica, y menor se vuelve su grado de informatividad. Una tautología es una verdad σ que está a mayor “distancia” del mundo.
 
Vamos a utilizar ahora ‘θ’ para referirnos a la distancia entre una verdad σ y ''w''. Si utilizamos el lenguaje más preciso de la lógica de situación, θ indica el grado de respaldo que ''w'' ofrece a σ. Podemos ahora mapear los valores de θ dado un σ específico y un correspondiente objetivo ''w'' sobre el eje ''x'' de un sistema de coordenadas cartesianas. En nuestro ejemplo, sabemos que θ(T) = 1 y θ(P) = 0. Por motivos de simplicidad, asumimos que θ(V) = 0,25. Ahora necesitamos una fórmula para calcular el ''grado de informatividad'' ι de σ en relación a θ(''s''). Se puede mostrar que la solución más elegante es proporcionada por el complemento del valor de θ(σ) al cuadrado, es decir, por ''y'' = 1 − ''x''<sup>2</sup>. Utilizando los símbolos recién presentados, tenemos:
 
[13]     ι(σ) = 1 − θ(σ)<sup>2</sup>
 
La Figura 5 muestra el gráfico generado por la ecuación [13], cuando también incluimos valores negativos de distancia para σ; como se ve, θ recorre los valores desde −1 (= contradicción) a 1 (= tautología):
 
[[File:image007csi.png|center]]
 
<center>'''Figura 5: Grados de informatividad'''</center>
Autores, Editores, Burócratas, Administradores
2226
ediciones

Menú de navegación