Abrir menú principal

DIA β

Cambios

Concepciones semánticas de la información

51 489 bytes añadidos, 14:25 7 jun 2016
sin resumen de edición
<center>'''Figura 4: Un ejemplo de niveles de abstracción'''</center>
 
El método de NA es un modo eficiente de hacer explícitos y de manejar los compromisos teóricos de una teoría. En nuestro caso, “es la batería lo que provee electricidad al auto” es un ejemplo típico de información elaborada en el NA del conductor. El NA de un ingeniero puede generar algo como “la batería de ácido y plomo de 12 voltios está compuesta de seis células, cada una de las cuales produce aproximadamente 2,1 voltios”, en tanto que el NA de un economista podría sugerir que “una batería de auto de buena calidad costará entre $50 y $100 y, si se la mantiene correctamente, debería durar cinco años o más”.
 
Los datos en tanto posibilitadores limitantes (respuestas a la espera de las preguntas relevantes) se transforman en información factual al ser procesadas semánticamente en un NA dado (o, alternativamente, la pregunta relevante está asociada a la respuesta correcta en un NA dado). Una vez que los datos en tanto posibilitadores limitantes han sido elaborados como información factual en un NA determinado, la cuestión que sigue es si acaso los valores de verdad supervienen en la información factual.
 
 
====Información y verdad====
 
Un contenido factual, ¿sólo califica como información si es verdadero? Los defensores de la neutralidad aléthica de la información semántica (Fetzer 2004 y Dodig-Crnkovic 2005, quienes critican a Floridi 2004b; Colburn 2000, Fox 1983, entre teóricos de la situación Devlin 1991, y Scarantino y Piccinini 2010) argumentan que los datos significativos y bien formados ya califican como información, sin importar si representan o transmiten una verdad o una falsedad o si no tienen valor aléthico en absoluto. Los opositores, por otra parte, objetan que “[…] la información falsa y la información errónea no son clases de información –no más que los patos ornamentales y los patos de goma son clases de patos” (Dretske 1981, 45) y que “la información falsa no es una clase inferior de información; simplemente no es información” (Grice 1989, 371; otros filósofos que han aceptado una definición de información semántica basada en la verdad son Barwise y Seligman 1997 y Graham 1999). El resultado es una definición de información factual semántica como datos significativos y verídicos (defendida en Floridi 2004b; 2005), donde “verídicos” es sólo una elección estilística preferible sobre “verdadero”, porque permite decir que un mapa transmite información factual en la medida en que es verídico.
 
Una vez más, el debate no es acerca de una mera definición, sino que concierne a las posibles consecuencias de la tesis de la neutralidad aléthica, tres de las cuales pueden ser resumidas aquí, mientras que la cuarta requiere un análisis más extenso y será discutida en la sección 4.1.
 
Si la tesis de que “los datos significativos y bien formados ya califican como información” es correcta, entonces
 
<!--[if !supportLists]-->i.        <!--[endif]-->la información falsa (incluyendo las contradicciones) contarían como un tipo genuino de información semántica, no como pseudo-información,
 
<!--[if !supportLists]-->ii.       <!--[endif]-->todas las verdades necesarias (incluyendo las tautologías) calificarían como información (para este problema, ver Bremer 2003); y
 
<!--[if !supportLists]-->iii.     <!--[endif]-->“es cierto que ''p''” –donde ''p'' es una variable que puede ser reemplazada por cualquier instancia de información semántica genuina– no sería una expresión redundante; por ejemplo, “es cierto” en la conjunción “la tierra es redonda” califica como información y no podría ser eliminado sin pérdida semántica.
 
Todos estos nuevos problemas se injertan en algunas ramas viejas del árbol filosófico. Si la información falsa es un tipo genuino de información es una cuestión que ha tenido importantes repercusiones en toda filosofía y en la pragmática de la comunicación.
 
La pregunta acerca de la naturaleza informativa (o de la falta de naturaleza informativa) de las verdades necesarias, de las tautologías, de las ecuaciones o de las afirmaciones de identidad es vieja, y atraviesa a Hume, Kant, Frege y Wittgenstein. El último, por ejemplo, señaló algo interesante:
 
“Otra expresión parecida a las que acabamos de considerar es ésta: ‘¡Aquí está, tómelo o déjelo!’ Y esto, nuevamente, se parece a un tipo de afirmación introductoria que a veces hacemos antes de remarcar alternativas, como cuando decimos ‘O bien llueve, o bien no llueve; si llueve, nos quedaremos en mi habitación, si no llueve…’. La primera parte de esta oración no es una porción de información (de la misma manera que “tómelo o déjelo” no es una orden). En lugar de ‘O bien llueve, o bien no llueve’ podríamos haber dicho ‘Considere los dos casos…’. Nuestra expresión subraya estos casos, los presenta a su atención” (''The Blue and Brown Books'', The Brown Book, II, p. 161, ver Wittgenstein 1960).
 
La solución al problema de la hiperintensionalidad (a saber, cómo se puede trazar una distinción semántica entre expresiones que se supone que tienen el mismo significado según una teoría del significado particular, que por lo general es modal o tiene un carácter modal) depende de cómo se puede dar sentido a la relación entre verdad e informatividad en el caso de las expresiones lógicamente equivalentes.
 
Finalmente, la calificación posiblemente redundante de información como verdadera está conectada, también, con la crítica a las teorías deflacionistas de la verdad (TDV), dado que uno podría aceptar como perfectamente correcto un esquema T-deflacionista al mismo tiempo que rechazar la adecuación explicativa de TDV. “Es verdad que” en “es verdad que ''p''” podría ser redundante en vistas al hecho de que no puede haber información factual que no sea cierta, pero TDV podría confundir esta redundancia lingüística o conceptual con algo incondicionalmente prescindible. “Es verdad que” podría ser redundante porque, estrictamente hablando, la información no es un portador de verdad, sino algo que ya encapsula verdad como veracidad. Así, las TDV pueden ser satisfactorias en tanto teorías de las adscripciones de verdad y ser, al mismo tiempo, inadecuadas en tanto teorías de la veracidad.
 
Una vez que la información está disponible, el conocimiento puede construirse en términos de ''información semántica justificable'' o ''explicable''. Un agente de información sabe que la batería está agotada, pero no porque lo adivinó correctamente, sino porque, por ejemplo, percibe que la luz roja del indicador de batería baja resplandece y/o que el motor no enciende. En este sentido, la información provee la base de toda investigación científica ulterior. Notemos, sin embargo, que el hecho de que los datos puedan contar como ''recursos'' para (''i.e''., ''inputs'' que un agente puede usar para construir) la información y, por lo tanto, para el conocimiento, más bien que ''fuentes'', podría conducir a argumentos construccionistas en contra de las teorías miméticas que interpretan la información como alguna clase de pintura del mundo. Este punto requiere cierta elaboración.
 
Ya sean empíricos o conceptuales, los datos hacen posible solo un rango determinado de constructos de información, y no todos los constructos se tornan posibles con la misma facilidad. Una analogía puede ayudarnos aquí. Supongamos que tenemos que construir un refugio. El diseño y la complejidad del refugio pueden variar, pero hay un rango limitado de posibilidades “realistas” que están determinadas por la naturaleza de los recursos y de las constricciones disponibles (tamaño, materiales de construcción, ubicación, propósitos, seguridad, constricciones temporales, etc.). No se puede construir cualquier refugio. Y el tipo de refugio que más frecuentemente se construirá, será el que saque mayor ventaja de los recursos y límites disponibles. Lo mismo se aplica a los datos. Los datos son, al mismo tiempo, los recursos y las constricciones que hacen posible la construcción de la información. La mejor información es aquella mejor sintonizada con los posibilitadores limitantes disponibles. Así, la coherencia y la adecuación informacional no necesariamente implican ni apoyan un realismo ingenuo o directo, ni una teoría correspondentista de la verdad como comúnmente se presenta. En última instancia, la información es el resultado de un proceso de modelado de datos; no tiene que representar, ni fotografiar, ni retratar, ni fotocopiar, ni mapear, ni mostrar, ni descubrir, ni monitorear, ni…, la naturaleza intrínseca del sistema analizado, no más que un iglú describe la naturaleza intrínseca de la nieve o el Partenón indica las propiedades reales de las piedras.
 
Cuando el ''contenido semántico'' es ''falso'', se trata del caso de la información errónea (Fox 1983). Si la fuente de la información errónea está al tanto de la naturaleza de ésta, podemos hablar de ''desinformación'', como cuando uno le dice al mecánico “mi esposo olvidó apagar las luces”. La desinformación y la información errónea son éticamente censurables, pero pueden ser exitosas para lograr su propósito: decirle al mecánico que su esposo dejó las luces encendidas la noche anterior y que él pueda todavía darle el consejo adecuado. De todas formas, puede suceder que la información no logre ser exitosa: imaginemos que le decimos al mecánico que el auto está fuera de servicio.
 
 
==Enfoques filosóficos de la información semántica==
 
¿Cuál es la relación entre la TMC y el tipo de información semántica que hemos llamado factual? La teoría matemática de la comunicación aborda la información como un fenómeno físico. Su pregunta central es si acaso los datos sin interpretar pueden codificarse y transmitirse de una manera eficiente por medio de un alfabeto dado y a través de un canal determinado y, en caso afirmativo, cuántos. La TMC no está interesada en el significado, intencionalidad, relevancia, confiabilidad, utilidad o interpretación de la información, sino solamente en el nivel de detalle y frecuencia en los datos sin interpretar, sean símbolos, señales o mensajes. Los enfoques filosóficos difieren de la TMC en dos aspectos principales.
 
Primero, ellos buscan dar cuenta de la información en tanto contenido ''semántico'', indagando cuestiones como “¿cómo puede algo ser considerado información? Y, ¿por qué?”, “¿cómo puede algo llevar información acerca de alguna otra cosa?”, “¿cómo puede generarse la información semántica y cómo puede fluir?”, “¿cómo se relaciona la información con el error, la verdad y el conocimiento?”, “¿cuándo es útil la información?”. Wittgenstein, por ejemplo, observa que:
 
“Uno está inclinado a decir: ‘O está lloviendo, o no lo está –cómo lo sé, cómo la información llegó a mí, es otra cuestión’. Pero, entonces, pongamos el asunto en estos términos: ¿qué es lo que llamo ‘información de que está lloviendo’? (¿tengo también sólo información de esta información?) Y, ¿qué es lo que da a esta ‘información’ el carácter de ser información acerca de algo? La forma de expresarnos, ¿no nos está engañando? ¿No es una metáfora engañosa decir: ‘mis ojos me dan la información que hay una silla allí’?” (''Philosophical Investigations'', I. § 356, ver en Wittgenstein 2001)
 
Segundo, las teorías filosóficas de la información semántica también buscan conectarla a otros conceptos informacionales relevantes y a formas más complejas de fenómenos epistémicos, mentales y doxásticos. Por ejemplo, Dretske (1981) y Barwise y Seligman (1997), pretenden fundamentar la información, entendida como contenidos factuales semánticos, en términos de la información ambiental. Este tipo de acercamientos es también conocido como la'' naturalización de la información''. Un punto similar puede hacerse a propósito del argumento de las tierras gemelas de Putnam, donde se externalizan la semántica y la teleosemántica.
 
Usualmente, los análisis filosóficos adoptan una orientación proposicional y una perspectiva epistémica, endosando, a menudo implícitamente, la prevalencia o centralidad de la información factual en el mapa de la Figura 1. Sus análisis suelen basarse en casos tales como “París es la capital de Francia” o “la biblioteca Bodleian está en Oxford”. ¿Qué tan relevante es la TMC para investigaciones de esta índole?
 
En el pasado, algunos programas de investigación trataron de elaborar teorías de la información ''alternativas'' a la TMC con el objetivo de incorporar la dimensión semántica. Donald M. Mackay (1969) propuso una teoría cuantitativa de la información cualitativa que tiene conexiones interesantes con la ''lógica de situación'' (ver más adelante). De acuerdo con MacKay, la información está vinculada a un incremento en el conocimiento del lado del receptor: “Supongamos que comenzamos preguntándonos qué queremos decir por información. En términos generales, decimos que hemos ganado información cuando ahora sabemos algo que no sabíamos previamente; es decir, cuando ‘lo que sabemos’ ha cambiado” (Mackay 1969, 10). Por la misma época, Doede Nauta (1972) desarrolló un enfoque semiótico-cibernético. Sin embargo, en nuestros días, pocos filósofos continúan esas líneas de investigación y, por el contrario, la mayoría concuerda en que la TMC provee una rigurosa restricción para cualquier teorización sobre los aspectos semánticos y pragmáticos de la información. El desacuerdo consiste en cuál es el ''alcance'' de esas restricciones.
 
En un extremo del espectro, se supone que cualquier teoría filosófica de la información semántica-factual está ''muy fuertemente'' constreñida, tal vez incluso sobredeterminada, por la TMC, de la misma manera que la ingeniería mecánica lo está por la física newtoniana. Un ejemplo típico es la optimista interpretación de Weaver del trabajo de Shannon.
 
En el otro extremo, se supone que cualquier teoría filosófica de la información semántico-factual está ''sólo débilmente'' constreñida –tal vez incluso completamente subdeterminada– por la TMC, de la misma manera en la que el tenis lo está por la física newtoniana, es decir, en el sentido menos interesante, trascendente y considerable (ver, por ejemplo, Sloman 1978 y Thagard 1990).
 
La aparición de la TMC en la década del ‘50 generó un temprano entusiasmo filosófico que fue enfriándose, gradualmente, con el pasar de las décadas. Históricamente, las teorías filosóficas de la información semántico-factual han pasado de estar “muy fuertemente constreñidas” a “sólo débilmente constreñidas”. Últimamente, encontramos posiciones que aprecian especialmente a la TMC por lo que puede aportar en términos de una robusta y bien desarrollada teoría estadística de correlaciones entre estados de diferentes sistemas (el que envía y el que recibe) según sus probabilidades. Esto puede tener consecuencias importantes en contextos afines a las matemáticas, tales como algunos enfoques de epistemología naturalizada (Harms 1998) o la explicación científica (Badino 2004).
 
Aunque la filosofía de la información semántica se ha ido autonomizando de la TMC, dos conexiones importantes entre la TMC y los enfoques filosóficos más recientes han permanecido estables:
 
<!--[if !supportLists]-->1.      <!--[endif]-->El modelo de comunicación, explicado en la sección 2.1 (ver Figura 2); y
 
<!--[if !supportLists]-->2.      <!--[endif]-->Lo que Barwise llamó “El Principio de Relación Inversa” (PRI).
 
El modelo comunicacional no ha sido puesto en discusión, incluso cuando en nuestros días los teóricos son más propensos a considerar, como casos básicos, sistemas distribuidos y de múltiples agentes que interactúan en paralelo, en lugar de agentes individuales relacionados mediante un canal de comunicación simple y secuencial. En este sentido, la filosofía de la información (Floridi 2011; Allo 2010) es menos cartesiana que “social”.
 
El PRI refiere a la relación inversa que existe entre la probabilidad de ''p'' –el cual puede extenderse a situaciones de un lenguaje dado (como en Bar-Hillel y Carnap), o a eventos, situaciones o mundos posibles (como en Dretske) –y la cantidad de información semántica que ''p'' lleva (recordemos que el cuervo de Poe, en tanto fuente unaria, no provee información porque sus respuestas son totalmente predecibles). El principio afirma que la información va de la mano con la impredictibilidad. A menudo, se considera que Popper (1935) fue el primer filósofo que defendió el PRI de manera explícita; aunque, de cualquier manera, los intentos sistemáticos para desarrollar un cálculo formal se hicieron sólo después de la irrupción de Shannon.
 
Hemos visto que la TMC define información en términos de la distribución espacial de la probabilidad. En sintonía con ello, el ''enfoque probabilista'' de la información semántica define a la información semántica en ''p'' en términos del espacio lógico de probabilidades y la relación inversa entre información y la probabilidad de ''p.'' Este enfoque fue sugerido, inicialmente, por Bar-Hillel y Carnap (1953) (ver también Bar-Hillel 1964) y luego desarrollado por Kemeny (1953), Smokler (1966), Hintikka y Suppes (1970) y Dretske (1981). Si bien los detalles son complejos, la idea original es simple. El contenido semántico (CONT) en ''p'' se mide como el complemento de la probabilidad ''a priori'' de ''p'':
 
[10]     CONT(''p'') = 1 − ''P''(''p'')
 
CONT no satisface los dos requisitos de adición y condicionalización, que son satisfechos por otra medición, la informatividad (INF) de ''p'', que se calcula, según las ecuaciones [9] y [10], como el recíproco de P(''p''), expresado en bits, donde P(''p'') = 1 – CONT(''p''):
 
&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;1
 
[11]     INF(''p'') = log &mdash;&mdash;&mdash;&mdash;&mdash;&mdash;&mdash; − log ''P''(''p'')
 
&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&emsp;&ensp;1 − CONT(''p'')
 
Las cosas son complicadas por el hecho de que el concepto de probabilidad utilizado en las ecuaciones [10] y [11] está sujeto a diferentes interpretaciones. En Bar-Hillel y Carnap (1953), la distribución de probabilidad es el resultado de una construcción lógica de oraciones atómicas de acuerdo con un lenguaje formal seleccionado. Esto introduce una dependencia problemática en una correspondencia estricta entre el lenguaje observacional y el lenguaje formal. En Dretske, la solución es hacer que los valores de la probabilidad refieran a los estados de cosas observados (''s''), es decir:
 
[12]    ''I''(''s'') = −log ''P''(''s'')
 
Donde ''I''(''s'') es la notación que utiliza Dretske para referirse a la información contenida en ''s.''
 
El ''enfoque modal'' modifica aún más el enfoque probabilista al definir la información semántica en términos de espacio modal e in/consistencia. La información que lleva ''p'', se convierte en el conjunto de todos los mundos posibles, o (más cautelosamente) en el conjunto de todas las descripciones de los estados relevantes posibles del universo, que son excluidos por ''p''.
 
El ''enfoque sistémico,'' desarrollado especialmente en lógica de situación (Barwise y Perry 1983, Israel y Perry 1990, Devlin 1991; Barwise y Seligman 1997 proveen un fundamento para una teoría general del flujo de información), también define a la información en términos de espacio de estados y consistencia. Sin embargo, es ontológicamente menos demandante que el enfoque modal, ya que asume un dominio de aplicación claramente limitado. Este enfoque también es compatible con el enfoque probabilista de Dretske, aunque no requiere una medida de la probabilidad sobre los conjuntos de estados. El contenido informacional de ''p'' no está determinado ''a priori'' mediante un cálculo de estados posibles permitidos por un lenguaje representacional, sino que está determinado en términos del contenido factual que ''p'' lleva con respecto a una situación determinada. La información rastrea las transiciones posibles en el espacio de estados de un sistema bajo condiciones normales. Tanto Dretske como los teóricos de situación requieren alguna presencia de información que ya sea inmanente al ambiente (''información ambiental''), como regularidades nómicas o restricciones. Este “externalismo semántico” puede ser controversial.
 
El ''enfoque inferencial'' define información en términos de espacio de vinculación: la información depende de las inferencias válidas relativas a estados epistémicos o a una teoría de agentes de información.
 
Para cada uno de los enfoques extensionalistas previos, puede darse una interpretación intencional al considerar el espacio relevante como un espacio doxástico, en el cual la información es vista como una reducción del grado de incerteza personal, dado un estado de conocimiento del informado. Wittgenstein estuvo de acuerdo con esta distinción en sus ''Comentarios sobre la Filosofía de la Psicología:''
 
La idea central es que hay un juego de lenguaje en el cual produzco información de manera automática, información que puede ser completamente tratada por otras personas como ellas tratan a la información no automática –sólo que aquí no habrá ‘mentira’ alguna–, información que yo mismo puedo recibir de una tercera persona. La oración ‘automática’, reporte, etc., puede también llamarse un ‘oráculo’… Pero, por supuesto, esto significa que el oráculo no debe disponer de las palabras ‘yo creo…’. (Wittgenstein 1980, §817).
 
Al usar la noción de juego de lenguaje, Wittgenstein parece tener en mente la noción de juego de información, que ya hemos encontrado anteriormente.
 
 
===La paradoja de Bar-Hillel-Carnap===
 
Los enfoques extensionalistas, delineados en la sección previa, pueden verse afectados por lo que hemos llamado, un poco hiperbólicamente, la ''Paradoja de Bar-Hillel-Carnap'', en la medida en que ellos suscriben al Principio de Relación Inversa (Floridi 2004b).
 
En resumen, hemos visto que, siguiendo al PRI, cuanto menor sea la probabilidad de'' p'', mayor es la cantidad de información semántica que'' p'' transporta. Esto explica por qué la mayoría de los filósofos acuerda en que gran parte de las tautologías no llevan información en absoluto, ya que su probabilidad o posibilidad es 1; pero también ha conducido a algunos a considerar que las contradicciones –las cuales describen estados imposibles o con probabilidad 0– son la clase de mensajes que contienen una gran cantidad de información semántica. Esta es una pendiente resbaladiza ya que al volver una oración cada vez menos y menos probable, se está aumentando gradualmente su contenido informacional pero, en un punto determinado, la oración “implosiona” (en la cita que aparece más adelante, se vuelve “demasiado informativa para ser verdadera”).
 
Bar-Hillel y Carnap fueron unos de los primeros en explicitar esta desigualdad anti-intuitiva'' prima facie''. Nótese cómo la cuidadosa redacción que se utiliza traiciona el deseo de neutralizar el problema:
 
'''La Paradoja de Bar-Hillel-Carnap (PBC):'''
 
Al comienzo, tal vez pueda parecer extraño que una oración que se contradice a sí misma y que, por lo tanto, ningún receptor ideal aceptaría, sea considerada como portadora de la información más inclusiva. Sin embargo, debería enfatizarse que aquí la información semántica no está implicando verdad y, por lo tanto, una oración falsa que resulta decir mucho es altamente informativa en nuestro sentido. Si la información que transporta es verdadera o falsa, científicamente valiosa o no, etc., no nos concierne. Una oración que se contradice a sí misma afirma demasiado; es demasiado informativa para ser verdadera (Bar-Hillel y Carnap 1953, 229).
 
Desde su formulación, la PBC fue reconocida como una desafortunada consecuencia de cualquier ''teoría cuantitativa de la información débilmente semántica, ''aunque es perfectamente correcta y lógicamente inevitable. Es “débilmente” semántica porque los valores de verdad no juegan ningún papel en ella. Como consecuencia, el problema ha sido, a menudo, o bien ignorado o bien tolerado (Bar-Hillel y Carnap 1953), como el precio que hay que pagar por un enfoque que de otra manera sería valioso. Sin embargo, se han hecho algunos intentos para delimitar sus consecuencias anti-intuitivas, especialmente, en Teoría de Sistemas de Información (Winder 1997) –donde la consistencia es una restricción esencial que debe ser satisfecha para que la base de datos preserve la integridad de los datos– y en Teoría de la Decisión, donde la información inconsistente es obviamente inútil para quien toma decisiones.
 
En estos casos, en lugar de asignarles la máxima cantidad de información semántica, se han sugerido tres estrategias, siempre que no haya modelos posibles que satisfagan un enunciado o una teoría:
 
<!--[if !supportLists]-->1.    <!--[endif]-->Asignar a todos los casos inconsistentes el mismo valor: información infinita (Lozinskii 1994). Esto está en consonancia con un enfoque económico, el cual define ''x'' como imposible si y sólo si ''x'' tiene un precio infinito;
 
<!--[if !supportLists]-->2.     <!--[endif]-->Eliminar todos los casos inconsistentes ''a priori'', como resultados imposibles en toma de decisión (Jeffrey 1990). Esto está en línea con el enfoque sintáctico desarrollado por la TMC;
 
<!--[if !supportLists]-->3.      <!--[endif]-->Asignar a todos los casos inconsistentes el mismo valor: información cero. (Mingers 1997, Aisbett y Gibbon 1999).
 
El último enfoque es cercano al'' enfoque fuertemente semántico,'' el cual abordaremos a continuación.
 
 
===El enfoque fuertemente semántico de la información===
 
La hipótesis general es que la PBC señala que algo ha salido esencialmente mal con la teoría de la información semánticamente débil. Esta hipótesis se fundamenta en un principio semántico que es muy débil, a saber, que los valores de verdad son independientes de la información semántica. Un enfoque semánticamente más fuerte, según el cual la información encapsula la verdad, es capaz de eludir la paradoja y alinearse con la concepción común de qué es lo que en general cuenta como información factual (como hemos visto en la sección 3.2.3). La TMC ya ofrece algunas seguridades iniciales: identifica la cantidad de información asociada a, o generada por, la aparición de una señal (un evento o la realización de un estado de cosas) con la eliminación de posibilidades (reducción de la incerteza) representada por esa señal (evento o estado de cosas). En la TMC no ocurre ninguna desigualdad anti-intuitiva comparable a la PBC, y la línea del argumento es que, como en el caso de la TMC, una teoría de la información fuertemente semántica, basada en valores aléthicos y de discrepancia –en lugar de probabilidades–, puede también evadir exitosamente la PBC. (Floridi 2004b; Floridi 2005, ver Bremer y Cohnitz 2004, cap. 2 para un resumen; Sequoiah-Grayson 2007 defiende la teoría de la información semánticamente fuerte contra la reciente objeción de Fetzer 2004 y Dodig-Crnkovic 2005).
 
Antes de describir este enfoque, nótese que algunos autores han propuesto un enfoque aléthico diferente, que utiliza verosimilitud para explicar la noción de información semántica (Frické 1997; Cevolani 2011, 2014; D'Alfonso 2011). Normalmente, estos enfoques buscan identificar la información factual con la similitud con respeto a la verdad completa acerca de todas las cuestiones empíricas o acerca de algunos dominios restringidos relevantes de interés factual. También estos enfoques evitan la PBC y tampoco utilizan probabilidades. De cualquier manera, la verosimilitud es diferente de la verdad misma en la medida en que un portador de verdad puede ser similar a la verdad sin ser realmente verdadero, ''i.e''. cuando es falso, de manera que los enfoques de la información en términos de verosimilitud permiten que puntos de vistas falsos o teorías falsas puedan tener información. (De hecho, en este enfoque, las afirmaciones falsas pueden a veces portar más información que sus negaciones verdaderas; Frické 1997).
 
Por el contrario, en la concepción de Floridi, la información semántico-factual está definida, en términos de espacio de datos, como datos bien formados, significativos y veraces. Esto restringe el enfoque probabilístico que se introdujo anteriormente, ya que primero requiere que el contenido sea calificado como veraz. Una vez que el contenido es calificado de esa manera, la cantidad de información semántica en ''p'' se calcula en términos de la distancia de ''p'' respecto de la situación/recurso ''w'' que se supone que ''p'' modela. La distancia total es equivalente a un'' p'' verdadero en todos los casos (en todos los mundos posibles o con probabilidad igual a 1), incluyendo'' w'' y, por lo tanto, es mínimamente informativo. En cambio, la proximidad máxima es equivalente al modelado preciso de ''w'', en el nivel acordado de abstracción.
 
Supongamos que vendrán exactamente tres invitados a cenar esta noche. Esta es nuestra situación ''w''. Imaginemos que nos dicen que:
 
(T) Puede venir o no venir algún invitado a cenar esta noche; o
 
(V) Vendrán algunos invitados esta noche; o
 
(P) Vendrán tres invitados esta noche.
 
El ''grado de informatividad'' de (T) es cero porque se aplica tanto a ''w'' como a ¬''w, ''ya que es una tautología. (V) funciona mejor y (P) tiene el grado máximo de informatividad porque, como una verdad totalmente exacta, precisa y contingente, apunta directamente a su objetivo ''w''. Generalizando, cuanto más distante sea una información semántica-factual σ de su objetivo ''w, ''mayor es el número de situaciones a las cuales se aplica, y menor se vuelve su grado de informatividad. Una tautología es una verdad σ que está a mayor “distancia” del mundo.
 
Vamos a utilizar ahora ‘θ’ para referirnos a la distancia entre una verdad σ y ''w''. Si utilizamos el lenguaje más preciso de la lógica de situación, θ indica el grado de respaldo que ''w'' ofrece a σ. Podemos ahora mapear los valores de θ dado un σ específico y un correspondiente objetivo ''w'' sobre el eje ''x'' de un sistema de coordenadas cartesianas. En nuestro ejemplo, sabemos que θ(T) = 1 y θ(P) = 0. Por motivos de simplicidad, asumimos que θ(V) = 0,25. Ahora necesitamos una fórmula para calcular el ''grado de informatividad'' ι de σ en relación a θ(''s''). Se puede mostrar que la solución más elegante es proporcionada por el complemento del valor de θ(σ) al cuadrado, es decir, por ''y'' = 1 − ''x''<sup>2</sup>. Utilizando los símbolos recién presentados, tenemos:
 
[13]     ι(σ) = 1 − θ(σ)<sup>2</sup>
 
La Figura 5 muestra el gráfico generado por la ecuación [13], cuando también incluimos valores negativos de distancia para σ; como se ve, θ recorre los valores desde −1 (= contradicción) a 1 (= tautología):
 
[[File:image007csi.png|center]]
 
<center>'''Figura 5: Grados de informatividad'''</center>
 
Si σ tiene un alto grado de informatividad ι (donde el valor de θ es muy bajo), queremos poder decir que contiene una gran cantidad de información semántica y, viceversa, que cuanto más bajo sea el grado de informatividad de σ, menor debería ser la cantidad de información semántica transportada por σ. Para calcular la cantidad de información semántica contenida en σ relativa a ι(σ), necesitamos calcular el área delimitada por la ecuación [13], es decir, definir la integral de la función ι(σ) sobre el intervalo [0, 1]. Como sabemos, la cantidad máxima de información semántica (llamémosla α) es transportada por (P), cuyo θ = 0. Esto es equivalente a la totalidad del área delimitada por la curva. Generalizando para σ, obtenemos:
 
[14]     [[File:image008csi.png]]
 
La Figura 6 muestra el gráfico generado por la ecuación [14]. El área sombreada es la cantidad máxima de información semántica α transportada por σ.
 
<center>[[File:image010csi.jpg]]</center>
 
<center>'''Figura 6: Máxima cantidad de información semántica α transportada por σ'''</center>
 
 
Consideremos ahora (V), “vendrán algunos invitados esta noche”. (V) puede analizarse como una cadena (razonablemente finita) de disyunciones, es decir (V) = [“vendrán algunos invitados esta noche” o “vendrán dos invitados esta noche” o “vendrán ''n'' invitados esta noche”], donde ''n'' es un límite razonable a considerar (las cosas son más complejas que esto, pero aquí sólo necesitamos entender el principio general). Sólo una de las descripciones en (V) será totalmente exacta. Esto significa que (V) también contiene alguna (tal vez mucha) información que es simplemente redundante o irrelevante. Nos referiremos a este “residuo informacional” en (V) como información vacía en (V). La cantidad de información vacía (llamémosla β) en (V) es también una función de la distancia θ de (V) desde ''w'', o en términos más generales:
 
[15] [[File:image011csi.png]]
 
Ya que θ(V) = 0,25, tenemos que
 
[16]     [[File:image013csi.png]]
 
La Figura 7 muestra el gráfico generado por la ecuación [16]
 
<center>[[File:image015csi.jpg]]</center>
 
<center>'''Figura 7: Cantidad de información γ transportada por σ'''</center>
 
 
El área sombreada es la cantidad de información vacía β en (V). Claramente, la cantidad de información semántica en (V) es, sencillamente, la diferencia entre α (la máxima cantidad de información que, en principio, puede portar σ) y β (la cantidad de información vacía que actualmente porta σ), es decir, el área clara del gráfico de la Figura 7. De modo más general, y expresado en bits, la cantidad de información semántica γ en σ es:
 
[17]     γ(σ) = log(α − β)
 
Nótese la similitud entre [14] y [15]: cuando θ(σ) = 1, es decir, cuando la distancia entre σ y ''w'' es máxima, entonces α = β y γ(σ) = 0. Esto es lo que sucede cuando consideramos a (T). (T) está a tanta distancia de ''w'' que sólo contiene información vacía. En otras palabras, (T) contiene tanta información vacía como información relevante contiene (P).
 
 
==Conclusión==
 
Las teorías filosóficas de la información semántica han contribuido recientemente a la formación de una nueva área de investigación en sí misma, la filosofía de la información (Adams 2003, Floridi 2011). Los dos volúmenes especiales publicados de ''Mentes y Máquinas'' sobre filosofía de la información (Floridi 2003c) ofrecen un panorama del alcance y la profundidad del trabajo actual en el área. La información parece haberse convertido en la clave conceptual para destrabar muchos problemas filosóficos. “El bien más valioso del que tengo conocimiento es la información”, declara con valentía Gordon Gekko en ''Wall Street ''de Oliver Stone (1987). Eufranor probablemente hubiera coincidido. El problema es que todavía tenemos que lograr un acuerdo acerca de qué es exactamente la información.
 
 
== Bibliografía ==
 
Adams, F. 2003. “The Informational Turn in Philosophy”. <em>Minds and Machines</em> 13(4): 471–501.
 
Adriaans, P. y J. van Benthem, eds. 2008. <em>Handbook of Philosophy of Information</em>. Amsterdam - Oxford: Elsevier.
 
Allo, P., ed. 2010. <em>Putting Information First: Luciano Floridi and the Philosophy of Information </em>(volumen especial de <em>Metaphilosophy</em>. Volumen 41. No. 3).
 
Armstrong, D. M. 1968. <em>A Materialist Theory of the Mind</em>. London: Routledge & Kegan Paul.
 
Armstrong, D. M. 1993. <em>A Materialist Theory of the Mind</em>. 2º edición. London: Routledge.
 
Badino, M. 2004. “An Application of Information Theory to the Problem of the Scientific Experiment”. <em>Synthese</em> 140: 355–389.
 
Bar-Hillel, Y. 1964. <em>Language and Information: Selected Essays on Their Theory and Application</em>. Reading, Mass - London: Addison-Wesley.
 
Bar-Hillel, Y. y R. Carnap. 1953. “An Outline of a Theory of Semantic Information”. Repr. en <em>Language and Information: Selected Essays on Their Theory and Application, por Bar-Hillel, Y. (1964), 221-274</em>. Reading, Mass - London: Addison-Wesley.
 
Barwise, J. y J. Seligman. 1997. <em>Information Flow: The Logic of Distributed Systems</em>. Cambridge: Cambridge University Press.
 
Bateson, G. 1973. <em>Steps to an Ecology of Mind</em>. Frogmore - St. Albans: Paladin.
 
Berkeley, G. 1732. <em>Alciphron: Or the Minute Philosopher</em>. Edinburgh: Thomas Nelson 1948–57.
 
Braman, S. 1989. “Defining Information”. <em>Telecommunications Policy</em> 13: 233–242.
 
Bremer, M. y D. Cohnitz. 2004. <em>Information and Information Flow – an Introduction</em>. Frankfurt - Lancaster: Ontos Verlag.
 
Bremer, M. E. 2003. “Do Logical Truths Carry Information?”. <em>Minds and Machines</em> 13(4): 567–575.
 
Cevolani, G. 2011. “Verisimilitude and strongly semantic information”. <em>Ethics & Politics</em> XIII(2): 159–179.
 
Cevolani, G. 2014. “Strongly Semantic Information as Information About the Truth”. En <em>Recent Trends in Philosophical Logic</em>, (Trends in Logic, Volumen 41), editado por R. Ciuni, H. Wansing y C. Willkommen, 59-74. Dordrecht: Springer.
 
Chaitin, G. J. 1987. <em>Algorithmic Information Theory</em>. Cambridge: Cambridge University Press.
 
Chalmers, D. J. 1996. <em>The Conscious Mind: In Search of a Fundamental Theory</em>. New York: Oxford University Press.
 
Cherry, C. 1978. <em>On Human Communication: A Review, a Survey, and a Criticism</em>. 3° edición. Cambridge, Mass. - London: MIT Press.
 
Colburn, T. R. 2000. <em>Philosophy and Computer Science</em>. Armonk, NY: M.E. Sharpe.
 
Cover, T. M. y J. A. Thomas. 1991. <em>Elements of Information Theory</em>. New York - Chichester: Wiley.
 
Craver, C. F. 2004. “A Field Guide to Levels”. <em>Proceedings and Addresses of the American Philosophical Association</em> 77(3): 121 [versión preliminar disponible online].
 
D'Alfonso, S. 2011. “On Quantifying Semantic Information”. <em>Information</em> 2(1): 61–101.
 
Debons, A. y W. J. Cameron, eds. 1975. <em>Perspectives in Information Science: Proceedings of the Nato Advanced Study Institute on Perspectives in Information Science, Held in Aberystwyth, Wales, Uk, August 13–24, 1973</em>. Leiden: Noordhoff.
 
Dennett, D. C. 1969. <em>Content and Consciousness</em>. London: Routledge & Kegan Paul.
 
Dennett, D. C. 1971. “Intentional Systems”. <em>The Journal of Philosophy</em> (68): 87–106.
 
Dennett, D. C. 1986. <em>Content and Consciousness</em>. 2nd edition. London: Routledge & Kegan Paul.
 
Deutsch, D. 1985. “Quantum Theory, the Church-Turing Principle and the Universal Quantum Computer”. <em>Proceedings of the Royal Society</em> 400: 97–117.
 
Deutsch, D. 1997. <em>The Fabric of Reality</em>. London: Penguin.
 
Devlin, K. J. 1991. <em>Logic and Information</em>. Cambridge: Cambridge University Press.
 
Di Vincenzo, D. P. y D. Loss. 1998. “Quantum Information Is Physical”. <em>Superlattices and Microstructures</em> (volumen especial en ocasión del cumpleaños número 70 de Rolf Landauer) 23: 419–432.
 
Dodig-Crnkovic, G. 2005. “System Modeling and Information Semantics”. En <em>Proceedings of the Fifth Promote IT Conference</em>, Borlänge, Suecia, editado por Janis Bubenko, Owen Eriksson, Hans Fernlund y Mikael Lind. Studentlitteratur: Lund.
 
Dretske, F. I. 1981. <em>Knowledge and the Flow of Information</em>. Oxford: Blackwell. Reimpreso: Stanford, CA: CSLI Publications. 1999.
 
Dunn, J. M. 2001. “The Concept of Information and the Development of Non-Classical Logics”. En <em>Non-Classical Approaches in the Transition from Traditional to Modern Logic</em>, editado por W. Stelzner, 423–448. Berlin - New York: de Gruyter.
 
Fetzer, J. H. 2004. “Information: Does It Have to Be True?”. <em>Minds and Machines</em> 14(2): 223–229.
 
Floridi, L. 1999. <em>Philosophy and Computing: An Introduction</em>. London - New York: Routledge.
 
Floridi, L. 2002. “What Is the Philosophy of Information?”. <em>Metaphilosophy</em> 33(1–2): 123–145.
 
Floridi, L. 2003a. “Information”. En <em>The Blackwell Guide to the Philosophy of Computing and Information</em>, editado por L. Floridi, 40–61. Oxford - New York: Blackwell.
 
Floridi, L. 2003b. “Two Approaches to the Philosophy of Information”. <em>Minds and Machines</em> 13(4): 459–469.
 
Floridi, L., ed. 2003c. <em>Minds and Machines</em> (volumen especial: Philosophy of Information). Volume 13.
 
Floridi, L. 2004a. “Open Problems in the Philosophy of Information”. <em>Metaphilosophy</em> 35(4): 554–582.
 
Floridi, L. 2004b. “Outline of a Theory of Strongly Semantic Information”. <em>Minds and Machines</em> 14(2): 197–222.
 
Floridi, L. 2005. “Is Information Meaningful Data?”. <em>Philosophy and Phenomenological Research</em> 70(2): 351–370.
 
Floridi, L. 2008. “The Method of Levels of Abstraction”. <em>Minds and Machines</em> 18(3): 303–329.
 
Floridi, L. 2010. <em>Information – A Very Short Introduction</em>. Oxford: Oxford University Press.
 
Floridi, L. 2011. <em>The Philosophy of Information</em>. Oxford: Oxford University Press.
 
Fox, C. J. 1983. <em>Information and Misinformation: An Investigation of the Notions of Information, Misinformation, Informing, and Misinforming</em>. Westport, CT: Greenwood Press.
 
Franklin, S. 1995. <em>Artificial Minds</em>. Cambridge, Mass.: MIT Press.
 
Frické, M. 1997. “Information using likeness measures”. <em>Journal of the American Society for Information Science</em> 48(10): 882–892.
 
Frieden, B. R. 1998. <em>Physics from Fisher Information: A Unification</em>. Cambridge: Cambridge University Press.
 
Frieden, B. R. 2004. <em>Science from Fisher Information: A Unification</em>. 2nd ed. Cambridge: Cambridge University Press.
 
Golan, A. 2002. “Information and Entropy Econometrics – Editor's View”. <em>Journal of Econometrics</em> 107(1–2): 1–15.
 
Graham, G. 1999. <em>The Internet: A Philosophical Inquiry</em>. London: Routledge.
 
Grice, H. P. 1989. <em>Studies in the Way of Words</em>. Cambridge, Mass.: Harvard University Press.
 
Harms, W. F. 1998. “The Use of Information Theory in Epistemology”. <em>Philosophy of Science</em> 65(3): 472–501.
 
Heil, J. 2003. “Levels of Reality”. <em>Ratio</em> 16(3): 205–221.
 
Hintikka, J. y P. Suppes, eds. 1970. <em>Information and Inference</em>. Dordrecht: D. Reidel.
 
Hoare, C. A. R. y H. Jifeng. 1998. <em>Unifying Theories of Programming</em>. London: Prentice Hall.
 
Hume, D., 1987, <em>Essays, Moral, Political, and Literary</em>, Indianapolis: Liberty Classics. Editado y con prefacio, notas y glosario de Eugene F. Miller; con un aparato crítico desde la edición de 1889 de T.H. Green y T.H. Grose. Basado en la edición de 1777, originalmente publicada como v. 1 of Essays and treatises on several subjects.
 
Jones, D. S. 1979. <em>Elementary Information Theory</em>. Oxford: Clarendon Press.
 
Kemeny, J. 1953. “A Logical Measure Function”. <em>Journal of Symbolic Logic</em> 18: 289–308.
 
Landauer, R. 1987. “Computation: A Fundamental Physical View”. <em>Physica Scripta</em> 35: 88–95.
 
Landauer, R. 1991. “Information Is Physical”. <em>Physics Today</em> 44: 23–29.
 
Landauer, R. 1996. “The Physical Nature of Information”. <em>Physics Letters A</em> 217: 188.
 
Landauer, R. y Bennett, C. H. 1985. “The Fundamental Physical Limits of Computation”. <em>Scientific American</em> July: 48–56.
 
Larson, A. G. y A. Debons, eds. 1983. <em>Information Science in Action: System Design. Proceedings of the Nato Advanced Study Institute on Information Science, Crete, Greece, August 1–11, 1978</em>. The Hague: M. Nijhoff.
 
Losee, R. M. 1997. “A Discipline Independent Definition of Information”. <em>Journal of the American Society for Information Science</em> 48(3): 254–269.
 
Mabon, P. C. 1975. <em>Mission Communications: The Story of Bell Laboratories</em>. Murray Hill, N.J.: Bell Telephone Laboratories.
 
Machlup, F. y U. Mansfield, eds. 1983. <em>The Study of Information: Interdisciplinary Messages</em>. New York: Wiley.
 
MacKay, D. M. 1969. <em>Information, Mechanism and Meaning</em>. Cambridge: MIT Press.
 
Marr, D. 1982. <em>Vision: A Computational Investigation into the Human Representation and Processing of Visual Information</em>. San Francisco: W.H. Freeman.
 
Mingers, J. 1997. “The Nature of Information and Its Relationship to Meaning”. En <em>Philosophical Aspects of Information Systems</em>, editado por R. L. Winder <em>et al</em>, 73–84. London: Taylor and Francis.
 
Nauta, D. 1972. <em>The Meaning of Information</em>. The Hague: Mouton.
 
Newell, A. 1982. “The Knowledge Level”. <em>Artificial Intelligence</em> 18: 87–127.
 
Newell, A. y H. A. Simon. 1976. “Computer Science as Empirical Inquiry: Symbols and Search”. <em>Communications of the ACM</em> 19: 113–126.
 
Pierce, J. R. 1980. <em>An Introduction to Information Theory: Symbols, Signals & Noise</em>. 2nd edition. New York: Dover Publications.
 
Poli, R. 2001. “The Basic Problem of the Theory of Levels of Reality”. <em>Axiomathes</em> 12: 261–283.
 
Popper, K. R. 1935. <em>Logik Der Forschung: Zur Erkenntnistheorie Der Modernen Naturwissenschaft</em>. Wien: J. Springer. Traducción al inglés: <em>The Logic of Scientific Discovery</em>. London: Hutchinson. 1959.
 
Quine, W.V.O. 1970. <em>Philosophy of Logic</em>. Englewood Cliffs, NJ: Prentice Hall.
 
Roever, W. P. d., K. Engelhardt y K.-H. Buth. 1998. <em>Data Refinement: Model-Oriented Proof Methods and Their Comparison</em>. Cambridge: Cambridge University Press.
 
Sayre, K. M. 1976. <em>Cybernetics and the Philosophy of Mind</em>. London: Routledge & Kegan Paul.
 
Scarantino, A. y G. Piccinini. 2010. “Information Without Truth”. <em>Metaphilosophy</em> 41(3): 313–330.
 
Sequoiah-Grayson, S. 2007. “The Metaphilosophy of Information”. <em>Minds and Machines</em> 17: 331–344.
 
Schaffer, J. 2003. “Is There a Fundamental Level?”. <em>Noûs</em> 37(3): 498–517.
 
Shannon, C. E. 1993. <em>Collected Papers</em>, editado por N. J. A. Sloane y A. D. Wyner, New York: IEEE Press.
 
Shannon, C. E. y Weaver, W. 1949. <em>The Mathematical Theory of Communication</em>. Urbana: University of Illinois Press. Prólogo por Richard E. Blahut y Bruce Hajek. Reimpreso en 1998.
 
Simon, H. A. 1969. <em>The Sciences of the Artificial</em>. 1º edición. Cambridge, Mass. - London: MIT Press.
 
Simon, H. A. 1996. <em>The Sciences of the Artificial</em>. 3º edición. Cambridge, Mass. - London: MIT Press.
 
Sloman, A. 1978. <em>The Computer Revolution in Philosophy: Philosophy, Science and Models of Mind</em>. Hassocks: Harvester.
 
Smokler, H. 1966. “Informational Content: A Problem of Definition”. <em>The Journal of Philosophy</em> 63(8): 201–211.
 
Steane, A. M. 1998. “Quantum Computing”. <em>Reports on Progress in Physics</em> 61: 117–173.
 
Thagard, P. R. 1990. “Comment: Concepts of Information”, en Hanson [1990].
 
Weaver, W. 1949. “The Mathematics of Communication”. <em>Scientific American</em> 181(1): 11–15.
 
Wheeler, J. A. 1990. “Information, Physics, Quantum: The Search for Links”, en <em>Complexity, Entropy, and the Physics of Information</em>, editado por W. H. Zureck, Redwood City, CA: Addison Wesley.
 
Wiener, N. 1954. <em>The Human Use of Human Beings: Cybernetics and Society</em>. Boston: Houghton Mifflin, re-editado en 1989 con una nueva introducción de Steve Heims. London: Free Association.
 
Wiener, N. 1961. <em>Cybernetics or Control and Communication in the Animal and the Machine</em>. 2º edición. Cambridge, Mass.: MIT Press.
 
Wittgenstein, L. 1960. <em>Preliminary Studies for the Philosophical Investigations: Generally Known as the Blue and Brown Books</em>. 2º edición. Oxford: Basil Blackwell.
 
Wittgenstein, L. 1980. <em>Remarks on the Philosophy of Psychology</em>, 2 volúmenes. Chicago: University of Chicago Press and Oxford: Basil Blackwell, editado por G. E. M. Anscombe y G. H. von Wright. Traducido por G. E. M. Anscombe; vol. 2 editado por G.H. von Wright and H. Nyman; traducido por C.G. Luckhardt y A.E. Aue.
 
Wittgenstein, L. 1981. <em>Zettel</em>, 2nd edition, editado por G.E.M, Anscombe and G.H. von Wright; traducido por G.E.M. Anscombe. Oxford: Blackwell.
 
Wittgenstein, L. 2001. <em>Philosophical Investigations: The German Text with a Revised English Translation</em>, 3º edición. Oxford: Blackwell. Traducido por G.E.M. Anscombe. Incorpora revisiones finales hechas por Elizabeth Anscombe a la edición en inglés. Algunos errores de tipeo han sido corregidos y el texto ha sido repaginado.
 
{{Citar|url = http://dia.austral.edu.ar/Concepciones_semánticas_de_la_información|cabecera = Floridi, Luciano. 2015. "Concepciones semánticas de la información"}}
 
== Derechos de autor ==
Voz "Concepciones semánticas de la información", traducción autorizada de la entrada "[http://plato.stanford.edu/archives/spr2015/entries/information-semantic/ Semantic Conceptions of Information]" de la ''Stanford Encyclopedia of Philosophy (SEP) ''© 2015. La traducción corresponde a la entrada de los archivos de la SEP, la que puede diferir de la versión actual por haber sido actualizada desde el momento de la traducción. La versión actual está disponible en http://plato.stanford.edu/entries/information-semantic/
 
El DIA agradece a SEP la autorización para efectuar y publicar la presente traducción.
 
Traducción a cargo de Cristian López. DERECHOS RESERVADOS Diccionario Interdisciplinar Austral © Instituto de Filosofía - Universidad Austral - Claudia E.Vanney - 2015.
 
ISSN: 2524-941X
 
 
== Agradecimientos ==
 
Este artículo está basado en Floridi [2003a] y [2010]. Agradezco a Blackwell el permiso de reproducir partes del texto original y a Bosch UK por haberme permitido reproducir el dibujo en la Figura 2. Me he beneficiado significativamente de muchos comentarios editoriales por Fred Kroon y Jerry Seligman a los borradores previos. También agradezco a varios colegas y amigos por sus útiles sugerencias y por las conversaciones en torno a borradores anteriores y artículos pasados en los cuales se basa esta entrada. Ellos son sólo responsables de las demoras, pero no de cualquier error remanente: Frederick R. Adams, Mark Bedau, John Collier, Ian C. Dengler, Michael Dunn, Roger Brownsword, Timothy Colburn, James Fetzer, Phil Fraundorf, Gian Maria Greco, Ken Herold, Bernard Katz, Philipp Keller, Gianluca Paronitti, Jeff Sanders, Sebastian Sequoiah-Grayson, Janet D. Sisson, Ernest Sosa, J. L. Speranza, Matteo Turilli, y Edward N. Zalta.
 
[[Categoría:Información]]
[[Categoría:Filosofía de la ciencia]]
Autores, Editores, Burócratas, Administradores
2226
ediciones