Abrir menú principal

DIA β

Concepciones semánticas de la información

Versión española de Semantic Conceptions of Information, de la Stanford Encyclopedia of Philosophy.

Traducción: Cristian López


“Amo la información por sobre todos los temas que se cruzan en mi camino y, especialmente, por sobre aquellos que son más importantes”. Así declara con firmeza Eufranor, uno de los defensores de la fe cristiana en el Alcifrón de Berkeley (Diálogo 1, Sección 5, Párrafos 6/10, ver Berkeley 1732). Evidentemente, la información ha sido objeto de deseo filosófico desde hace mucho tiempo, desde mucho antes de la revolución de la computación, del internet o del pandemonio del “dot.com” (ver, por ejemplo, Dunn 2001 y Adams 2003). Sin embargo, ¿qué es exactamente lo que Eufranor ama? ¿Qué es la información? La pregunta ha recibido muchas respuestas en diferentes campos pero, como era de esperar, los diversos estudios no concuerdan en una definición simple y única de la información (ver, por ejemplo, Braman 1989, Losee 1997, Machlup y Mansfield 1983, Debons y Cameron 1975, Larson y Debons 1983).

La información es, de una manera particular, un fenómeno polimórfico y un concepto polisemántico. En tanto explicandum, puede estar asociado a muchas explicaciones, dependiendo del nivel de abstracción que se adopte, y del cúmulo de requisitos y expectativas que orientan una teoría. Al leer este artículo, el lector quizá debería recordar este rasgo notorio de la información, ya que serán inevitables algunas simplificaciones esquemáticas y ciertas decisiones interpretativas. El propio Claude E. Shannon fue muy precavido al respecto:

“La palabra ‘información’ ha recibido diferentes significados por parte de varios autores en el campo general de la teoría de la información. Probablemente, un buen número de ellos serán suficientemente útiles en ciertas aplicaciones y merezcan un estudio posterior y un reconocimiento permanente. Difícilmente se podría esperar que un simple concepto de información pudiera dar cuenta, de manera satisfactoria, de las numerosas aplicaciones posibles de este campo general” (cursivas agregadas) (Shannon 1993, 180).

En concordancia con Shannon, Weaver (1949) propuso un análisis tripartito de la información en términos de:

(1)  problemas técnicos que conciernen a la cuantificación de la información y que son abordados por la Teoría de Shannon.

(2)  problemas semánticos relacionados con el significado y la verdad; y

(3)  lo que Weaver llamó problemas “de influencia” vinculados con el impacto y la efectividad de la información en el comportamiento humano, los cuales, deberían jugar de acuerdo con él un papel igualmente importante.

Y estos son sólo unos cuantos de los primeros problemas que surgieron en el análisis de la información.

De hecho, el exceso en la cantidad de los análisis existentes puede resultar confuso. Con frecuencia se ventilan quejas relacionadas con malos entendidos e usos inadecuados del concepto mismo de información, incluso cuando tales quejas no parecen aportar beneficio alguno. Por ejemplo, Sayre (1976) criticó la “laxitud en el uso del término ‘información’” en Armstrong (1968) (ahora ver Armstrong 1993) y en Dennett (1969) (ahora ver Dennett 1986), a pesar de su aprecio por otros numerosos aspectos de sus trabajos. Recientemente, Harms señaló confusiones similares en Chalmers (1996), quien

“parece pensar que la noción teórica de la información (ver mi agregado, en la Sección 3) trata acerca de los posibles estados que existen y de cómo ellos están relacionados o estructurados, y no acerca de cómo las probabilidades se distribuyen entre ellos” (Harms 1998, 480).

Para evitar este tipo de dificultades, el presente artículo ha sido organizado en cuatro secciones. La Sección 1 esboza un mapa de los principales sentidos en los que se puede hablar de información semántica, basándonos en el análisis del concepto de data (representado en la Figura 1, ver más adelante). A veces, los numerosos conceptos de información que están organizados en el mapa pueden agruparse de distintas maneras. Sin embargo, esto no debería considerarse necesariamente un signo de confusión, ya que para algunos filósofos esto puede ser el resultado de un vínculo intencional. El mapa no pretende ser exhaustivo, sino que busca meramente evitar algunos escollos y demarcar los alcances de este artículo, que de otra manera podría convertirse con facilidad en una versión resumida de la Encyclopedia Britannica. Su carácter esquemático es tan sólo un punto de partida para futuras investigaciones y el lector interesado en profundizar su conocimiento al respecto puede consultar Floridi (2011) y Adriaans y van Benthem (2008).

Luego de esta orientación inicial, en la Sección 2 se expone una breve introducción a la teoría de la información, es decir, a la teoría matemática de la comunicación (TMC), La TMC merece tener un espacio propio ya que es el enfoque cuantitativo que ha ejercido mayor influencia entre los filósofos. Esta sección proveerá el trasfondo necesario para entender muchas de las teorías semánticas de la información contemporáneas, especialmente los trabajos de Bar-Hillel y Carnap (1953), y Dretske (1981).

En la Sección 3, se analiza la información como contenido semántico. La Sección 4 está abocada a focalizar en las investigaciones filosóficas acerca de la información semántica, aquello que Eufranor realmente ama.

Se advierte al lector que se utilizará una descripción de la información semántica en tanto dato significativo como criterio para delinear otros enfoques. Desafortunadamente, incluso una aproximación tan minimalista como esta se encuentra sujeta a desacuerdos; aunque, como punto a favor, se puede decir que es menos controversial que otras aproximaciones. Claramente, un análisis conceptual debe tener un punto de partida, lo cual, a menudo, significa adoptar alguna definición provisoria del objeto a investigar. Sin embargo, esta manera habitual de proceder no es lo que aquí se quiere enfatizar, ya que la dificultad resulta más abrumadora. El trabajo filosófico sobre el concepto de información (semántica) todavía se encuentra en ese lamentable estadio, en el cual las discrepancias cuestionan incluso la manera en la que los problemas mismos son provisionalmente formulados y enmarcados. Por ejemplo, todavía no disponemos de nada que sea comparable a la naturaleza bien pulida del problema de Gettier. En este sentido el señalamiento “usted se encuentra aquí” que se ofrece en este artículo podría muy bien ser puesto en otro lugar por otros filósofos. El propósito de esta entrada es ubicar el concepto de información semántica de manera firme en el mapa filosófico, lo que permitirá posibles ajustes futuros.


Contenido

1 Un mapa informacional  

La información es un laberinto conceptual y en esta sección comenzaremos dando un vistazo a un mapa general de una de sus regiones con el propósito de abocarnos completamente al área semántica. La Figura 1 resume las principales distinciones que vamos a presentar.


Figura 1: Un mapa informacional


Claramente, pasar a través de los diversos puntos en el mapa hará que el recorrido no sea lineal. La utilización de algunos ejemplos básicos, que permitirán ilustrar los pasos menos obvios, será de ayuda para mantener nuestro rumbo. Dicho esto, permítanme presentarles uno de los puntos al cual retornaremos recurrentemente.


1.1 Un ejemplo cotidiano de información.  

Es lunes por la mañana. Usted da arranque a su automóvil, pero no sucede nada: el motor no emite ni un sólo sonido y su silencio le preocupa. Como era de esperar, usted advierte que la luz roja de la batería está parpadeando, lo cual indica que la batería está descargada. Después de un par de intentos, se da por vencida y llama al mecánico. Le explica que su esposo olvidó apagar las luces del auto anoche –lo cual no es verdad, porque usted lo olvidó, pero está avergonzada y no quiere confesarlo – y ahora la batería está agotada. El mecánico le dice que el manual de instrucciones de su auto explica cómo utilizar cables de arranque para encender el motor. Afortunadamente, su vecino tiene todo lo que usted necesita. Lee el manual, mira los dibujos, sigue las instrucciones, soluciona el problema y finalmente conduce a la oficina.

Esta situación cotidiana será nuestra “mosca de la fruta”. Aunque es simple e intuitiva, provee los detalles suficientes para ilustrar las múltiples maneras en las cuales entendemos uno de nuestros recursos más importantes: la información.


1.2 La definición basada en datos de la información  

Es común pensar que la información está constituida por datos. Esto ciertamente ayuda, pero sólo de manera limitada. Desafortunadamente, la naturaleza de los datos no está filosóficamente bien entendida, a pesar de que algunos de los más importantes debates del pasado –tal como el debate acerca de los datos dados y acerca de los datos de los sentidos– han provisto al menos algunas ideas iniciales. De todas maneras, el concepto tiene la ventaja de ser menos rico, menos oscuro y menos esquivo que el de información, lo cual lo hace más fácil de manejar. Por lo tanto, comenzar por una definición de información basada en datos parece ser un buen punto de partida.

En las últimas tres décadas, diversos análisis en Ciencia de la Información, en Teoría, Metodología, Análisis y Diseño de Sistemas de Información, en Administración de Información (Sistemas), en Diseño de Base de Datos y en Teoría de la Decisión han adoptado una Definición General de Información (DGI) en términos de datos + significado. La DGI se ha vuelto un estándar operacional, especialmente en aquellos campos donde los datos y la información son tratados como entidades reificadas (considérese, por ejemplo, las modernas expresiones “extracción de datos” [data mining] y “administración de información” [information management]). Recientemente, la DGI ha empezado a ejercer influencia en la filosofía de la computación y la información (Floridi 1999 y Mingers 1997).

Una manera clara de formular la DGI es mediante una definición que consta de tres partes:

La Definición General de Información (DGI):

σ es una instancia de información, entendida en términos de contenido semántico, si y sólo si:

(DGI.1) σ consiste en uno o más datos;

(DGI.2) los datos en σ están bien formados;

(DGI.3) los datos bien formados en σ son significativos;

La DGI requiere una definición de “datos”, la cual se brindará en la siguiente sección. Pero antes haremos un breve comentario de cada cláusula.

De acuerdo con (DGI.1), los datos son la materia que constituye la información. Veremos que, rápidamente, las cosas pueden volverse más complicadas.

En (DGI.2), “bien formado” significa que los datos son cúmulos agrupados de manera adecuada, siguiendo reglas (sintaxis) que gobiernan el sistema escogido, el código o el lenguaje que se está analizando. En este punto, la sintaxis debe ser entendida en un sentido amplio (no solamente lingüístico), es decir, como aquello que determina la forma, la construcción, la composición o la estructura de algo (ingenieros, directores de películas, pintores, ajedrecistas y jardineros hablan de sintaxis en este sentido amplio). Por ejemplo, el manual de su auto puede mostrar (Figura 2), un dibujo bidimensional de dos autos ubicados uno al lado del otro, no uno encima del otro.

Figura 2: Cómo poner en marcha su auto utilizando un puente
(Copyright © Bosch UK)


Esta sintaxis pictórica (que incluye la perspectiva lineal que representa el espacio por convergencia de líneas paralelas) hace que las ilustraciones sean potencialmente significativas para el usuario. Utilizando el mismo ejemplo, la batería necesita estar conectada al motor de la manera adecuada para funcionar: esto también es sintaxis, en términos de la adecuada arquitectura física de un sistema (por lo tanto, una batería desconectada es un problema sintáctico). Y, por supuesto, la conversación que usted sostiene con su vecino sigue las reglas gramaticales del español: esto es sintaxis en el sentido lingüístico habitual.

La semántica finalmente aparece en la cláusula (DGI.3). Que los datos sean “significativos” alude a que los datos deben cumplir con los significados (semánticos) del sistema escogido, del código o lenguaje en cuestión. De todas maneras, no olvidemos que la información semántica no es necesariamente algo de índole lingüística. Por ejemplo, cuando consideramos el caso del manual del auto donde las ilustraciones son visualmente significativas para el lector.


1.3 Una definición de datos  

De acuerdo con la DGI, la información no puede no tener datos. En el caso más sencillo, la información consiste en un único dato. Pero así, un dato se reduce solamente a una falta de uniformidad (diaphora es el término griego para “diferencia”), entonces una definición general de dato establece que:

La Definición Diaphorica de Datos (DDD):

Un dato es un hecho putativo que considera alguna diferencia o pérdida de uniformidad en algún contexto.

Dependiendo de las inclinaciones filosóficas, la DDD puede aplicarse en tres niveles:

  1. Datos como diaphora de re, es decir, como falta de uniformidad en el mundo real externo. No existe un nombre específico para “datos en la naturaleza”, pero una sugerencia sería referirnos a ellos como dedomena (“datos” en griego; nótese que nuestra palabra para “datos” proviene de la traducción latina de un trabajo de Euclides, Dedomena). Los dedomena no deben confundirse con datos ambientales (ver la sección 1.7.1). Ellos son datos puros o datos proto-epistémicos, es decir, datos que todavía no han sido interpretados epistémicamente. Como “fracturas en los tejidos del ser”, ellos sólo pueden ser considerados como un ancla externa de nuestra información, ya que no se puede acceder a ellos o los mismos no pueden ser elaborados sin un cierto nivel de abstracción (veremos más acerca de esto en la sección 3.2.2). Los dedomena pueden reconstruirse como requerimientos ontológicos, como el noúmeno en Kant o la sustancia en Locke: no tenemos experiencia epistémica de ellos sino que su presencia es inferida a partir de la experiencia o bien es requerida por ella. Por supuesto, no podemos ofrecer ningún ejemplo de esto, pero los dedomena son cualquier falta de uniformidad en el mundo que sea fuente de datos (lo que los sistemas de información como nosotros percibimos como datos); e.g., una luz roja en un fondo oscuro. Nótese que el punto aquí no es argumentar a favor de la existencia de datos puros en la naturaleza, sino proveer una distinción que (en la sección 1.6) nos ayudará a clarificar por qué algunos filósofos han aceptado la tesis de que no puede haber información sin representación de datos mientras que han rechazado la tesis que la información requiere una implementación física.
  2. Datos como diaphora de signo, es decir, falta de uniformidad entre (la percepción de) por lo menos dos estados físicos, tales como una carga completa de batería o una batería descargada, una señal eléctrica variable en una conversación telefónica, o el punto y la línea en el alfabeto Morse.
  3. Datos como diaphora de dicto, esto es, falta de uniformidad entre dos símbolos, por ejemplo, las letras A y B en el alfabeto latino.

Dependiendo de qué posición se adopte con respecto a la tesis de la neutralidad ontológica (sección 1.6) y de la naturaleza de la información ambiental (1.7.1) los dedomena en (1) pueden ser o bien idénticos con las señales en (2) o bien aquello que las hace posibles. A su vez, las señales en (2) son las que hacen posible los códigos de símbolos en (3).

El hecho de que la información dependa de que haya datos sintácticamente bien formados, y de la existencia de diferencias implementadas físicamente de diferentes maneras, explica por qué la información puede tan fácilmente disociarse de su soporte. El formato, medio y lenguaje en el cual la información semántica está codificada de hecho es, a menudo, irrelevante y, por lo tanto, no es considerado. En particular, la misma información semántica puede ser analógica o digital, estar impresa en un papel o puede visualizarse en una pantalla, puede estar en español o en algún otro idioma, expresada por medio de palabras o mediante dibujos. Las interpretaciones de esta independencia del soporte pueden variar radicalmente. La DDD deja indeterminados:

  • la clasificación de los correlatos (neutralidad taxonómica);
  • el tipo lógico al cual los correlatos pertenecen (neutralidad tipológica);
  • la clase de soporte requerido para la implementación de su desigualdad (neutralidad ontológica); y
  • la dependencia de su semántica de un productor (neutralidad genética).

Ahora veamos cada una de estas formas de neutralidad.


1.4 Neutralidad taxonómica  

Por lo general, un dato se clasifica como una entidad que exhibe una anomalía, usualmente porque una anomalía es perceptualmente más conspicua o menos redundante que las condiciones de fondo. Sin embargo, la relación de desigualdad es binaria y simétrica. Una hoja blanca de papel no es sólo la condición de fondo necesaria para la ocurrencia de un punto negro como dato, sino que es una parte constitutiva del dato mismo [punto-negro-en-papel-blanco], junto con la relación fundamental de desigualdad que lo empareja con el punto. Nada parece ser un dato per se. Más bien, ser un dato es una propiedad externa. Entonces, la DGI respalda la siguiente tesis de la neutralidad taxonómica:

Neutralidad taxonómica (NTa):

Un dato es una entidad relacional.

El slogan dice “los datos son correlatos”, pero la DGI es neutral con respecto a la identificación de los datos con correlatos específicos. En nuestro ejemplo, la DGI se abstiene de identificar como datos a la luz roja o al fondo blanco. Para entender por qué no puede haber “información sin datos”, examinaremos la neutralidad tipológica de la DGI.


1.5 Neutralidad tipológica  

La DGI también apoya la tesis de la neutralidad tipológica:

Neutralidad tipológica (NTi):

La información puede consistir en diferentes tipos de datos como correlatos.

Hay cinco clasificaciones que son bastante comunes, aunque todavía la terminología no está establecida o estandarizada. Estas clasificaciones no son mutuamente excluyentes y no deben ser entendidas como rígidas. Dependiendo de las circunstancias, de la clase de análisis que se esté llevando a cabo y del nivel de abstracción que se adopte, los mismos datos pueden caer en distintas clasificaciones.

(D1) Datos primarios. Son los principales datos almacenados en, por ejemplo, una base de datos, como una simple colección de números. Estos son los datos que generalmente son transmitidos por un sistema de manejo de la información, como por ejemplo el que es utilizado en un auto para indicar que la batería se está agotando. Normalmente, cuando se habla de datos, y de la información que ellos constituyen, implícitamente se asume que se trata de la información y de los datos primarios. Entonces, por defecto se asume que la luz roja del indicador de batería baja es una instancia de dato primario transmitiendo información primaria.

(D2) Datos secundarios. Los datos secundarios son opuestos a los datos primarios, consisten en su ausencia (por lo que podemos llamarlos también “anti-datos”). Recordemos cómo fue que supusimos, primariamente, que la batería estaba agotada: el motor no hizo el ruido usual. Del mismo modo, en Estrella de plata, Sherlock Holmes resuelve el caso al notar algo que nadie más había notado: el silencio inusual del perro. Claramente, el silencio puede ser muy informativo. Esta es una peculiaridad de la información, a saber, su ausencia puede también ser informativa. A esto podemos referirnos, entonces, como información secundaria.

(D3) Metadatos. Son indicaciones acerca de la naturaleza de otros datos (usualmente, primarios). Estos metadatos describen propiedades como ubicación, formato, actualización, disponibilidad, restricciones de uso, entre otras. De modo correspondiente, la metainformación es información acerca de la naturaleza de la información. Un ejemplo de metainformación simple puede ser “‘La batería está agotada’ está codificado en castellano”.

(D4) Datos operacionales. Son datos acerca de las operaciones del sistema de datos y de su desempeño. En correspondencia, la información operacional es información acerca de la dinámica de un sistema de información. Supongamos que el auto cuenta con una luz amarilla que cuando se enciende indica que el sistema de chequeo del auto está fallando. El hecho de que la luz esté encendida puede indicar que el indicador de la batería no esté funcionando adecuadamente y puede, por lo tanto, debilitar la hipótesis de que la batería esté agotada.

(D5) Datos derivativos. Pueden ser extraídos a partir de ciertos datos cuando estos últimos son usados como fuentes indirectas en la búsqueda de patrones, indicios o evidencias inferenciales acerca de cosas distintas de aquéllas directamente aludidas por los datos mismos, por ejemplo, para análisis comparativos y cuantitativos (ideometría). Esta categoría es difícil de definir con precisión, de modo que un ejemplo cotidiano puede resultar útil para ilustrar el punto. Las tarjetas de crédito dejan, notoriamente, un rastro de información derivativa. A partir del resumen de la tarjeta de crédito de una persona donde consta, por ejemplo, una compra de combustible en una gasolinera, uno puede derivar información acerca de su paradero en determinado momento. La información derivativa no es algo nuevo. Hume ofrece un bello ejemplo en estos tiempos de calentamiento global. En el Essays Moral, Political, and Literary (Part II, Essay 11. Of the Populousness of Ancient Nations, Parágrafos 155/186 mp. 448 gp. 432, ver Hume 1987), Hume reporta que “Es una observación de L'Abbe du Bos que Italia es más cálida en el presente que en los tiempos antiguos. ‘Los Anales de Roma nos cuentan’, dice él, ‘que en el año 480 ab U.C. el invierno era tan severo que destruyó los árboles’ […]. Muchos pasajes de Horacio suponen que las calles de Roma estaban cubiertas de nieve y hielo. Tendríamos más certeza respecto de este punto si los antiguos hubieran conocido el uso de los termómetros, pero sus escribas, sin intención, nos dan información suficiente para convencernos de que los inviernos en Roma son mucho más templados ahora que antes”. Hume ha extraído precisamente información derivativa a partir de alguna información primaria proporcionada por L’Abbe du Bos.

Volvamos ahora a nuestra pregunta: ¿puede haber información sin datos? La DGI no especifica qué tipos de datos constituyen información. Esta neutralidad tipológica (NTi, ver más arriba) está justificada por el hecho de que, cuando la aparente falta de datos no se reduce a la existencia de datos primarios negativos, lo que se vuelve disponible y que califica como información es cierta información adicional no-primaria μ acerca de σ constituida por ciertos datos no-primarios (D2)–(D5). Por ejemplo, si una consulta en una base de datos proporciona una respuesta, esta respuesta será al menos negativa, por ejemplo, “no se encontraron documentos”. En tal caso, ésta sería información primaria negativa. Sin embargo, si la base de datos no proporciona ninguna respuesta, pueden suceder dos cosas: o bien no es capaz de proveer datos en absoluto, en cuyo caso no hay ninguna información σ disponible –de modo que la regla “no hay información sin datos” todavía rige–, o bien es capaz de ofrecer algunos datos que permiten establecer, por ejemplo, que está corriendo en un loop [N. del T.: un loop es una secuencia que se repite una y otra vez, de manera continua]. Del mismo modo, el silencio –esta vez como respuesta a una pregunta– podría representar información primaria negativa, por ejemplo, como un asentimiento o una negación implícita; o bien podría portar cierta información no-primaria, por ejemplo, acerca del hecho de que la persona no ha escuchado la pregunta o acerca de la cantidad de ruido en la habitación.


1.6 Neutralidad ontológica  

Al rechazar la posibilidad de información sin datos, la DGI también acepta la modesta tesis de la neutralidad ontológica.

Neutralidad ontológica (NO):

No puede haber información sin representación de datos.

Siguiendo a Landauer y Bennet (1985), y Landauer (1987; 1991; 1996), la neutralidad ontológica (NO) a menudo se interpreta en términos materiales, como defendiendo la imposibilidad de la información sin soporte físico, a través de la ecuación “representación = implementación física”, esto es:

(NO.1) No puede haber información sin implementación física.

Cuando se trabaja en física de la computación, (NO.1) es un presupuesto inevitable ya que la ciencia de la computación debe, necesariamente, tomar en consideración las propiedades físicas y los límites de los portadores de datos. Por lo tanto, el debate en torno a (NO.1) ha florecido especialmente en el contexto de la filosofía de la información y computación cuántica (ver Deutsch 1985; 1997 y Di Vincenzo y Loss 1998; Steane 1998 ofrece un revisión). (NO.1) es también un presupuesto ontológico que está detrás de la Hipótesis de Sistemas de Símbolos Físicos en IA (Inteligencia Artificial) y en Ciencias Cognitivas. (Newell y Simon 1976). Pero (NO), y por lo tanto DGI, no especifica si, en última instancia, la aparición de todo estado discreto requiere una implementación material de las representaciones de datos. Presumiblemente, los entornos en los cuales todas las entidades, propiedades y procesos son en última instancia noéticos (e.g. Berkeley, Spinoza), o aquellos en los cuales el universo material o extenso tiene una matriz noética y no extensa como fundamento ontológico (e.g. Pitágoras, Platón, Descartes, Leibniz, Fichte, Hegel), parecen perfectamente capaces de sostener (NO) sin la necesidad de sostener (NO.1) de manera simultánea. Los correlatos en la DDD (más arriba) podrían ser los dedomena, tal como las mónadas leibnizianas, por ejemplo. De hecho, el clásico debate del realismo acerca de cuál es la naturaleza última del “ser” puede ser reconstruido en términos de las posibles interpretaciones de (NO).

Todas estas consideraciones explican por qué la DGI es también consistente con otros dos eslóganes muy populares, favorables a la naturaleza proto-física de la información y, por lo tanto, completamente contrarios a (NO.1):

(NO. 2) Desde el bit. Dicho de otra manera, toda “cosa”–toda partícula, todo campo de fuerza, todo continuo espacio-temporal mismo– deriva su función, su significado, su propia existencia (incluso de manera indirecta en algunos contextos) de respuestas generadas por un aparato a preguntas “por sí o por no”, o también desde elecciones binarias, o desde bits. [N. del T.: Texto original en inglés: “It from bit. Otherwise put, every ‘it’ — every particle, every field of force, even the space-time continuum itself—derives its function, its meaning, its very existence (even if in some contexts indirectly) from the apparatus-elicited answers to yes-or-no questions, binary choices, bits.”]. “Desde el bit” representa la idea de que todo elemento del mundo físico tiene en el fondo –un fondo muy profundo en la mayoría de los casos– una fuente y una explicación inmaterial; aquello que llamamos realidad surge, en última instancia, de formular preguntas por sí o por no y del registrar respuestas evocadas por un sistema. Dicho brevemente, todas las cosas físicas tienen en su origen una naturaleza informacional en un universo participativo (Wheeler 1990, 5);

Y también:

(NO.3) [información es] un nombre para el contenido de lo que se intercambia con el mundo externo a medida que nos adaptamos a él y hacemos que nuestros ajustes se correspondan con él. (Wiener 1954, 17). La información es información, no es materia ni energía. Ningún tipo de materialismo que no admita esto puede sobrevivir en nuestros días (Wiener 1961, 132).

(NO.2) adopta una noción teórica de información, un monismo metafísico: la esencial naturaleza del universo es digital, está compuesta fundamentalmente de información en tanto datos/dedomena en lugar de materia o energía, donde los objetos materiales son una compleja manifestación secundaria (recientemente, una posición similar ha sido defendida en física por Frieden (1998), cuyo trabajo está basado en una perspectiva platónica inexacta). Sin embargo, (NO.2) puede no verse obligado a comprometerse con un punto de vista computacional de los procesos de información. (NO.3) defiende un enfoque más pluralista en términos similares. Y ambos son compatibles con DGI.

Podemos introducir un comentario final sobre (DGI.3) al discutir un cuarto eslogan:

(NO.4) De hecho, lo que queremos decir con información –la unidad elemental de información – es una diferencia que hace una diferencia. (Bateson 1973, 428).

(NO.4) es una de las primeras y más populares formulaciones de la DGI (ver por ejemplo Franklin 1995, 34 y Chalmers 1996, 281). Habitualmente, la formulación se atribuye a Mackay (1969) (aunque no se ha encontrado en este texto) –esto es, “información es una distinción que hace una diferencia” –que precede a la formulación de Bateson aunque es ligeramente diferente de ella, ya que habla de “distinción” en lugar de “diferencia”, lo cual le da un giro más epistemológico y no tan ontológico. Una “diferencia” (una “distinción”) es sólo un estado discreto, a saber, un dato; y “hacer una diferencia” significa simplemente que el dato es “significativo”, al menos potencialmente.


1.7 Neutralidad Genética  

Finalmente, consideremos la naturaleza semántica de los datos. El tema de cómo los datos pueden llegar a tener un significado asignado y una función en un sistema semiótico constituye en primer lugar uno de los problemas más difíciles de la semántica. Afortunadamente, el punto en cuestión aquí no es cómo sino si acaso los datos que constituyen información como contenido semántico pueden ser significativos independientemente de un informado. La neutralidad genética (NGe), apoyada por la DGI, afirma que:

Neutralidad Genética (NGe):

Los datos (como correlatos) pueden tener una semántica independientemente de cualquier informado.

Antes del descubrimiento de la Piedra Roseta, los jeroglíficos egipcios ya eran considerados como información, aun cuando su semántica estuviese más allá de la comprensión de cualquier intérprete. El descubrimiento de una interfaz entre el griego y el egipcio no afectó la semántica de los jeroglíficos, sino solamente su accesibilidad. Este es el sentido condicional-contrafáctico débil en el que (DGI.3) se refiere a datos significativos arraigados en portadores de información, con independencia de un informado. La NGe apoya la posibilidad de la información sin un sujeto informado, para usar una frase popperiana. El significado no está (o, al menos, no está únicamente) en la mente del usuario. Hay que distinguir la NGe de la tesis realista más fuerte que defiende, por ejemplo, Dretske (1981). De acuerdo con esta tesis, los datos podrían también tener su semántica propia, independientemente de un informador/productor inteligente. Esto es conocido como información ambiental, un concepto que merece una breve presentación antes de finalizar esta primera parte.


1.7.1 Información ambiental  

Uno de los ejemplos más citados de información ambiental es el de los anillos concéntricos que se ven en la madera de un tronco de árbol que ha sido cortado, y que se pueden usar para estimar su edad. Sin embargo, la información “ambiental” no necesariamente debe ser natural. Volviendo a nuestro ejemplo anterior, cuando uno enciende el auto con la llave, la luz roja del indicador de batería baja se prende. Esta señal también puede interpretarse como una instancia de información ambiental, sin ser natural.

La información ambiental se define en relación con un observador (un agente de información) que, se supone, no tiene acceso directo a los datos puros en sí mismos. Se requiere que dos sistemas a y b estén acoplados de tal manera que el que a sea (del tipo de, o en el estado) F esté correlacionado con el que b sea (del tipo de, o en el estado) G, y que así lleve la información al observador de que b es G (este análisis está adaptado de Barwise y Seligman (1997), quienes mejoran un abordaje similar ofrecido por Dretske 1981).

Información ambiental:

Dos sistemas, a y b, están acoplados de manera tal que el que a sea (del tipo de, o en el estado) F, esté correlacionado con el que b sea (del tipo de, o en el estado) G, transmitiéndole así al agente la información de que b es G.

La correlación aludida es usualmente nómica, es decir, sigue alguna ley. Puede tratarse de un producto de ingeniería, como en el caso del indicador de baja batería (a) cuyo brillo (F) está desencadenado por el hecho de que la batería (b) está descargada (G) y, por lo tanto, es informativo acerca de ello. Pero también puede ser natural, como cuando se usa tornasol (un colorante natural de los líquenes) como un indicador de acidez y alcalinidad, pues se vuelve rojo en las soluciones ácidas y azul en las alcalinas. Otros ejemplos típicos incluyen la correlación entre las huellas digitales y la identificación personal.

Puede suceder que uno esté tan acostumbrado a ver el indicador de batería baja encendido como algo que lleva información acerca de que la batería está descargada, que resulta difícil distinguir, con claridad suficiente, entre información ambiental y semántica. Sin embargo, es importante enfatizar que la información ambiental puede no requerir o no involucrar semántica en absoluto. La información ambiental puede consistir en (redes o patrones de) datos correlacionados, entendidos como meras diferencias o posibilitadores limitantes (“constraining affordances" en el original). Las plantas (por ejemplo, un girasol), los animales (por ejemplo, una ameba), y los mecanismos (por ejemplo, una célula fotoeléctrica) son ciertamente capaces de hacer un uso práctico de la información ambiental, incluso sin que haya (procesamiento semántico de) datos significativos.


1.8 Resumen de la primera parte  

Para resumir, la DGI define la información, en un sentido amplio, como datos sintácticamente bien formados y significativos. Los cuatro tipos de neutralidad (NTa, NTi, NO y NGe) representan una ventaja obvia, en tanto hacen que la DGI sea perfectamente extrapolable a casos más complejos, y razonablemente flexible en términos de aplicabilidad y compatibilidad. De hecho, los filósofos han interpretado y ajustado de diversas formas estas cuatro neutralidades de acuerdo con sus necesidades teóricas.

Nuestro siguiente paso es examinar si acaso la DGI resulta satisfactoria cuando se discute el tipo más importante de información semántica, esto es, la información acerca de hechos (información factual). Antes de abordar este asunto, sin embargo, necesitamos detenernos y ocuparnos de la teoría matemática de la comunicación (TMC).

La TMC no es el único enfoque matemático exitoso del concepto de información. La información de Fisher (Frieden 2004) y la teoría algorítmica de la información (Chaitin 1987) son otros dos ejemplos importantes. En cualquier caso, la TMC es ciertamente la más conocida entre los filósofos. Como tal, ha tenido un impacto profundo en los análisis filosóficos de la información semántica, a los cuales ha aportado tanto el vocabulario técnico como también un primer marco conceptual de referencia. Para comprender el debate filosófico que suscita es necesario comprender la esencia de la teoría.


2 La información como comunicación de datos  

Algunas características de la información son intuitivas. Estamos acostumbrados, por ejemplo, a que la información sea codificada, transmitida y almacenada. Además, esperamos que sea aditiva (es decir, que información a + información b = a + b) y no-negativa, como otras cosas en la vida, tal como las probabilidades y las tasas de interés. Si hace una pregunta, el peor escenario es aquél en el que no recibe respuesta o recibe una respuesta errónea, lo cual lo dejará en un estado de cero información nueva.

Algunas propiedades similares de la información son cuantificables y son investigadas por la teoría matemática de la comunicación (TMC) con el objetivo de generar modos eficientes de codificar y transferir datos.

El nombre de esta rama de teorías probabilísticas surge del trabajo seminal de Shannon (Shannon and Weaver 1949). Shannon fue pionero en este campo y obtuvo muchos de sus principales resultados, pero reconoció la importancia del trabajo previo llevado a cabo por otros investigadores y colegas en Bell Laboratories, donde se destacan Nyquist y Hartley (ver Cherry 1978 y Mabon 1975). Después de Shannon, la TMC se popularizó como la teoría de la información, una atractiva pero desafortunada etiqueta, que continúa indefinidamente causando malos entendidos. Shannon llegó a lamentar la amplia popularidad de la etiqueta, y aquí evitaremos usarla.

La segunda parte de este artículo esboza algunas de las ideas claves detrás de la TMC, con el objetivo de comprender la relación que hay entre la TMC y algunas de las teorías filosóficas de la información semántica. Aquellos lectores que no sean afectos a las fórmulas matemáticas, preferirán ir directamente a la sección 2.2, donde se esbozan algunas implicaciones conceptuales de la TMC. En cambio, los lectores que estén interesados en profundizar su conocimiento, pueden comenzar leyendo Weaver (1949), Pierce (1980), Shannon y Weaver (1949 rep. 1998), luego Jones (1979), y finalmente Cover y Thomas (1991). Los últimos dos son textos técnicos. Floridi (2010) ofrece un análisis breve y simplificado orientado a estudiantes de filosofía.


2.1 La teoría matemática de la comunicación  

La TMC se originó en el campo de la ingeniería electrónica como el estudio de los límites de la comunicación, desarrollando un enfoque cuantitativo de la información como una manera de dar respuesta a dos problemas fundamentales: cuál es el nivel último de compresión de datos (¿cuán pequeño puede ser un mensaje dada la misma cantidad de información a codificar?) y cuál es la tasa última de transmisión de datos (¿cuán rápido pueden transmitirse los datos por un canal?). Para ambos problemas, las soluciones son la entropía H en la ecuación [9] (ver más abajo) y la capacidad del canal C. El resto de la sección ilustra cómo obtener soluciones para los dos problemas.

Para comenzar con una aproximación intuitiva al enfoque, volvamos a nuestro ejemplo. Recordemos la conversación telefónica con el mecánico. En la Figura 3, la esposa es la informadora, el mecánico es el informado, “la batería está descargada” es el mensaje (semántico), es decir, el informante. Además, hay un proceso de codificación y decodificación a través del lenguaje natural (español), un canal de comunicación (el sistema de teléfono) y algún posible ruido. Informador e informado comparten alguna clase de conocimiento común acerca de la colección de símbolos que son utilizados (técnicamente, esto es conocido como el alfabeto; en el ejemplo es el alfabeto latino).

Figura 3: Modelo de comunicación
(adaptado de Shannon y Weaver 1949)


La TMC se ocupa del uso eficiente de los recursos que están indicados en la Figura 3. Ahora bien, la conversación con el mecánico es bastante realista y, por lo tanto, más difícil de modelar que un caso simplificado. Volveremos a esto más adelante pero, en vistas a introducir la TMC, imaginemos en lugar del ejemplo del mecánico, un dispositivo muy aburrido que solamente puede producir un único símbolo. Edgar Alan Poe escribió un breve cuento en el cual un cuervo solo podía responder “nunca más” a cualquier pregunta. El cuervo de Poe es llamado un dispositivo unario. Imagine que llama al mecánico y quien responde su llamado es el cuervo de Poe. Incluso a este nivel elemental, el modelo simple de comunicación de Shannon se aplica. Es obvio que el cuervo (un dispositivo unario) produce cero cantidades de información. Simplificando, nosotros ya sabemos cuál será la respuesta en el intercambio comunicativo, por lo que nuestra ignorancia (expresada por nuestra pregunta) no puede decrecer. Sea cual sea el estado informacional en el que el sistema esté, hacer las preguntas pertinentes (e.g. ¿seré capaz de encender mi auto?, ¿puede venir a arreglar el auto?) al cuervo no le hace ninguna diferencia. Es interesante notar que esto está a la base del famoso argumento de Platón en el Fedro contra el valor de la información semántica provista por textos escritos:

“[Sócrates]: Escribir, Fedro, tiene esta extraña cualidad, muy similar a la pintura: las criaturas de las pinturas parecen seres vivos, pero si uno les hace una pregunta, ellas permanecen en un solemne silencio. Y lo mismo sucede con las palabras escritas; podríamos pensar que ellas hablan, como si tuviesen inteligencia, pero si las interrogas, deseando saber acerca de lo que dicen, ellas siempre dicen una misma y única cosa [ellas son dispositivos unarios, en nuestra terminología]. Y toda palabra [275e] una vez escrita, se pone de moda igualmente para quienes la entienden y para quienes no están interesados en ella, y ella no sabe a quién hablarle y a quién no; cuando es maltratada o injustamente injuriada siempre necesita de un padre que la defienda, ya que no tiene poder para protegerse a sí misma.”

Como bien advierte Platón, un recurso unario responde siempre con un único mensaje, no con un silencio o un mensaje, ya que el silencio cuenta también como mensaje, como dijimos en 1.5 cuando se discutió la naturaleza de la información secundaria. Lo que se sigue de esto es que una fuente en completo silencio también califica como una fuente unaria. Y si silenciar una fuente (censura) puede ser una forma sucia de hacer a una fuente no-informativa, es bien conocido que gritar “¡lobo!” es un caso clásico en el cual una fuente informativa se degrada al papel de un dispositivo unario no-informativo.

Consideremos ahora un dispositivo binario capaz de producir dos símbolos, como una moneda justa con sus dos símbolos equiprobables {h, t} [N. del T.: las letras “h” y “t” corresponden al inglés “head” y “tail”, que serían la cara y ceca de una moneda. Como en español ambas empiezan con la misma letra, se decidió dejarlo como estaba en el original]; o, como Mateo 5,37 sugiere: “Que este sea vuestro hablar: sí, cuando sea sí; no, cuando sea no; cualquier cosa de más, proviene del demonio”. Antes de que la moneda sea lanzada, el informado (por ejemplo, una computadora) está en un estado de déficit de datos mayor a cero: el informado no sabe qué símbolo producirá el dispositivo. Shannon utilizó el término técnico de “incertidumbre” para referirse a este déficit de datos. En un contexto no matemático, esto puede ser un término un poco engañoso, ya que tiene fuertes connotaciones epistemológicas. Recuérdese que el informado puede ser una simple máquina, por lo que estados doxásticos, mentales o psicológicos son claramente irrelevantes.

Una vez que la moneda ha sido lanzada, el sistema produce una cantidad de información que es una función de los posibles resultados, en este caso, dos símbolos equiprobables, e igual al déficit de datos que elimina.

Construyamos ahora un sistema ligeramente más complejo, compuesto de dos monedas A y B. El sistema AB puede producir los siguientes cuatro pares ordenados como resultado: <hh>, <ht>, <th>, <tt>, lo cual genera un déficit de datos de cuatro unidades, donde cada par es considerado como un símbolo en el alfabeto de la fuente. En el sistema AB, la aparición de cada símbolo <_,_> elimina una mayor cantidad de déficit de datos que la aparición de un símbolo en el sistema A. En otras palabras, cada símbolo provee mayor información. Agregar una moneda más produciría ocho unidades de déficit de datos, incrementando la cantidad de información que cada símbolo contiene en el sistema ABC, y así sucesivamente.

Estamos en condiciones de generalizar los ejemplos. Llamemos N al número de símbolos posibles. Para N = 1, la cantidad de información producida por un dispositivo unario es 0. Para N = 2, al producir un símbolo equiprobable, el dispositivo envía una unidad de información; y para N = 4, al producir un símbolo equiprobable, el dispositivo envía la sumatoria de la cantidad de información producida por un dispositivo que produce uno de dos símbolos equiprobables (la moneda A en el ejemplo anterior) más la cantidad de información producida por otro dispositivo que también produce uno de dos símbolos equiprobables (moneda B), esto es, dos unidades de información, aunque el número total de símbolos es obtenido al multiplicar los símbolos de A por los símbolos de B. Ahora, nuestra medida de información debe ser una función continua y monótona de la probabilidad de los símbolos. La manera más eficiente de satisfacer estos requerimientos es utilizando el logaritmo en base 2 del número de posibles símbolos (el logaritmo en base 2 de un número n es la potencia a la cual 2 debe ser elevado para obtener n, por ejemplo log2 8 = 3, ya que 23 = 8). Los logaritmos tienen la ventajosa propiedad de convertir la multiplicación de símbolos en una suma de unidades de información. Tomando el logaritmo en base 2 (en adelante, log simplemente significa log2), tenemos la ventaja extra de expresar las unidades en bits. La base del logaritmo es parcialmente una cuestión convencional, de la misma manera que utilizar centímetros en lugar de pulgadas; en parte porque es útil cuando tratamos con dispositivos digitales que utilizan códigos binarios para representar datos.

Dado un alfabeto de N símbolos equiprobables, ahora podemos utilizar la ecuación [1]:

[1] El promedio de informatividad por símbolo (o “incerteza”) = log2(N) bits de información por símbolo.

Para repasar algunos ejemplos de manera más precisa:

Algunos dispositivos de comunicación y su capacidad informativa.


La idea básica está contenida completamente en la ecuación [1]: la información puede cuantificarse en términos del decrecimiento en el déficit de datos (la “incertidumbre” de Shannon). Desafortunadamente, las monedas reales siempre están sesgadas, y para calcular cuánta información producen ellas, uno debe basarse en la frecuencia con que aparecen los símbolos en una serie finita de tiradas, o en sus probabilidades si las tiradas se realizan una cantidad indefinida de veces. Comparada con una moneda justa, una moneda con un ligero sesgo produce menos de 1 bit de información, aunque todavía produce más que 0. El cuervo de Poe no produjo información en absoluto, ya que la ocurrencia de la cadena S de “nunca más” fue no informativa (es decir, no causa sorpresa, para utilizar el vocabulario más intuitivo, aunque psicologista, de Shannon), y esto se debe a que la probabilidad de la aparición de “nunca más” fue máxima, es decir, demasiado predecible. Igualmente, la cantidad de información producida por una moneda sesgada depende de la informatividad promedio (también conocida como sorpresa promedio, otro término desafortunado para referirse a la rareza estadística promedio) de la cadena S de los h y t producidos por la moneda. La informatividad promedio de la cadena resultante S depende de la probabilidad de la aparición de cada símbolo. Cuánto más alta sea la frecuencia de aparición de un símbolo en S, menor es la cantidad de información producida por la moneda, hasta el punto en que una moneda está tan sesgada que produce siempre el mismo símbolo y deja de ser informativa en absoluto, comportándose como el cuervo o el niño que grita “¡lobo!”.

Por lo tanto, para calcular la informatividad promedio de S necesitamos calcular S y la informatividad de cada símbolo ith en general. Para hacer estos cálculos necesitamos entender cuál es la probabilidad de aparición (Pi) del símbolo ith, y esta probabilidad Pi puede extraerse de la ecuación [1] que está embebida en log(N), un caso especial en el cual los símbolos son equiprobables. Utilizando algunas propiedades elementales de la función logaritmo, obtenemos:

[2] log(N) = −log(N −1) = −log(1/N) = −log(P)

El valor de 1/N = P tiene un rango de 0 a 1. Si el cuervo de Poe es nuestra fuente, la probabilidad de decir “buen día” es 0. En el caso de la moneda, P(h) + P(t) = 1, no importa cuán sesgada esté la moneda. La probabilidad es como un pastel que puede ser rebanado en porciones cada vez más pequeñas dependiendo del número de invitados, pero que nunca crece más allá de su tamaño original y, en el peor de los escenarios, que puede ser igual a cero pero nunca ser negativo. En términos más formales, esto puede expresarse de la siguiente manera:

    N

[3]    ∑ Pi = 1

    i=1

La sigma mayúscula de la notación en [3] es, simplemente, una atajo que indica que si sumamos todas las probabilidades de i = 1 a i = N, la sumatoria será igual a 1.

Ahora estamos en condiciones de precisar el ejemplo del cuervo de Poe: “nunca más” no es en absoluto informativo porque Pnunca mas = 1. Claramente, mientras más baja sea la probabilidad de aparición de un símbolo, mayor será la información ante una aparición de hecho. La informatividad u del símbolo ith puede expresarse por analogía con −log(P) en la ecuación [4]:

[4]     ui = −log(Pi)

A continuación, necesitamos calcular el largo de una cadena general S. Supongamos que la moneda sesgada es lanzada diez veces, produciendo la cadena: <hhthht, thht>. El largo de la cadena S (que en nuestro caso es = 10) es igual al número de veces que aparece el tipo de símbolo h, sumado al número de veces que aparece el tipo de símbolo t:

Generalizando para i tipos de símbolos:

    N

[5]     S = ∑ Si

    i=1


Si unimos las ecuaciones [4] y [5], vemos que la informatividad promedio para una cadena de S símbolos es la sumatoria de la informatividad de cada símbolo dividido por la sumatoria de todos los símbolos:

   ∑Ni=1 Siui

[6]  ——————

    ∑Ni=1 Si


La ecuación [6] puede simplificarse de la siguiente manera:

   N Si

[7]  ∑ — ui

   i=1S


Ahora, tenemos que Si / S es la frecuencia con la cual aparece el símbolo ith en S, cuando S es una cadena finita. Si, en cambio, el largo de S permanece indeterminado (es decir, es una cadena tan larga como uno lo desee), entonces la frecuencia del símbolo ith se vuelve la de su probabilidad Pi. Entonces, para generalizar más los términos de la ecuación [7], tenemos que:

    N

[8]    ∑ Piui

   i=1


Finalmente, utilizando la ecuación [4] podemos substituir ui y obtener:


     N

[9]  H = − ∑ Pi log Pi (bits por símbolo)

     i=1


La ecuación [9] es la fórmula de Shannon para H = incerteza, la cual hemos llamado déficit de datos (en realidad, la fórmula original de Shannon incluye una constante positiva K, la cual equivale a escoger una unidad de medida, bits en nuestro caso; aparentemente, Shannon uso la letra H en virtud del trabajo previo de R.V.L Harley).

La última ecuación indica que la cantidad de información producida por un dispositivo se corresponde con la cantidad de déficit de datos eliminada, siendo una función de la informatividad promedio de la cadena de símbolos (potencialmente ilimitada) producida por el dispositivo. Es fácil probar que si los símbolo son equiprobables, [9] se reduce a [1], y que la mayor cantidad de información es producida por un sistema cuyos símbolos son equiprobables (compárese una moneda justa con una sesgada).

Para llegar a la ecuación [9] hemos utilizado algunos ejemplos muy simples: un cuervo y un puñado de monedas. Las cosas en la vida cotidiana suelen ser mucho más complejas, como vimos en nuestro accidente del lunes por la mañana. Por ejemplo, hemos asumido que las cadenas de símbolos son ergódicas: se asume que la probabilidad de distribución para la aparición de cada símbolo es estable a través del tiempo, independientemente de la selección de ciertas cadenas. Nuestro cuervo y nuestras monedas son fuentes discretas y sin memoria; los sucesivos símbolos que ellos producen son estadísticamente independientes. Pero, en la vida real, las apariciones de símbolos son frecuentemente interdependientes. Las fuentes pueden no ser ergódicas y tener memoria; los símbolos pueden ser continuos y la aparición de un símbolo puede depender de un número finito n de símbolos precedentes, en cuyo caso la cadena se conoce como cadena de Markov y la fuente como una fuente de Markov de orden nth. Considérese, por ejemplo, la probabilidad de escuchar “d” (seguido de la cadena “ia”) luego de haber recibido la cadena de letras “Buen __”, al haber llamado al mecánico por teléfono. Y, también, considérese el mismo ejemplo a través del tiempo, en el caso de un niño (el hijo del mecánico) que está aprendiendo cómo atender el teléfono en lugar de su padre. En resumen, la TMC desarrolla los análisis previos cubriendo una variedad de casos más complejos. Sin embargo, debemos detenernos aquí ya que en el resto de la sección necesitamos concentrarnos en otros aspectos centrales de la TCM.

El enfoque cuantitativo, que ha sido sólo bosquejado, juega un papel fundamental en la teoría de la codificación (y, por lo tanto, en la criptografía), en el almacenamiento de datos y en las técnicas de transmisión. La TCM es, principalmente, un estudio de las propiedades de un canal de comunicación y de un código que pueda codificar de manera eficiente los datos en una señal transmisible y grabable. Debido a que los datos pueden ser distribuidos en términos de aquí/allá o ahora/luego, la comunicación diacrónica y el análisis sincrónico de una memoria pueden fundarse en los mismos principios y conceptos (por ejemplo, nuestra moneda se vuelve un circuito biestable). Hay dos conceptos que juegan un papel tan fundamental en el análisis de la comunicación como en la administración de la memoria, que merecen un lugar para una breve explicación: redundancia y ruido.

Consideremos a nuestro sistema AB. Cada símbolo tiene una probabilidad 0,25 de aparición. Una simple manera de codificar sus símbolos es asociar cada uno de ellos con dos dígitos:

Código 1:

<h,h> = 00 <ht> = 01 <th> = 10 <tt> = 11

En el Código 1, un mensaje lleva dos bits de información, como era de esperarse. No se debe confundir bits como unidad binaria [binary units] de información (recordemos que hemos decidido usar el log2 también por motivos de conveniencia) con bits como digito binario [bi-nary digits], que es lo que utiliza un sistema de dos símbolos, como un CD-ROM, para codificar un mensaje. Supongamos ahora que el sistema AB está sesgado, y que las probabilidades de aparición de cada símbolo son las siguientes:

Un sistema sesgado:

<hh> = 0,5 <ht> = 0,25 <th> = 0,125 <tt> = 0,125

Este sistema sesgado produce menos información, por lo que si utilizáramos el Código 1, estaríamos desperdiciando recursos. Un código más eficiente sería el Código 2 (abajo) que permitiría tomar en consideración la probabilidad de los símbolos, con los siguientes resultados:

Código 2 (Código de Fano):

<h, h> = 0 0,5 × 1 dígito binario = ,5

<h, t> = 10 0,25 × 2 dígitos binarios = ,5

<t, h> = 110 0,125 × 3 dígitos binarios = ,375

<t, t> = 111 0,125 × 3 dígitos binarios = ,375


En el Código 2, conocido como Código de Fano, un mensaje lleva 1,75 bits de información. Uno puede probar que, dada la distribución de probabilidades, no hay otro sistema de codificación mejor que el Código de Fano.

En la vida real, una buena codificación es también modestamente redundante. La redundancia refiere a la diferencia entre la representación física de un mensaje y la representación matemática del mismo mensaje, que utiliza sólo los bits necesarios. Los procedimientos de compresión funcionan reduciendo la redundancia de datos, pero la redundancia no siempre es algo negativo, ya que puede ayudar a contrarrestar la equivocidad (datos que son enviados pero nunca recibidos) y el ruido (datos recibidos pero no deseados). Un mensaje con ruido contiene más datos que el mensaje original, pero el objetivo de la comunicación es la fidelidad, es decir, la transferencia precisa del mensaje original de la fuente al receptor, sin incrementar la cantidad de datos. Tenemos más probabilidades de reconstruir un mensaje correctamente al finalizar la transmisión, si algún grado de redundancia puede contrarrestar la inevitable equivocidad y el ruido que se introducen por el proceso físico de comunicación y por el ambiente. El ruido amplía la libertad de elegir del informado al seleccionar un mensaje, pero se trata de una libertad no deseada y cierto grado de redundancia puede ayudar a limitarla. Esto se aprecia, por ejemplo, en el hecho de que los manuales de un auto incluyen tanto explicaciones verbales como pictóricas a la hora de transmitir (de manera ligeramente redundante) la misma información.

Estamos ahora en condiciones de entender los dos teoremas fundamentales de Shannon. Supongamos que un sistema de dos monedas sesgadas AB produce el siguiente mensaje: <th> <hh> <tt> <ht> <ht>. Si utilizamos el Código de Fano, obtenemos: 11001111010. El siguiente paso consiste en enviar esta cadena a través de un canal. Los canales tienen diferentes tasas de transmisión (C), que se calculan en bits por segundos (bps). El teorema fundamental de Shannon para un canal sin ruido afirma que:

Teorema Fundamental de Shannon para un Canal sin Ruido:

Sea una fuente con entropía H (bits por símbolo) y un canal con capacidad C (bits por segundos). Entonces, es posible codificar el output o salida de la fuente de tal manera que se transmita por el canal a una tasa promedio de C/H –ε símbolos por segundo, donde ε puede ser arbitrariamente pequeña. No es posible transmitir a un tasa promedio mayor que C/H (Shannon and Weaver 1949, 59).

En otras palabras, si ingenia un buen código, puede transmitir símbolos en un canal sin ruido a una tasa promedio tan cercana a C/H como usted quiera, pero nunca este promedio puede exceder C/H, no importa qué tan ingenioso sea el código. Ya hemos visto que la tarea se hace más difícil debido a la inevitable presencia de ruido. De cualquier manera, el teorema fundamental para un canal discreto con ruido viene al rescate:

Teorema Fundamental de Shannon para un Canal Discreto:

Sea un canal discreto con capacidad C y una fuente discreta con entropía por segundo H. Si H ≤ C, entonces existe un sistema de codificación tal que el output de la fuente puede transmitirse por el canal con una frecuencia arbitrariamente baja de error (o con una equivocidad arbitrariamente pequeña). Si H> C, entonces es posible codificar la fuente de manera que la equivocidad sea menor que H − C + ε, donde ε puede ser arbitrariamente pequeño. No hay un método de codificación que nos proporcione una equivocidad menor a H − C (Shannon y Weaver 1949, 71).

Dicho en términos simples, si el canal puede transmitir tanta o más información que la que es capaz de producir la fuente, entonces uno puede idear una manera eficiente de codificar y transmitir mensajes con una probabilidad de error tan pequeña como se desee.

Los dos teoremas fundamentales son considerados los dos éxitos más grandes de Shannon. Ellos son resultados limitantes en teoría de la información que constriñen cualquier análisis conceptual de la información semántica. Por lo tanto, los teoremas son comparables a los teoremas de Gödel, Turing y Church en lógica y computación. Enviado finalmente nuestro mensaje, podemos dar por finalizada esta sección y volver al enfoque más filosófico.


2.2 Implicaciones conceptuales de la teoría matemática de la comunicación  

Para la TMC, la información es sólo la selección de un símbolo dentro de un conjunto de símbolos posibles, de modo que una manera simple de comprender cómo la TMC cuantifica la información es considerar el número de preguntas del tipo sí/no que se requieren para determinar qué está comunicando la fuente. Una pregunta es suficiente para determinar el output de una moneda justa que, por lo tanto, se dice que produce 1 bit de información. Un sistema de dos monedas justas produce cuatro outputs ordenados: <hh>, <ht>, <th>, <tt>, y requiere, por lo tanto, al menos dos preguntas, donde cada output contiene 2 bits de información, y así sucesivamente. Este análisis erotérico (palabra griega para “pregunta”) permite clarificar dos puntos importantes.

Primero, la TMC no es una teoría de la información en el sentido ordinario de la palabra. En la TMC, la información tiene un significado completamente técnico. Consideremos algunos ejemplos. De acuerdo con la TMC, dos “sí” equiprobables contienen la misma cantidad de información, no importa si las preguntas correspondientes son “¿han estado las luces del auto encendidas por mucho tiempo sin recargar la batería?” o “¿te casarías conmigo?”. Supongamos un dispositivo que pudiera enviarnos, con probabilidades iguales, este artículo o la Stanford Encyclopedia of Philosophy entera. Obtendríamos cantidades muy diferentes de bits de datos al recibir una cosa o la otra, pero recibiríamos sólo 1 bit de información en el sentido del término de la TMC. El 1º de junio de 1944, la BBC transmitió una línea de la Canción de otoño de Verlaine: “Les sanglots longs des violons de Autumne”. El mensaje contenía casi 1 bit de información, un “sí” cada vez más probable a la pregunta acerca de si la invasión del Día D era inminente. La BBC luego transmitió la segunda línea: “Blessent mon coeur d'une longueur monotone”. Era otra cadena casi insignificante de letras, pero nuevamente de casi 1 bit de información, dado que era el otro “sí” esperado a la pregunta acerca de si la invasión tendría lugar inmediatamente. La inteligencia alemana sabía acerca del código, interceptó esos mensajes e incluso notificó a Berlín, pero el alto mando no pudo alertar al Séptimo Ejército posicionado en Normandía. Hitler tenía toda la información en el sentido de la palabra de Shannon, pero no pudo entender (o no pudo creer en) la importancia crucial de estos dos pequeños bits de datos. Por nuestra parte, no nos sorprendimos al concluir, en la sección previa, que la cantidad máxima de información (nuevamente, en el sentido de la TMC) es producida por un texto donde cada caracter está igualmente distribuido, es decir, por una secuencia perfectamente azarosa. De acuerdo con la TMC, el clásico mono oprimiendo aleatoriamente las teclas de una máquina de escribir está, en efecto, produciendo un montón de información.

En segundo lugar, dado que la TMC es una teoría de la información sin significado (pero no sin-sentido, sino ‘sin significado’ en el sentido de que todavía no es significativa), y puesto que hemos visto que [información − significado = datos], “teoría matemática de la comunicación de datos” resulta una descripción mucho más apropiada de esta rama de la teoría de la probabilidad que la de “teoría de la información”. Esta no es una mera cuestión de etiquetas. La información, en tanto contenido semántico (más sobre esto en breve) también puede ser descripta erotéricamente como datos + interrogaciones. Imaginemos una porción de información (proposicional) como “la tierra tiene sólo una luna”. Resulta fácil polarizar casi todo su contenido semántico transformándolo en una [interrogación + respuesta binaria], tal como [¿Tiene la Tierra sólo una luna? + sí]. Sustraigamos el “sí” (que constituye como mucho 1 bit de información, en el caso de una respuesta equiprobable por sí o por no) y nos queda, virtualmente, todo el contenido semántico, completamente des-aletheisado (de aletheia, la palabra griega para ‘verdad’, porque la pregunta no es ni verdadera ni falsa). Usando una expresión fregeana, el contenido semántico es información insaturada, es decir, información semántica que ha sido “erotetizada” y de la cual se ha sustraído una cantidad de información igual a −log P(sí), donde P es la probabilidad de la respuesta “sí”.

El dato “sí” funciona como una llave para desbloquear la información contenida en la interrogación. Para estudiar la codificación y transmisión de la información, la TMC trata la información como datos claves, esto es, como la cantidad de detalles en una señal o mensaje, o el espacio necesario para saturar la información insaturada del informado. Como señala Weaver, “la palabra información se relaciona no tanto con lo que de hecho usted dice, sino con lo que podría decir. La teoría matemática de la comunicación lidia con portadores de información, símbolos y señales, no con la información misma. Esto es, la información es la medida de su libertad de elección cuando selecciona un mensaje” (Weaver 1949, 12).

Puesto que la TMC no lidia con la información semántica en sí misma sino con los datos que la constituyen, es decir, con los mensajes que comprenden símbolos sin interpretar codificados en cadenas bien formadas de señales, es común afirmar que la teoría estudia la información a un nivel sintáctico. La TMC puede ser aplicada exitosamente en TIC (tecnologías de la información y comunicación) porque las computadoras son dispositivos sintácticos. Lo que resta es clarificar cómo debe ser interpretado H en la ecuación [9].

H también es conocida en la TMC como entropía. Al parecer, debemos esta confusa etiqueta a John von Neumann, quien recomendó a Shannon:

“Debería llamarlo entropía por dos razones: primero, porque la función ya se utiliza en termodinámica con el mismo nombre; segundo, y más importante, porque la mayoría de la gente no sabe qué es realmente la entropía, y si usa la palabra entropía en una discusión ganará siempre” (citado por Golan 2002).

Von Neumann demostró que tenía razón en ambas cosas, desafortunadamente.

Si asumimos el caso ideal de un canal de comunicación libre de ruido, H es una medida de tres cantidades equivalentes:

a.     la cantidad promedio de información por símbolo producida por el informador, o

b.     la correspondiente cantidad promedio de déficit de datos (incertidumbre de datos) que el informado tiene antes de la inspección del output del informador, o

c.     la correspondiente potencialidad informacional de la misma fuente, es decir, su entropía informacional.

H puede indicar (a) o (b) por igual porque, al seleccionar un alfabeto particular, el informador automáticamente crea un déficit de datos (incertidumbre) en el informado que luego puede ser satisfecho (o resuelto) en varios grados por lo informante. Recordemos el juego erotérico: si usa una sola moneda justa, inmediatamente me encuentro en un predicamento de 1 bit de déficit: no sé si es cara o ceca; si usa dos monedas justas, mi déficit se duplica, pero si usa el cuervo, mi déficit se vuelve nulo. Mi vaso vacío (punto (b) arriba) es una medida exacta de su capacidad de llenarlo (punto (a) arriba). Por supuesto, sólo tiene sentido hablar de información como cuantificada por H si podemos especificar la distribución de probabilidades.

En cuanto al punto (c), la TMC trata la información como una cantidad física, como la masa o la energía, y la proximidad entre la ecuación [9] y la formulación del concepto de entropía en mecánica estadística ya fue discutida por Shannon. El concepto informacional y el concepto termodinámico de entropía están relacionados a través de los conceptos de probabilidad y aleatoriedad (“aleatoriedad” es mejor que “desorden”, dado que el primero es un concepto sintáctico mientras que el segundo tiene un valor semántico fuerte, es decir, es fácilmente asociable a interpretaciones, como solía intentar explicar a mis padres cuando era joven). La entropía es una medida de la cantidad de “mezclidad” [N. del T.: “Mixedupness” en el original] en procesos y sistemas que llevan energía o información. La entropía puede ser vista también como un indicador de reversibilidad: si no hay cambio en la entropía entonces el proceso es reversible. Un mensaje altamente estructurado y perfectamente organizado contiene un grado menor de entropía o aleatoriedad, menos información –en el sentido de Shannon–, y por lo tanto causa un déficit de datos menor, que puede ser cercano a cero (recordemos el cuervo). En contraste, cuanto mayor sea la aleatoriedad potencial de los símbolos en el alfabeto, más bits de información pueden ser producidos por el dispositivo. La entropía asume su máximo valor en el caso extremo de una distribución uniforme, lo que equivale a decir que un vaso de agua con un cubo de hielo contiene menos entropía que un vaso de agua una vez que el cubo se ha derretido, y una moneda sesgada tiene menos entropía que una moneda justa. En termodinámica, sabemos que el grado de entropía corresponde a un déficit de alta energía, pero lo mismo vale para la entropía en la TMC: valores altos de H corresponden a grandes cantidades de déficit de datos.


3 Información como contenido semántico  

Hemos visto que cuando los datos son bien formados y significativos, el resultado es también conocido como contenido semántico (Bar-Hillel y Carnap 1953; Bar-Hillel 1964). La información, entendida como contenido semántico, viene en dos variedades principales: factual e instruccional. En nuestro ejemplo del auto, podríamos traducir la luz roja encendida en contenido semántico de dos maneras:

a.      como una pieza de información factual, representando el hecho de que la batería está agotada, y

b.    como una pieza de información instruccional, que conlleva la necesidad de una acción específica, por ejemplo, recargar o reemplazar la batería agotada.

En esta tercera parte del artículo, nos ocuparemos ante todo de (a), de modo que conviene despejar el terreno considerando primero (b). Este es el último desvío en nuestro recorrido.


3.1 Información instruccional  

La información instruccional es un tipo de contenido semántico. Un folleto instructivo, por ejemplo, provee información instruccional, ya sea imperativa (en la forma de una receta: primero hacer esto, luego hacer aquello…) o ya sea condicional (en la forma de un procedimiento inferencial: si es el caso que tal cosa, haga esto; de lo contrario, haga lo otro).

La información instruccional no es acerca de una situación, un hecho o un estado de cosas w, y no modela, describe ni representa w. Antes bien, esta información intenta producir (o ayudar a producir) w. Por ejemplo, cuando el mecánico nos dice por teléfono que conectemos una batería cargada a la batería agotada del auto, la información que recibimos no es factual, sino instruccional.

Hay muchos contextos plausibles en los que una estipulación (“sea el valor de x = 3”, o “supongamos que descubrimos huesos de dinosaurios”), una invitación (“está cordialmente invitado a la fiesta de la universidad”), una orden (“¡cierre la ventana!”), una instrucción (“para abrir la caja, gire la llave”), una jugada (“1.e2-e4 c7-c5” al comienzo de una partida de ajedrez) pueden ser correctamente calificados como clases de información instruccional. La partitura impresa de una composición musical o los archivos digitales de un programa también pueden ser contados como casos típicos de información instruccional.

Todas estas instancias de información tienen un lado semántico: tienen que ser al menos potencialmente significativas (interpretables) para poder contar como información. Más aún, la información instruccional puede estar relacionada con la información factual (es decir, descriptiva) en contextos performativos, tales como un bautizo (“este barco se llamará HMS El Informante”) o una programación (como cuando se decide un tipo de variable). Los dos tipos de información semántica (la instruccional y la factual) pueden también darse juntas en el caso de los hechizos mágicos, donde se puede suponer (erróneamente) que las representaciones semánticas de x proveen algún poder instruccional y control sobre x. Sin embargo, como test, uno debe recordar que la información instruccional no califica alethéticamente (no puede ser calificada correctamente como verdadera ni falsa). En el ejemplo, sería tonto preguntar si es verdadera la información “sólo use baterías de la misma tensión de voltaje”. Las estipulaciones, las invitaciones, las órdenes, las instrucciones, las jugadas y el software no pueden ser verdaderos ni falsos. Como remarca Wittgenstein, “El modo como habla la música. No olvide que un poema, aun cuando esté compuesto en el lenguaje de la información, no es usado en el juego del lenguaje de dar información” (Zettel, §160, ver Wittgenstein 1981).


3.2 Información factual  

En el juego del lenguaje que Wittgenstein parece tener en mente, la noción de “información semántica” está entendida en un modo factual o declarativo. La información factual puede ser verdadera o no-verdadera (falsa, en el caso en que uno adopte una lógica binaria). Parece que el sentido más común en que es entendida la información es como contenido semántico verdadero (Floridi 2004b). Quine (1970, 3–6, 98–99), por ejemplo, equipara “semejanza de significado”, “igualdad de la proposición” e “igualdad de la información objetiva” al tratar las proposiciones como información en el sentido factual recién mencionado (tener el mismo significado significa transmitir la misma información objetiva, aunque, de acuerdo con Quine, esto sólo es un parafraseo del problema). El sentido factual también es uno de los más importantes, dado que la información como contenido semántico verdadero es una condición necesaria para el conocimiento. En las próximas subsecciones, examinaremos brevemente el concepto de datos como posibilitadores limitantes, el papel que juegan los niveles de abstracción en la transformación de los posibilitadores limitantes y, finalmente, la relación entre información factual y verdad.


3.2.1 Posibilitadores limitantes (constraining affordances)  

Los datos que constituyen información factual permiten o invitan a ciertos constructos (son posibilitadores para el agente de información que puede tomar ventaja de ellos) y se resisten o impiden a otros (son constricciones o limitantes para el mismo agente), dependiendo de la interacción con el agente de información que los procesa y de la naturaleza de este último. Por ejemplo, la luz roja brillando intermitentemente y el hecho de que el motor no arranque le permite (o a cualquier agente de información como usted) construir la información de que (a) la batería está agotada, a la vez que vuelve más difícil para usted construir la información de que (b) hay un cortocircuito afectando el funcionamiento del indicador de batería baja y el motor no logra iniciar sólo porque no hay combustible en el tanque, que es un hecho no reportado por el indicador. Este es el sentido en que los datos son posibilitadores limitantes para (un agente de información responsable de) la elaboración de la información factual.


3.2.2 Niveles de abstracción  

En la sección 1.3 vimos que el concepto de datos puros en sí mismos (dedomena) es una abstracción, como el noúmeno de Kant o la sustancia lockeana. El punto al que arribamos es que nunca se accede a los datos ni se los elabora (por un agente de información) independientemente del nivel de abstracción (NA) (ver también el concepto de “matriz” en Quine 1970). Ha llegado el momento de clarificar qué es NA.

Un NA es un conjunto de variables tipadas, representables intuitivamente como una interfaz, la cual establece el alcance y el tipo de datos que estarán disponibles como recurso para la generación de información. El concepto de NA es puramente epistemológico y no debería ser confundido con otras formas de “nivelismo” que están basadas, más o menos explícitamente, en un compromiso ontológico relativo a la arquitectura interna, a la sintaxis o a la estructura del sistema en cuestión (Dennett 1971, Marr 1982, Newell 1982, Simon 1969, Simon 1996; Poli 2001 ofrece una reconstrucción del nivelismo ontológico; más recientemente, Craver 2004 ha analizado el nivelismo ontológico, especialmente en biología y ciencia cognitiva). El nivelismo ontológico ha sido cada vez más atacado. Heil (2003) y Schaffer (2003) han cuestionado su plausibilidad seria y convincentemente. Sin embargo, el nivelismo epistemológico está floreciendo, especialmente en ciencias de la computación (Roever et al. 1998, Hoare y Jifeng 1998), donde se lo emplea regularmente para satisfacer el requerimiento de que los sistemas construidos en niveles (para poder dominar su complejidad) funcionen correctamente.

A través de un NA, un agente de información (el observador) accede a un ambiente físico o conceptual: el sistema. Los NAs no son necesariamente jerárquicos y son comparables entre sí. Son interfaces que median las relaciones epistémicas entre el observador y lo observado. Consideremos, por ejemplo, un detector de movimiento (Figura 4). En el pasado, los detectores de movimiento causaban una alarma cada vez que un movimiento era registrado dentro del rango del sensor, incluyendo cosas como el balanceo de la rama de un árbol (objeto a en la Figura 4). El antiguo NA1, pues, consistía en una única variable tipada, que podría denominarse ‘movimiento’. Actualmente, cuando un sensor infrarrojo pasivo registra algún movimiento, monitorea también la presencia de una señal infrarroja, de modo que la entidad detectada debe ser algo que además de moverse emita una radiación infrarroja (usualmente percibida en forma de calor) para que se active la alarma. Los nuevos NA2 consisten, por su parte, en dos variables tipadas: ‘movimiento’ y ‘radiación infrarroja’. Claramente, su auto (objeto b en Figura 4) yéndose de su casa está presente en ambos NAs; pero para el nuevo NA2, que es más refinado, las ramas del árbol meciéndose en el jardín están ausentes. Del mismo modo, una piedra en el jardín (objeto c en Figura 4) está ausente tanto en el nuevo como en el viejo NA, dado que no satisface ninguna variable tipada en ninguno de ellos.

Figura 4: Un ejemplo de niveles de abstracción

El método de NA es un modo eficiente de hacer explícitos y de manejar los compromisos teóricos de una teoría. En nuestro caso, “es la batería lo que provee electricidad al auto” es un ejemplo típico de información elaborada en el NA del conductor. El NA de un ingeniero puede generar algo como “la batería de ácido y plomo de 12 voltios está compuesta de seis células, cada una de las cuales produce aproximadamente 2,1 voltios”, en tanto que el NA de un economista podría sugerir que “una batería de auto de buena calidad costará entre $50 y $100 y, si se la mantiene correctamente, debería durar cinco años o más”.

Los datos en tanto posibilitadores limitantes (respuestas a la espera de las preguntas relevantes) se transforman en información factual al ser procesadas semánticamente en un NA dado (o, alternativamente, la pregunta relevante está asociada a la respuesta correcta en un NA dado). Una vez que los datos en tanto posibilitadores limitantes han sido elaborados como información factual en un NA determinado, la cuestión que sigue es si acaso los valores de verdad supervienen en la información factual.


3.2.3 Información y verdad  

Un contenido factual, ¿sólo califica como información si es verdadero? Los defensores de la neutralidad aléthica de la información semántica (Fetzer 2004 y Dodig-Crnkovic 2005, quienes critican a Floridi 2004b; Colburn 2000, Fox 1983, entre teóricos de la situación Devlin 1991, y Scarantino y Piccinini 2010) argumentan que los datos significativos y bien formados ya califican como información, sin importar si representan o transmiten una verdad o una falsedad o si no tienen valor aléthico en absoluto. Los opositores, por otra parte, objetan que “[…] la información falsa y la información errónea no son clases de información –no más que los patos ornamentales y los patos de goma son clases de patos” (Dretske 1981, 45) y que “la información falsa no es una clase inferior de información; simplemente no es información” (Grice 1989, 371; otros filósofos que han aceptado una definición de información semántica basada en la verdad son Barwise y Seligman 1997 y Graham 1999). El resultado es una definición de información factual semántica como datos significativos y verídicos (defendida en Floridi 2004b; 2005), donde “verídicos” es sólo una elección estilística preferible sobre “verdadero”, porque permite decir que un mapa transmite información factual en la medida en que es verídico.

Una vez más, el debate no es acerca de una mera definición, sino que concierne a las posibles consecuencias de la tesis de la neutralidad aléthica, tres de las cuales pueden ser resumidas aquí, mientras que la cuarta requiere un análisis más extenso y será discutida en la sección 4.1.

Si la tesis de que “los datos significativos y bien formados ya califican como información” es correcta, entonces

i.        la información falsa (incluyendo las contradicciones) contarían como un tipo genuino de información semántica, no como pseudo-información,

ii.       todas las verdades necesarias (incluyendo las tautologías) calificarían como información (para este problema, ver Bremer 2003); y

iii.     “es cierto que p” –donde p es una variable que puede ser reemplazada por cualquier instancia de información semántica genuina– no sería una expresión redundante; por ejemplo, “es cierto” en la conjunción “la tierra es redonda” califica como información y no podría ser eliminado sin pérdida semántica.

Todos estos nuevos problemas se injertan en algunas ramas viejas del árbol filosófico. Si la información falsa es un tipo genuino de información es una cuestión que ha tenido importantes repercusiones en toda filosofía y en la pragmática de la comunicación.

La pregunta acerca de la naturaleza informativa (o de la falta de naturaleza informativa) de las verdades necesarias, de las tautologías, de las ecuaciones o de las afirmaciones de identidad es vieja, y atraviesa a Hume, Kant, Frege y Wittgenstein. El último, por ejemplo, señaló algo interesante:

“Otra expresión parecida a las que acabamos de considerar es ésta: ‘¡Aquí está, tómelo o déjelo!’ Y esto, nuevamente, se parece a un tipo de afirmación introductoria que a veces hacemos antes de remarcar alternativas, como cuando decimos ‘O bien llueve, o bien no llueve; si llueve, nos quedaremos en mi habitación, si no llueve…’. La primera parte de esta oración no es una porción de información (de la misma manera que “tómelo o déjelo” no es una orden). En lugar de ‘O bien llueve, o bien no llueve’ podríamos haber dicho ‘Considere los dos casos…’. Nuestra expresión subraya estos casos, los presenta a su atención” (The Blue and Brown Books, The Brown Book, II, p. 161, ver Wittgenstein 1960).

La solución al problema de la hiperintensionalidad (a saber, cómo se puede trazar una distinción semántica entre expresiones que se supone que tienen el mismo significado según una teoría del significado particular, que por lo general es modal o tiene un carácter modal) depende de cómo se puede dar sentido a la relación entre verdad e informatividad en el caso de las expresiones lógicamente equivalentes.

Finalmente, la calificación posiblemente redundante de información como verdadera está conectada, también, con la crítica a las teorías deflacionistas de la verdad (TDV), dado que uno podría aceptar como perfectamente correcto un esquema T-deflacionista al mismo tiempo que rechazar la adecuación explicativa de TDV. “Es verdad que” en “es verdad que p” podría ser redundante en vistas al hecho de que no puede haber información factual que no sea cierta, pero TDV podría confundir esta redundancia lingüística o conceptual con algo incondicionalmente prescindible. “Es verdad que” podría ser redundante porque, estrictamente hablando, la información no es un portador de verdad, sino algo que ya encapsula verdad como veracidad. Así, las TDV pueden ser satisfactorias en tanto teorías de las adscripciones de verdad y ser, al mismo tiempo, inadecuadas en tanto teorías de la veracidad.

Una vez que la información está disponible, el conocimiento puede construirse en términos de información semántica justificable o explicable. Un agente de información sabe que la batería está agotada, pero no porque lo adivinó correctamente, sino porque, por ejemplo, percibe que la luz roja del indicador de batería baja resplandece y/o que el motor no enciende. En este sentido, la información provee la base de toda investigación científica ulterior. Notemos, sin embargo, que el hecho de que los datos puedan contar como recursos para (i.e., inputs que un agente puede usar para construir) la información y, por lo tanto, para el conocimiento, más bien que fuentes, podría conducir a argumentos construccionistas en contra de las teorías miméticas que interpretan la información como alguna clase de pintura del mundo. Este punto requiere cierta elaboración.

Ya sean empíricos o conceptuales, los datos hacen posible solo un rango determinado de constructos de información, y no todos los constructos se tornan posibles con la misma facilidad. Una analogía puede ayudarnos aquí. Supongamos que tenemos que construir un refugio. El diseño y la complejidad del refugio pueden variar, pero hay un rango limitado de posibilidades “realistas” que están determinadas por la naturaleza de los recursos y de las constricciones disponibles (tamaño, materiales de construcción, ubicación, propósitos, seguridad, constricciones temporales, etc.). No se puede construir cualquier refugio. Y el tipo de refugio que más frecuentemente se construirá, será el que saque mayor ventaja de los recursos y límites disponibles. Lo mismo se aplica a los datos. Los datos son, al mismo tiempo, los recursos y las constricciones que hacen posible la construcción de la información. La mejor información es aquella mejor sintonizada con los posibilitadores limitantes disponibles. Así, la coherencia y la adecuación informacional no necesariamente implican ni apoyan un realismo ingenuo o directo, ni una teoría correspondentista de la verdad como comúnmente se presenta. En última instancia, la información es el resultado de un proceso de modelado de datos; no tiene que representar, ni fotografiar, ni retratar, ni fotocopiar, ni mapear, ni mostrar, ni descubrir, ni monitorear, ni…, la naturaleza intrínseca del sistema analizado, no más que un iglú describe la naturaleza intrínseca de la nieve o el Partenón indica las propiedades reales de las piedras.

Cuando el contenido semántico es falso, se trata del caso de la información errónea (Fox 1983). Si la fuente de la información errónea está al tanto de la naturaleza de ésta, podemos hablar de desinformación, como cuando uno le dice al mecánico “mi esposo olvidó apagar las luces”. La desinformación y la información errónea son éticamente censurables, pero pueden ser exitosas para lograr su propósito: decirle al mecánico que su esposo dejó las luces encendidas la noche anterior y que él pueda todavía darle el consejo adecuado. De todas formas, puede suceder que la información no logre ser exitosa: imaginemos que le decimos al mecánico que el auto está fuera de servicio.


4 Enfoques filosóficos de la información semántica  

¿Cuál es la relación entre la TMC y el tipo de información semántica que hemos llamado factual? La teoría matemática de la comunicación aborda la información como un fenómeno físico. Su pregunta central es si acaso los datos sin interpretar pueden codificarse y transmitirse de una manera eficiente por medio de un alfabeto dado y a través de un canal determinado y, en caso afirmativo, cuántos. La TMC no está interesada en el significado, intencionalidad, relevancia, confiabilidad, utilidad o interpretación de la información, sino solamente en el nivel de detalle y frecuencia en los datos sin interpretar, sean símbolos, señales o mensajes. Los enfoques filosóficos difieren de la TMC en dos aspectos principales.

Primero, ellos buscan dar cuenta de la información en tanto contenido semántico, indagando cuestiones como “¿cómo puede algo ser considerado información? Y, ¿por qué?”, “¿cómo puede algo llevar información acerca de alguna otra cosa?”, “¿cómo puede generarse la información semántica y cómo puede fluir?”, “¿cómo se relaciona la información con el error, la verdad y el conocimiento?”, “¿cuándo es útil la información?”. Wittgenstein, por ejemplo, observa que:

“Uno está inclinado a decir: ‘O está lloviendo, o no lo está –cómo lo sé, cómo la información llegó a mí, es otra cuestión’. Pero, entonces, pongamos el asunto en estos términos: ¿qué es lo que llamo ‘información de que está lloviendo’? (¿tengo también sólo información de esta información?) Y, ¿qué es lo que da a esta ‘información’ el carácter de ser información acerca de algo? La forma de expresarnos, ¿no nos está engañando? ¿No es una metáfora engañosa decir: ‘mis ojos me dan la información que hay una silla allí’?” (Philosophical Investigations, I. § 356, ver en Wittgenstein 2001)

Segundo, las teorías filosóficas de la información semántica también buscan conectarla a otros conceptos informacionales relevantes y a formas más complejas de fenómenos epistémicos, mentales y doxásticos. Por ejemplo, Dretske (1981) y Barwise y Seligman (1997), pretenden fundamentar la información, entendida como contenidos factuales semánticos, en términos de la información ambiental. Este tipo de acercamientos es también conocido como la naturalización de la información. Un punto similar puede hacerse a propósito del argumento de las tierras gemelas de Putnam, donde se externalizan la semántica y la teleosemántica.

Usualmente, los análisis filosóficos adoptan una orientación proposicional y una perspectiva epistémica, endosando, a menudo implícitamente, la prevalencia o centralidad de la información factual en el mapa de la Figura 1. Sus análisis suelen basarse en casos tales como “París es la capital de Francia” o “la biblioteca Bodleian está en Oxford”. ¿Qué tan relevante es la TMC para investigaciones de esta índole?

En el pasado, algunos programas de investigación trataron de elaborar teorías de la información alternativas a la TMC con el objetivo de incorporar la dimensión semántica. Donald M. Mackay (1969) propuso una teoría cuantitativa de la información cualitativa que tiene conexiones interesantes con la lógica de situación (ver más adelante). De acuerdo con MacKay, la información está vinculada a un incremento en el conocimiento del lado del receptor: “Supongamos que comenzamos preguntándonos qué queremos decir por información. En términos generales, decimos que hemos ganado información cuando ahora sabemos algo que no sabíamos previamente; es decir, cuando ‘lo que sabemos’ ha cambiado” (Mackay 1969, 10). Por la misma época, Doede Nauta (1972) desarrolló un enfoque semiótico-cibernético. Sin embargo, en nuestros días, pocos filósofos continúan esas líneas de investigación y, por el contrario, la mayoría concuerda en que la TMC provee una rigurosa restricción para cualquier teorización sobre los aspectos semánticos y pragmáticos de la información. El desacuerdo consiste en cuál es el alcance de esas restricciones.

En un extremo del espectro, se supone que cualquier teoría filosófica de la información semántica-factual está muy fuertemente constreñida, tal vez incluso sobredeterminada, por la TMC, de la misma manera que la ingeniería mecánica lo está por la física newtoniana. Un ejemplo típico es la optimista interpretación de Weaver del trabajo de Shannon.

En el otro extremo, se supone que cualquier teoría filosófica de la información semántico-factual está sólo débilmente constreñida –tal vez incluso completamente subdeterminada– por la TMC, de la misma manera en la que el tenis lo está por la física newtoniana, es decir, en el sentido menos interesante, trascendente y considerable (ver, por ejemplo, Sloman 1978 y Thagard 1990).

La aparición de la TMC en la década del ‘50 generó un temprano entusiasmo filosófico que fue enfriándose, gradualmente, con el pasar de las décadas. Históricamente, las teorías filosóficas de la información semántico-factual han pasado de estar “muy fuertemente constreñidas” a “sólo débilmente constreñidas”. Últimamente, encontramos posiciones que aprecian especialmente a la TMC por lo que puede aportar en términos de una robusta y bien desarrollada teoría estadística de correlaciones entre estados de diferentes sistemas (el que envía y el que recibe) según sus probabilidades. Esto puede tener consecuencias importantes en contextos afines a las matemáticas, tales como algunos enfoques de epistemología naturalizada (Harms 1998) o la explicación científica (Badino 2004).

Aunque la filosofía de la información semántica se ha ido autonomizando de la TMC, dos conexiones importantes entre la TMC y los enfoques filosóficos más recientes han permanecido estables:

1.      El modelo de comunicación, explicado en la sección 2.1 (ver Figura 2); y

2.      Lo que Barwise llamó “El Principio de Relación Inversa” (PRI).

El modelo comunicacional no ha sido puesto en discusión, incluso cuando en nuestros días los teóricos son más propensos a considerar, como casos básicos, sistemas distribuidos y de múltiples agentes que interactúan en paralelo, en lugar de agentes individuales relacionados mediante un canal de comunicación simple y secuencial. En este sentido, la filosofía de la información (Floridi 2011; Allo 2010) es menos cartesiana que “social”.

El PRI refiere a la relación inversa que existe entre la probabilidad de p –el cual puede extenderse a situaciones de un lenguaje dado (como en Bar-Hillel y Carnap), o a eventos, situaciones o mundos posibles (como en Dretske) –y la cantidad de información semántica que p lleva (recordemos que el cuervo de Poe, en tanto fuente unaria, no provee información porque sus respuestas son totalmente predecibles). El principio afirma que la información va de la mano con la impredictibilidad. A menudo, se considera que Popper (1935) fue el primer filósofo que defendió el PRI de manera explícita; aunque, de cualquier manera, los intentos sistemáticos para desarrollar un cálculo formal se hicieron sólo después de la irrupción de Shannon.

Hemos visto que la TMC define información en términos de la distribución espacial de la probabilidad. En sintonía con ello, el enfoque probabilista de la información semántica define a la información semántica en p en términos del espacio lógico de probabilidades y la relación inversa entre información y la probabilidad de p. Este enfoque fue sugerido, inicialmente, por Bar-Hillel y Carnap (1953) (ver también Bar-Hillel 1964) y luego desarrollado por Kemeny (1953), Smokler (1966), Hintikka y Suppes (1970) y Dretske (1981). Si bien los detalles son complejos, la idea original es simple. El contenido semántico (CONT) en p se mide como el complemento de la probabilidad a priori de p:

[10]     CONT(p) = 1 − P(p)

CONT no satisface los dos requisitos de adición y condicionalización, que son satisfechos por otra medición, la informatividad (INF) de p, que se calcula, según las ecuaciones [9] y [10], como el recíproco de P(p), expresado en bits, donde P(p) = 1 – CONT(p):

            1

[11]     INF(p) = log ——————— − log P(p)

          1 − CONT(p)

Las cosas son complicadas por el hecho de que el concepto de probabilidad utilizado en las ecuaciones [10] y [11] está sujeto a diferentes interpretaciones. En Bar-Hillel y Carnap (1953), la distribución de probabilidad es el resultado de una construcción lógica de oraciones atómicas de acuerdo con un lenguaje formal seleccionado. Esto introduce una dependencia problemática en una correspondencia estricta entre el lenguaje observacional y el lenguaje formal. En Dretske, la solución es hacer que los valores de la probabilidad refieran a los estados de cosas observados (s), es decir:

[12]    I(s) = −log P(s)

Donde I(s) es la notación que utiliza Dretske para referirse a la información contenida en s.

El enfoque modal modifica aún más el enfoque probabilista al definir la información semántica en términos de espacio modal e in/consistencia. La información que lleva p, se convierte en el conjunto de todos los mundos posibles, o (más cautelosamente) en el conjunto de todas las descripciones de los estados relevantes posibles del universo, que son excluidos por p.

El enfoque sistémico, desarrollado especialmente en lógica de situación (Barwise y Perry 1983, Israel y Perry 1990, Devlin 1991; Barwise y Seligman 1997 proveen un fundamento para una teoría general del flujo de información), también define a la información en términos de espacio de estados y consistencia. Sin embargo, es ontológicamente menos demandante que el enfoque modal, ya que asume un dominio de aplicación claramente limitado. Este enfoque también es compatible con el enfoque probabilista de Dretske, aunque no requiere una medida de la probabilidad sobre los conjuntos de estados. El contenido informacional de p no está determinado a priori mediante un cálculo de estados posibles permitidos por un lenguaje representacional, sino que está determinado en términos del contenido factual que p lleva con respecto a una situación determinada. La información rastrea las transiciones posibles en el espacio de estados de un sistema bajo condiciones normales. Tanto Dretske como los teóricos de situación requieren alguna presencia de información que ya sea inmanente al ambiente (información ambiental), como regularidades nómicas o restricciones. Este “externalismo semántico” puede ser controversial.

El enfoque inferencial define información en términos de espacio de vinculación: la información depende de las inferencias válidas relativas a estados epistémicos o a una teoría de agentes de información.

Para cada uno de los enfoques extensionalistas previos, puede darse una interpretación intencional al considerar el espacio relevante como un espacio doxástico, en el cual la información es vista como una reducción del grado de incerteza personal, dado un estado de conocimiento del informado. Wittgenstein estuvo de acuerdo con esta distinción en sus Comentarios sobre la Filosofía de la Psicología:

La idea central es que hay un juego de lenguaje en el cual produzco información de manera automática, información que puede ser completamente tratada por otras personas como ellas tratan a la información no automática –sólo que aquí no habrá ‘mentira’ alguna–, información que yo mismo puedo recibir de una tercera persona. La oración ‘automática’, reporte, etc., puede también llamarse un ‘oráculo’… Pero, por supuesto, esto significa que el oráculo no debe disponer de las palabras ‘yo creo…’. (Wittgenstein 1980, §817).

Al usar la noción de juego de lenguaje, Wittgenstein parece tener en mente la noción de juego de información, que ya hemos encontrado anteriormente.


4.1 La paradoja de Bar-Hillel-Carnap  

Los enfoques extensionalistas, delineados en la sección previa, pueden verse afectados por lo que hemos llamado, un poco hiperbólicamente, la Paradoja de Bar-Hillel-Carnap, en la medida en que ellos suscriben al Principio de Relación Inversa (Floridi 2004b).

En resumen, hemos visto que, siguiendo al PRI, cuanto menor sea la probabilidad de p, mayor es la cantidad de información semántica que p transporta. Esto explica por qué la mayoría de los filósofos acuerda en que gran parte de las tautologías no llevan información en absoluto, ya que su probabilidad o posibilidad es 1; pero también ha conducido a algunos a considerar que las contradicciones –las cuales describen estados imposibles o con probabilidad 0– son la clase de mensajes que contienen una gran cantidad de información semántica. Esta es una pendiente resbaladiza ya que al volver una oración cada vez menos y menos probable, se está aumentando gradualmente su contenido informacional pero, en un punto determinado, la oración “implosiona” (en la cita que aparece más adelante, se vuelve “demasiado informativa para ser verdadera”).

Bar-Hillel y Carnap fueron unos de los primeros en explicitar esta desigualdad anti-intuitiva prima facie. Nótese cómo la cuidadosa redacción que se utiliza traiciona el deseo de neutralizar el problema:

La Paradoja de Bar-Hillel-Carnap (PBC):

Al comienzo, tal vez pueda parecer extraño que una oración que se contradice a sí misma y que, por lo tanto, ningún receptor ideal aceptaría, sea considerada como portadora de la información más inclusiva. Sin embargo, debería enfatizarse que aquí la información semántica no está implicando verdad y, por lo tanto, una oración falsa que resulta decir mucho es altamente informativa en nuestro sentido. Si la información que transporta es verdadera o falsa, científicamente valiosa o no, etc., no nos concierne. Una oración que se contradice a sí misma afirma demasiado; es demasiado informativa para ser verdadera (Bar-Hillel y Carnap 1953, 229).

Desde su formulación, la PBC fue reconocida como una desafortunada consecuencia de cualquier teoría cuantitativa de la información débilmente semántica, aunque es perfectamente correcta y lógicamente inevitable. Es “débilmente” semántica porque los valores de verdad no juegan ningún papel en ella. Como consecuencia, el problema ha sido, a menudo, o bien ignorado o bien tolerado (Bar-Hillel y Carnap 1953), como el precio que hay que pagar por un enfoque que de otra manera sería valioso. Sin embargo, se han hecho algunos intentos para delimitar sus consecuencias anti-intuitivas, especialmente, en Teoría de Sistemas de Información (Winder 1997) –donde la consistencia es una restricción esencial que debe ser satisfecha para que la base de datos preserve la integridad de los datos– y en Teoría de la Decisión, donde la información inconsistente es obviamente inútil para quien toma decisiones.

En estos casos, en lugar de asignarles la máxima cantidad de información semántica, se han sugerido tres estrategias, siempre que no haya modelos posibles que satisfagan un enunciado o una teoría:

1.    Asignar a todos los casos inconsistentes el mismo valor: información infinita (Lozinskii 1994). Esto está en consonancia con un enfoque económico, el cual define x como imposible si y sólo si x tiene un precio infinito;

2.     Eliminar todos los casos inconsistentes a priori, como resultados imposibles en toma de decisión (Jeffrey 1990). Esto está en línea con el enfoque sintáctico desarrollado por la TMC;

3.      Asignar a todos los casos inconsistentes el mismo valor: información cero. (Mingers 1997, Aisbett y Gibbon 1999).

El último enfoque es cercano al enfoque fuertemente semántico, el cual abordaremos a continuación.


4.2 El enfoque fuertemente semántico de la información  

La hipótesis general es que la PBC señala que algo ha salido esencialmente mal con la teoría de la información semánticamente débil. Esta hipótesis se fundamenta en un principio semántico que es muy débil, a saber, que los valores de verdad son independientes de la información semántica. Un enfoque semánticamente más fuerte, según el cual la información encapsula la verdad, es capaz de eludir la paradoja y alinearse con la concepción común de qué es lo que en general cuenta como información factual (como hemos visto en la sección 3.2.3). La TMC ya ofrece algunas seguridades iniciales: identifica la cantidad de información asociada a, o generada por, la aparición de una señal (un evento o la realización de un estado de cosas) con la eliminación de posibilidades (reducción de la incerteza) representada por esa señal (evento o estado de cosas). En la TMC no ocurre ninguna desigualdad anti-intuitiva comparable a la PBC, y la línea del argumento es que, como en el caso de la TMC, una teoría de la información fuertemente semántica, basada en valores aléthicos y de discrepancia –en lugar de probabilidades–, puede también evadir exitosamente la PBC. (Floridi 2004b; Floridi 2005, ver Bremer y Cohnitz 2004, cap. 2 para un resumen; Sequoiah-Grayson 2007 defiende la teoría de la información semánticamente fuerte contra la reciente objeción de Fetzer 2004 y Dodig-Crnkovic 2005).

Antes de describir este enfoque, nótese que algunos autores han propuesto un enfoque aléthico diferente, que utiliza verosimilitud para explicar la noción de información semántica (Frické 1997; Cevolani 2011, 2014; D'Alfonso 2011). Normalmente, estos enfoques buscan identificar la información factual con la similitud con respeto a la verdad completa acerca de todas las cuestiones empíricas o acerca de algunos dominios restringidos relevantes de interés factual. También estos enfoques evitan la PBC y tampoco utilizan probabilidades. De cualquier manera, la verosimilitud es diferente de la verdad misma en la medida en que un portador de verdad puede ser similar a la verdad sin ser realmente verdadero, i.e. cuando es falso, de manera que los enfoques de la información en términos de verosimilitud permiten que puntos de vistas falsos o teorías falsas puedan tener información. (De hecho, en este enfoque, las afirmaciones falsas pueden a veces portar más información que sus negaciones verdaderas; Frické 1997).

Por el contrario, en la concepción de Floridi, la información semántico-factual está definida, en términos de espacio de datos, como datos bien formados, significativos y veraces. Esto restringe el enfoque probabilístico que se introdujo anteriormente, ya que primero requiere que el contenido sea calificado como veraz. Una vez que el contenido es calificado de esa manera, la cantidad de información semántica en p se calcula en términos de la distancia de p respecto de la situación/recurso w que se supone que p modela. La distancia total es equivalente a un p verdadero en todos los casos (en todos los mundos posibles o con probabilidad igual a 1), incluyendo w y, por lo tanto, es mínimamente informativo. En cambio, la proximidad máxima es equivalente al modelado preciso de w, en el nivel acordado de abstracción.

Supongamos que vendrán exactamente tres invitados a cenar esta noche. Esta es nuestra situación w. Imaginemos que nos dicen que:

(T) Puede venir o no venir algún invitado a cenar esta noche; o

(V) Vendrán algunos invitados esta noche; o

(P) Vendrán tres invitados esta noche.

El grado de informatividad de (T) es cero porque se aplica tanto a w como a ¬w, ya que es una tautología. (V) funciona mejor y (P) tiene el grado máximo de informatividad porque, como una verdad totalmente exacta, precisa y contingente, apunta directamente a su objetivo w. Generalizando, cuanto más distante sea una información semántica-factual σ de su objetivo w, mayor es el número de situaciones a las cuales se aplica, y menor se vuelve su grado de informatividad. Una tautología es una verdad σ que está a mayor “distancia” del mundo.

Vamos a utilizar ahora ‘θ’ para referirnos a la distancia entre una verdad σ y w. Si utilizamos el lenguaje más preciso de la lógica de situación, θ indica el grado de respaldo que w ofrece a σ. Podemos ahora mapear los valores de θ dado un σ específico y un correspondiente objetivo w sobre el eje x de un sistema de coordenadas cartesianas. En nuestro ejemplo, sabemos que θ(T) = 1 y θ(P) = 0. Por motivos de simplicidad, asumimos que θ(V) = 0,25. Ahora necesitamos una fórmula para calcular el grado de informatividad ι de σ en relación a θ(s). Se puede mostrar que la solución más elegante es proporcionada por el complemento del valor de θ(σ) al cuadrado, es decir, por y = 1 − x2. Utilizando los símbolos recién presentados, tenemos:

[13]     ι(σ) = 1 − θ(σ)2

La Figura 5 muestra el gráfico generado por la ecuación [13], cuando también incluimos valores negativos de distancia para σ; como se ve, θ recorre los valores desde −1 (= contradicción) a 1 (= tautología):

Figura 5: Grados de informatividad

Si σ tiene un alto grado de informatividad ι (donde el valor de θ es muy bajo), queremos poder decir que contiene una gran cantidad de información semántica y, viceversa, que cuanto más bajo sea el grado de informatividad de σ, menor debería ser la cantidad de información semántica transportada por σ. Para calcular la cantidad de información semántica contenida en σ relativa a ι(σ), necesitamos calcular el área delimitada por la ecuación [13], es decir, definir la integral de la función ι(σ) sobre el intervalo [0, 1]. Como sabemos, la cantidad máxima de información semántica (llamémosla α) es transportada por (P), cuyo θ = 0. Esto es equivalente a la totalidad del área delimitada por la curva. Generalizando para σ, obtenemos:

[14]      

La Figura 6 muestra el gráfico generado por la ecuación [14]. El área sombreada es la cantidad máxima de información semántica α transportada por σ.

 
Figura 6: Máxima cantidad de información semántica α transportada por σ


Consideremos ahora (V), “vendrán algunos invitados esta noche”. (V) puede analizarse como una cadena (razonablemente finita) de disyunciones, es decir (V) = [“vendrán algunos invitados esta noche” o “vendrán dos invitados esta noche” o “vendrán n invitados esta noche”], donde n es un límite razonable a considerar (las cosas son más complejas que esto, pero aquí sólo necesitamos entender el principio general). Sólo una de las descripciones en (V) será totalmente exacta. Esto significa que (V) también contiene alguna (tal vez mucha) información que es simplemente redundante o irrelevante. Nos referiremos a este “residuo informacional” en (V) como información vacía en (V). La cantidad de información vacía (llamémosla β) en (V) es también una función de la distancia θ de (V) desde w, o en términos más generales:

[15]  

Ya que θ(V) = 0,25, tenemos que

[16]      

La Figura 7 muestra el gráfico generado por la ecuación [16]

 
Figura 7: Cantidad de información γ transportada por σ


El área sombreada es la cantidad de información vacía β en (V). Claramente, la cantidad de información semántica en (V) es, sencillamente, la diferencia entre α (la máxima cantidad de información que, en principio, puede portar σ) y β (la cantidad de información vacía que actualmente porta σ), es decir, el área clara del gráfico de la Figura 7. De modo más general, y expresado en bits, la cantidad de información semántica γ en σ es:

[17]     γ(σ) = log(α − β)

Nótese la similitud entre [14] y [15]: cuando θ(σ) = 1, es decir, cuando la distancia entre σ y w es máxima, entonces α = β y γ(σ) = 0. Esto es lo que sucede cuando consideramos a (T). (T) está a tanta distancia de w que sólo contiene información vacía. En otras palabras, (T) contiene tanta información vacía como información relevante contiene (P).


5 Conclusión  

Las teorías filosóficas de la información semántica han contribuido recientemente a la formación de una nueva área de investigación en sí misma, la filosofía de la información (Adams 2003, Floridi 2011). Los dos volúmenes especiales publicados de Mentes y Máquinas sobre filosofía de la información (Floridi 2003c) ofrecen un panorama del alcance y la profundidad del trabajo actual en el área. La información parece haberse convertido en la clave conceptual para destrabar muchos problemas filosóficos. “El bien más valioso del que tengo conocimiento es la información”, declara con valentía Gordon Gekko en Wall Street de Oliver Stone (1987). Eufranor probablemente hubiera coincidido. El problema es que todavía tenemos que lograr un acuerdo acerca de qué es exactamente la información.


6 Bibliografía  

Adams, F. 2003. “The Informational Turn in Philosophy”. Minds and Machines 13(4): 471–501.

Adriaans, P. y J. van Benthem, eds. 2008. Handbook of Philosophy of Information. Amsterdam - Oxford: Elsevier.

Allo, P., ed. 2010. Putting Information First: Luciano Floridi and the Philosophy of Information (volumen especial de Metaphilosophy. Volumen 41. No. 3).

Armstrong, D. M. 1968. A Materialist Theory of the Mind. London: Routledge & Kegan Paul.

Armstrong, D. M. 1993. A Materialist Theory of the Mind. 2º edición. London: Routledge.

Badino, M. 2004. “An Application of Information Theory to the Problem of the Scientific Experiment”. Synthese 140: 355–389.

Bar-Hillel, Y. 1964. Language and Information: Selected Essays on Their Theory and Application. Reading, Mass - London: Addison-Wesley.

Bar-Hillel, Y. y R. Carnap. 1953. “An Outline of a Theory of Semantic Information”. Repr. en Language and Information: Selected Essays on Their Theory and Application, por Bar-Hillel, Y. (1964), 221-274. Reading, Mass - London: Addison-Wesley.

Barwise, J. y J. Seligman. 1997. Information Flow: The Logic of Distributed Systems. Cambridge: Cambridge University Press.

Bateson, G. 1973. Steps to an Ecology of Mind. Frogmore - St. Albans: Paladin.

Berkeley, G. 1732. Alciphron: Or the Minute Philosopher. Edinburgh: Thomas Nelson 1948–57.

Braman, S. 1989. “Defining Information”. Telecommunications Policy 13: 233–242.

Bremer, M. y D. Cohnitz. 2004. Information and Information Flow – an Introduction. Frankfurt - Lancaster: Ontos Verlag.

Bremer, M. E. 2003. “Do Logical Truths Carry Information?”. Minds and Machines 13(4): 567–575.

Cevolani, G. 2011. “Verisimilitude and strongly semantic information”. Ethics & Politics XIII(2): 159–179.

Cevolani, G. 2014. “Strongly Semantic Information as Information About the Truth”. En Recent Trends in Philosophical Logic, (Trends in Logic, Volumen 41), editado por R. Ciuni, H. Wansing y C. Willkommen, 59-74. Dordrecht: Springer.

Chaitin, G. J. 1987. Algorithmic Information Theory. Cambridge: Cambridge University Press.

Chalmers, D. J. 1996. The Conscious Mind: In Search of a Fundamental Theory. New York: Oxford University Press.

Cherry, C. 1978. On Human Communication: A Review, a Survey, and a Criticism. 3° edición. Cambridge, Mass. - London: MIT Press.

Colburn, T. R. 2000. Philosophy and Computer Science. Armonk, NY: M.E. Sharpe.

Cover, T. M. y J. A. Thomas. 1991. Elements of Information Theory. New York - Chichester: Wiley.

Craver, C. F. 2004. “A Field Guide to Levels”. Proceedings and Addresses of the American Philosophical Association 77(3): 121 [versión preliminar disponible online].

D'Alfonso, S. 2011. “On Quantifying Semantic Information”. Information 2(1): 61–101.

Debons, A. y W. J. Cameron, eds. 1975. Perspectives in Information Science: Proceedings of the Nato Advanced Study Institute on Perspectives in Information Science, Held in Aberystwyth, Wales, Uk, August 13–24, 1973. Leiden: Noordhoff.

Dennett, D. C. 1969. Content and Consciousness. London: Routledge & Kegan Paul.

Dennett, D. C. 1971. “Intentional Systems”. The Journal of Philosophy (68): 87–106.

Dennett, D. C. 1986. Content and Consciousness. 2nd edition. London: Routledge & Kegan Paul.

Deutsch, D. 1985. “Quantum Theory, the Church-Turing Principle and the Universal Quantum Computer”. Proceedings of the Royal Society 400: 97–117.

Deutsch, D. 1997. The Fabric of Reality. London: Penguin.

Devlin, K. J. 1991. Logic and Information. Cambridge: Cambridge University Press.

Di Vincenzo, D. P. y D. Loss. 1998. “Quantum Information Is Physical”. Superlattices and Microstructures (volumen especial en ocasión del cumpleaños número 70 de Rolf Landauer) 23: 419–432.

Dodig-Crnkovic, G. 2005. “System Modeling and Information Semantics”. En Proceedings of the Fifth Promote IT Conference, Borlänge, Suecia, editado por Janis Bubenko, Owen Eriksson, Hans Fernlund y Mikael Lind. Studentlitteratur: Lund.

Dretske, F. I. 1981. Knowledge and the Flow of Information. Oxford: Blackwell. Reimpreso: Stanford, CA: CSLI Publications. 1999.

Dunn, J. M. 2001. “The Concept of Information and the Development of Non-Classical Logics”. En Non-Classical Approaches in the Transition from Traditional to Modern Logic, editado por W. Stelzner, 423–448. Berlin - New York: de Gruyter.

Fetzer, J. H. 2004. “Information: Does It Have to Be True?”. Minds and Machines 14(2): 223–229.

Floridi, L. 1999. Philosophy and Computing: An Introduction. London - New York: Routledge.

Floridi, L. 2002. “What Is the Philosophy of Information?”. Metaphilosophy 33(1–2): 123–145.

Floridi, L. 2003a. “Information”. En The Blackwell Guide to the Philosophy of Computing and Information, editado por L. Floridi, 40–61. Oxford - New York: Blackwell.

Floridi, L. 2003b. “Two Approaches to the Philosophy of Information”. Minds and Machines 13(4): 459–469.

Floridi, L., ed. 2003c. Minds and Machines (volumen especial: Philosophy of Information). Volume 13.

Floridi, L. 2004a. “Open Problems in the Philosophy of Information”. Metaphilosophy 35(4): 554–582.

Floridi, L. 2004b. “Outline of a Theory of Strongly Semantic Information”. Minds and Machines 14(2): 197–222.

Floridi, L. 2005. “Is Information Meaningful Data?”. Philosophy and Phenomenological Research 70(2): 351–370.

Floridi, L. 2008. “The Method of Levels of Abstraction”. Minds and Machines 18(3): 303–329.

Floridi, L. 2010. Information – A Very Short Introduction. Oxford: Oxford University Press.

Floridi, L. 2011. The Philosophy of Information. Oxford: Oxford University Press.

Fox, C. J. 1983. Information and Misinformation: An Investigation of the Notions of Information, Misinformation, Informing, and Misinforming. Westport, CT: Greenwood Press.

Franklin, S. 1995. Artificial Minds. Cambridge, Mass.: MIT Press.

Frické, M. 1997. “Information using likeness measures”. Journal of the American Society for Information Science 48(10): 882–892.

Frieden, B. R. 1998. Physics from Fisher Information: A Unification. Cambridge: Cambridge University Press.

Frieden, B. R. 2004. Science from Fisher Information: A Unification. 2nd ed. Cambridge: Cambridge University Press.

Golan, A. 2002. “Information and Entropy Econometrics – Editor's View”. Journal of Econometrics 107(1–2): 1–15.

Graham, G. 1999. The Internet: A Philosophical Inquiry. London: Routledge.

Grice, H. P. 1989. Studies in the Way of Words. Cambridge, Mass.: Harvard University Press.

Harms, W. F. 1998. “The Use of Information Theory in Epistemology”. Philosophy of Science 65(3): 472–501.

Heil, J. 2003. “Levels of Reality”. Ratio 16(3): 205–221.

Hintikka, J. y P. Suppes, eds. 1970. Information and Inference. Dordrecht: D. Reidel.

Hoare, C. A. R. y H. Jifeng. 1998. Unifying Theories of Programming. London: Prentice Hall.

Hume, D., 1987, Essays, Moral, Political, and Literary, Indianapolis: Liberty Classics. Editado y con prefacio, notas y glosario de Eugene F. Miller; con un aparato crítico desde la edición de 1889 de T.H. Green y T.H. Grose. Basado en la edición de 1777, originalmente publicada como v. 1 of Essays and treatises on several subjects.

Jones, D. S. 1979. Elementary Information Theory. Oxford: Clarendon Press.

Kemeny, J. 1953. “A Logical Measure Function”. Journal of Symbolic Logic 18: 289–308.

Landauer, R. 1987. “Computation: A Fundamental Physical View”. Physica Scripta 35: 88–95.

Landauer, R. 1991. “Information Is Physical”. Physics Today 44: 23–29.

Landauer, R. 1996. “The Physical Nature of Information”. Physics Letters A 217: 188.

Landauer, R. y Bennett, C. H. 1985. “The Fundamental Physical Limits of Computation”. Scientific American July: 48–56.

Larson, A. G. y A. Debons, eds. 1983. Information Science in Action: System Design. Proceedings of the Nato Advanced Study Institute on Information Science, Crete, Greece, August 1–11, 1978. The Hague: M. Nijhoff.

Losee, R. M. 1997. “A Discipline Independent Definition of Information”. Journal of the American Society for Information Science 48(3): 254–269.

Mabon, P. C. 1975. Mission Communications: The Story of Bell Laboratories. Murray Hill, N.J.: Bell Telephone Laboratories.

Machlup, F. y U. Mansfield, eds. 1983. The Study of Information: Interdisciplinary Messages. New York: Wiley.

MacKay, D. M. 1969. Information, Mechanism and Meaning. Cambridge: MIT Press.

Marr, D. 1982. Vision: A Computational Investigation into the Human Representation and Processing of Visual Information. San Francisco: W.H. Freeman.

Mingers, J. 1997. “The Nature of Information and Its Relationship to Meaning”. En Philosophical Aspects of Information Systems, editado por R. L. Winder et al, 73–84. London: Taylor and Francis.

Nauta, D. 1972. The Meaning of Information. The Hague: Mouton.

Newell, A. 1982. “The Knowledge Level”. Artificial Intelligence 18: 87–127.

Newell, A. y H. A. Simon. 1976. “Computer Science as Empirical Inquiry: Symbols and Search”. Communications of the ACM 19: 113–126.

Pierce, J. R. 1980. An Introduction to Information Theory: Symbols, Signals & Noise. 2nd edition. New York: Dover Publications.

Poli, R. 2001. “The Basic Problem of the Theory of Levels of Reality”. Axiomathes 12: 261–283.

Popper, K. R. 1935. Logik Der Forschung: Zur Erkenntnistheorie Der Modernen Naturwissenschaft. Wien: J. Springer. Traducción al inglés: The Logic of Scientific Discovery. London: Hutchinson. 1959.

Quine, W.V.O. 1970. Philosophy of Logic. Englewood Cliffs, NJ: Prentice Hall.

Roever, W. P. d., K. Engelhardt y K.-H. Buth. 1998. Data Refinement: Model-Oriented Proof Methods and Their Comparison. Cambridge: Cambridge University Press.

Sayre, K. M. 1976. Cybernetics and the Philosophy of Mind. London: Routledge & Kegan Paul.

Scarantino, A. y G. Piccinini. 2010. “Information Without Truth”. Metaphilosophy 41(3): 313–330.

Sequoiah-Grayson, S. 2007. “The Metaphilosophy of Information”. Minds and Machines 17: 331–344.

Schaffer, J. 2003. “Is There a Fundamental Level?”. Noûs 37(3): 498–517.

Shannon, C. E. 1993. Collected Papers, editado por N. J. A. Sloane y A. D. Wyner, New York: IEEE Press.

Shannon, C. E. y Weaver, W. 1949. The Mathematical Theory of Communication. Urbana: University of Illinois Press. Prólogo por Richard E. Blahut y Bruce Hajek. Reimpreso en 1998.

Simon, H. A. 1969. The Sciences of the Artificial. 1º edición. Cambridge, Mass. - London: MIT Press.

Simon, H. A. 1996. The Sciences of the Artificial. 3º edición. Cambridge, Mass. - London: MIT Press.

Sloman, A. 1978. The Computer Revolution in Philosophy: Philosophy, Science and Models of Mind. Hassocks: Harvester.

Smokler, H. 1966. “Informational Content: A Problem of Definition”. The Journal of Philosophy 63(8): 201–211.

Steane, A. M. 1998. “Quantum Computing”. Reports on Progress in Physics 61: 117–173.

Thagard, P. R. 1990. “Comment: Concepts of Information”, en Hanson [1990].

Weaver, W. 1949. “The Mathematics of Communication”. Scientific American 181(1): 11–15.

Wheeler, J. A. 1990. “Information, Physics, Quantum: The Search for Links”, en Complexity, Entropy, and the Physics of Information, editado por W. H. Zureck, Redwood City, CA: Addison Wesley.

Wiener, N. 1954. The Human Use of Human Beings: Cybernetics and Society. Boston: Houghton Mifflin, re-editado en 1989 con una nueva introducción de Steve Heims. London: Free Association.

Wiener, N. 1961. Cybernetics or Control and Communication in the Animal and the Machine. 2º edición. Cambridge, Mass.: MIT Press.

Wittgenstein, L. 1960. Preliminary Studies for the Philosophical Investigations: Generally Known as the Blue and Brown Books. 2º edición. Oxford: Basil Blackwell.

Wittgenstein, L. 1980. Remarks on the Philosophy of Psychology, 2 volúmenes. Chicago: University of Chicago Press and Oxford: Basil Blackwell, editado por G. E. M. Anscombe y G. H. von Wright. Traducido por G. E. M. Anscombe; vol. 2 editado por G.H. von Wright and H. Nyman; traducido por C.G. Luckhardt y A.E. Aue.

Wittgenstein, L. 1981. Zettel, 2nd edition, editado por G.E.M, Anscombe and G.H. von Wright; traducido por G.E.M. Anscombe. Oxford: Blackwell.

Wittgenstein, L. 2001. Philosophical Investigations: The German Text with a Revised English Translation, 3º edición. Oxford: Blackwell. Traducido por G.E.M. Anscombe. Incorpora revisiones finales hechas por Elizabeth Anscombe a la edición en inglés. Algunos errores de tipeo han sido corregidos y el texto ha sido repaginado.


7 Cómo Citar  

Floridi, Luciano. 2015. "Concepciones semánticas de la información". En Diccionario Interdisciplinar Austral, editado por Claudia E. Vanney, Ignacio Silva y Juan F. Franck. URL=http://dia.austral.edu.ar/Concepciones_semánticas_de_la_información

8 Derechos de autor  

Voz "Concepciones semánticas de la información", traducción autorizada de la entrada "Semantic Conceptions of Information" de la Stanford Encyclopedia of Philosophy (SEP) © 2015. La traducción corresponde a la entrada de los archivos de la SEP, la que puede diferir de la versión actual por haber sido actualizada desde el momento de la traducción. La versión actual está disponible en http://plato.stanford.edu/entries/information-semantic/

El DIA agradece a SEP la autorización para efectuar y publicar la presente traducción.

Traducción a cargo de Cristian López. DERECHOS RESERVADOS Diccionario Interdisciplinar Austral © Instituto de Filosofía - Universidad Austral - Claudia E.Vanney - 2015.

ISSN: 2524-941X


9 Agradecimientos  

Este artículo está basado en Floridi [2003a] y [2010]. Agradezco a Blackwell el permiso de reproducir partes del texto original y a Bosch UK por haberme permitido reproducir el dibujo en la Figura 2. Me he beneficiado significativamente de muchos comentarios editoriales por Fred Kroon y Jerry Seligman a los borradores previos. También agradezco a varios colegas y amigos por sus útiles sugerencias y por las conversaciones en torno a borradores anteriores y artículos pasados en los cuales se basa esta entrada. Ellos son sólo responsables de las demoras, pero no de cualquier error remanente: Frederick R. Adams, Mark Bedau, John Collier, Ian C. Dengler, Michael Dunn, Roger Brownsword, Timothy Colburn, James Fetzer, Phil Fraundorf, Gian Maria Greco, Ken Herold, Bernard Katz, Philipp Keller, Gianluca Paronitti, Jeff Sanders, Sebastian Sequoiah-Grayson, Janet D. Sisson, Ernest Sosa, J. L. Speranza, Matteo Turilli, y Edward N. Zalta.

Es una interpretación de un sistema axiomático que hace verdaderos a todos los axiomas, y por lo tanto a todas las fórmulas, del sistema.