Concepciones semánticas de la información

Luciano Floridi
University of Oxford

De DIA

Versión española de Semantic Conceptions of Information, de la Stanford Encyclopedia of Philosophy.

Traducción: Cristian López


“Amo la información por sobre todos los temas que se cruzan en mi camino y, especialmente, por sobre aquellos que son más importantes”. Así declara con firmeza Eufranor, uno de los defensores de la fe cristiana en el Alcifrón de Berkeley (Diálogo 1, Sección 5, Párrafos 6/10, ver Berkeley 1732). Evidentemente, la información ha sido objeto de deseo filosófico desde hace mucho tiempo, desde mucho antes de la revolución de la computación, del internet o del pandemonio del “dot.com” (ver, por ejemplo, Dunn 2001 y Adams 2003). Sin embargo, ¿qué es exactamente lo que Eufranor ama? ¿Qué es la información? La pregunta ha recibido muchas respuestas en diferentes campos pero, como era de esperar, los diversos estudios no concuerdan en una definición simple y única de la información (ver, por ejemplo, Braman 1989, Losee 1997, Machlup y Mansfield 1983, Debons y Cameron 1975, Larson y Debons 1983).

La información es, de una manera particular, un fenómeno polimórfico y un concepto polisemántico. En tanto explicandum, puede estar asociado a muchas explicaciones, dependiendo del nivel de abstracción que se adopte, y del cúmulo de requisitos y expectativas que orientan una teoría. Al leer este artículo, el lector quizá debería recordar este rasgo notorio de la información, ya que serán inevitables algunas simplificaciones esquemáticas y ciertas decisiones interpretativas. El propio Claude E. Shannon fue muy precavido al respecto:

“La palabra ‘información’ ha recibido diferentes significados por parte de varios autores en el campo general de la teoría de la información. Probablemente, un buen número de ellos serán suficientemente útiles en ciertas aplicaciones y merezcan un estudio posterior y un reconocimiento permanente. Difícilmente se podría esperar que un simple concepto de información pudiera dar cuenta, de manera satisfactoria, de las numerosas aplicaciones posibles de este campo general” (cursivas agregadas) (Shannon 1993, 180).

En concordancia con Shannon, Weaver (1949) propuso un análisis tripartito de la información en términos de:

(1)  problemas técnicos que conciernen a la cuantificación de la información y que son abordados por la Teoría de Shannon.

(2)  problemas semánticos relacionados con el significado y la verdad; y

(3)  lo que Weaver llamó problemas “de influencia” vinculados con el impacto y la efectividad de la información en el comportamiento humano, los cuales, deberían jugar de acuerdo con él un papel igualmente importante.

Y estos son sólo unos cuantos de los primeros problemas que surgieron en el análisis de la información.

De hecho, el exceso en la cantidad de los análisis existentes puede resultar confuso. Con frecuencia se ventilan quejas relacionadas con malos entendidos e usos inadecuados del concepto mismo de información, incluso cuando tales quejas no parecen aportar beneficio alguno. Por ejemplo, Sayre (1976) criticó la “laxitud en el uso del término ‘información’” en Armstrong (1968) (ahora ver Armstrong 1993) y en Dennett (1969) (ahora ver Dennett 1986), a pesar de su aprecio por otros numerosos aspectos de sus trabajos. Recientemente, Harms señaló confusiones similares en Chalmers (1996), quien

“parece pensar que la noción teórica de la información (ver mi agregado, en la Sección 3) trata acerca de los posibles estados que existen y de cómo ellos están relacionados o estructurados, y no acerca de cómo las probabilidades se distribuyen entre ellos” (Harms 1998, 480).

Para evitar este tipo de dificultades, el presente artículo ha sido organizado en cuatro secciones. La Sección 1 esboza un mapa de los principales sentidos en los que se puede hablar de información semántica, basándonos en el análisis del concepto de data (representado en la Figura 1, ver más adelante). A veces, los numerosos conceptos de información que están organizados en el mapa pueden agruparse de distintas maneras. Sin embargo, esto no debería considerarse necesariamente un signo de confusión, ya que para algunos filósofos esto puede ser el resultado de un vínculo intencional. El mapa no pretende ser exhaustivo, sino que busca meramente evitar algunos escollos y demarcar los alcances de este artículo, que de otra manera podría convertirse con facilidad en una versión resumida de la Encyclopedia Britannica. Su carácter esquemático es tan sólo un punto de partida para futuras investigaciones y el lector interesado en profundizar su conocimiento al respecto puede consultar Floridi (2011) y Adriaans y van Benthem (2008).

Luego de esta orientación inicial, en la Sección 2 se expone una breve introducción a la teoría de la información, es decir, a la teoría matemática de la comunicación (TMC), La TMC merece tener un espacio propio ya que es el enfoque cuantitativo que ha ejercido mayor influencia entre los filósofos. Esta sección proveerá el trasfondo necesario para entender muchas de las teorías semánticas de la información contemporáneas, especialmente los trabajos de Bar-Hillel y Carnap (1953), y Dretske (1981).

En la Sección 3, se analiza la información como contenido semántico. La Sección 4 está abocada a focalizar en las investigaciones filosóficas acerca de la información semántica, aquello que Eufranor realmente ama.

Se advierte al lector que se utilizará una descripción de la información semántica en tanto dato significativo como criterio para delinear otros enfoques. Desafortunadamente, incluso una aproximación tan minimalista como esta se encuentra sujeta a desacuerdos; aunque, como punto a favor, se puede decir que es menos controversial que otras aproximaciones. Claramente, un análisis conceptual debe tener un punto de partida, lo cual, a menudo, significa adoptar alguna definición provisoria del objeto a investigar. Sin embargo, esta manera habitual de proceder no es lo que aquí se quiere enfatizar, ya que la dificultad resulta más abrumadora. El trabajo filosófico sobre el concepto de información (semántica) todavía se encuentra en ese lamentable estadio, en el cual las discrepancias cuestionan incluso la manera en la que los problemas mismos son provisionalmente formulados y enmarcados. Por ejemplo, todavía no disponemos de nada que sea comparable a la naturaleza bien pulida del problema de Gettier. En este sentido el señalamiento “usted se encuentra aquí” que se ofrece en este artículo podría muy bien ser puesto en otro lugar por otros filósofos. El propósito de esta entrada es ubicar el concepto de información semántica de manera firme en el mapa filosófico, lo que permitirá posibles ajustes futuros.


1 Un mapa informacional  

La información es un laberinto conceptual y en esta sección comenzaremos dando un vistazo a un mapa general de una de sus regiones con el propósito de abocarnos completamente al área semántica. La Figura 1 resume las principales distinciones que vamos a presentar.

Image001csi.png


Figura 1: Un mapa informacional


Claramente, pasar a través de los diversos puntos en el mapa hará que el recorrido no sea lineal. La utilización de algunos ejemplos básicos, que permitirán ilustrar los pasos menos obvios, será de ayuda para mantener nuestro rumbo. Dicho esto, permítanme presentarles uno de los puntos al cual retornaremos recurrentemente.


1.1 Un ejemplo cotidiano de información.  

Es lunes por la mañana. Usted da arranque a su automóvil, pero no sucede nada: el motor no emite ni un sólo sonido y su silencio le preocupa. Como era de esperar, usted advierte que la luz roja de la batería está parpadeando, lo cual indica que la batería está descargada. Después de un par de intentos, se da por vencida y llama al mecánico. Le explica que su esposo olvidó apagar las luces del auto anoche –lo cual no es verdad, porque usted lo olvidó, pero está avergonzada y no quiere confesarlo – y ahora la batería está agotada. El mecánico le dice que el manual de instrucciones de su auto explica cómo utilizar cables de arranque para encender el motor. Afortunadamente, su vecino tiene todo lo que usted necesita. Lee el manual, mira los dibujos, sigue las instrucciones, soluciona el problema y finalmente conduce a la oficina.

Esta situación cotidiana será nuestra “mosca de la fruta”. Aunque es simple e intuitiva, provee los detalles suficientes para ilustrar las múltiples maneras en las cuales entendemos uno de nuestros recursos más importantes: la información.


1.2 La definición basada en datos de la información  

Es común pensar que la información está constituida por datos. Esto ciertamente ayuda, pero sólo de manera limitada. Desafortunadamente, la naturaleza de los datos no está filosóficamente bien entendida, a pesar de que algunos de los más importantes debates del pasado –tal como el debate acerca de los datos dados y acerca de los datos de los sentidos– han provisto al menos algunas ideas iniciales. De todas maneras, el concepto tiene la ventaja de ser menos rico, menos oscuro y menos esquivo que el de información, lo cual lo hace más fácil de manejar. Por lo tanto, comenzar por una definición de información basada en datos parece ser un buen punto de partida.

En las últimas tres décadas, diversos análisis en Ciencia de la Información, en Teoría, Metodología, Análisis y Diseño de Sistemas de Información, en Administración de Información (Sistemas), en Diseño de Base de Datos y en Teoría de la Decisión han adoptado una Definición General de Información (DGI) en términos de datos + significado. La DGI se ha vuelto un estándar operacional, especialmente en aquellos campos donde los datos y la información son tratados como entidades reificadas (considérese, por ejemplo, las modernas expresiones “extracción de datos” [data mining] y “administración de información” [information management]). Recientemente, la DGI ha empezado a ejercer influencia en la filosofía de la computación y la información (Floridi 1999 y Mingers 1997).

Una manera clara de formular la DGI es mediante una definición que consta de tres partes:

La Definición General de Información (DGI):

σ es una instancia de información, entendida en términos de contenido semántico, si y sólo si:

(DGI.1) σ consiste en uno o más datos;

(DGI.2) los datos en σ están bien formados;

(DGI.3) los datos bien formados en σ son significativos;

La DGI requiere una definición de “datos”, la cual se brindará en la siguiente sección. Pero antes haremos un breve comentario de cada cláusula.

De acuerdo con (DGI.1), los datos son la materia que constituye la información. Veremos que, rápidamente, las cosas pueden volverse más complicadas.

En (DGI.2), “bien formado” significa que los datos son cúmulos agrupados de manera adecuada, siguiendo reglas (sintaxis) que gobiernan el sistema escogido, el código o el lenguaje que se está analizando. En este punto, la sintaxis debe ser entendida en un sentido amplio (no solamente lingüístico), es decir, como aquello que determina la forma, la construcción, la composición o la estructura de algo (ingenieros, directores de películas, pintores, ajedrecistas y jardineros hablan de sintaxis en este sentido amplio). Por ejemplo, el manual de su auto puede mostrar (Figura 2), un dibujo bidimensional de dos autos ubicados uno al lado del otro, no uno encima del otro.

Image002 csi.png
Figura 2: Cómo poner en marcha su auto utilizando un puente
(Copyright © Bosch UK)