Concepciones semánticas de la información

29 035 bytes añadidos, 17:59 12 may 2016
sin resumen de edición
<center>(Copyright © Bosch UK)</center>
 
 
Esta sintaxis pictórica (que incluye la perspectiva lineal que representa el espacio por convergencia de líneas paralelas) hace que las ilustraciones sean potencialmente significativas para el usuario. Utilizando el mismo ejemplo, la batería necesita estar conectada al motor de la manera adecuada para funcionar: esto también es sintaxis, en términos de la adecuada arquitectura física de un sistema (por lo tanto, una batería desconectada es un problema sintáctico). Y, por supuesto, la conversación que usted sostiene con su vecino sigue las reglas gramaticales del español: esto es sintaxis en el sentido lingüístico habitual.
 
La semántica finalmente aparece en la cláusula (DGI.3). Que los datos sean “significativos” alude a que los datos deben cumplir con los significados (semánticos) del sistema escogido, del código o lenguaje en cuestión. De todas maneras, no olvidemos que la información semántica no es necesariamente algo de índole lingüística. Por ejemplo, cuando consideramos el caso del manual del auto donde las ilustraciones son visualmente significativas para el lector.
 
 
===Una definición de datos===
 
De acuerdo con la DGI, la información no puede no tener datos. En el caso más sencillo, la información consiste en un único dato. Pero así, un dato se reduce solamente a una falta de uniformidad (''diaphora'' es el término griego para “diferencia”), entonces una definición general de dato establece que:
 
'''La Definición ''Diaphorica'' de Datos (DDD):'''
 
Un dato es un hecho putativo que considera alguna diferencia o pérdida de uniformidad en algún contexto.
 
Dependiendo de las inclinaciones filosóficas, la DDD puede aplicarse en tres niveles:
 
# Datos como ''diaphora'' ''de re'', es decir, como falta de uniformidad en el mundo real externo. No existe un nombre específico para “datos en la naturaleza”, pero una sugerencia sería referirnos a ellos como ''dedomena'' (“datos” en griego; nótese que nuestra palabra para “datos” proviene de la traducción latina de un trabajo de Euclides, ''Dedomena''). Los ''dedomena'' no deben confundirse con datos ambientales (ver la sección 1.7.1). Ellos son datos puros o datos proto-epistémicos, es decir, datos que todavía no han sido interpretados epistémicamente. Como “fracturas en los tejidos del ser”, ellos sólo pueden ser considerados como un ancla externa de nuestra información, ya que no se puede acceder a ellos o los mismos no pueden ser elaborados sin un cierto ''nivel de abstracción ''(veremos más acerca de esto en la sección 3.2.2). Los ''dedomena'' pueden reconstruirse como requerimientos ontológicos, como el ''noúmeno'' en Kant o la ''sustancia'' en Locke: no tenemos experiencia epistémica de ellos sino que su presencia es inferida a partir de la experiencia o bien es requerida por ella. Por supuesto, no podemos ofrecer ningún ejemplo de esto, pero los ''dedomena'' son cualquier falta de uniformidad en el mundo que sea fuente de datos (lo que los sistemas de información como nosotros percibimos como datos); ''e.g''., una luz roja en un fondo oscuro. Nótese que el punto aquí no es argumentar a favor de la existencia de datos puros en la naturaleza, sino proveer una distinción que (en la sección 1.6) nos ayudará a clarificar por qué algunos filósofos han aceptado la tesis de que no puede haber información sin representación de datos mientras que han rechazado la tesis que la información requiere una implementación física.
# Datos como ''diaphora de signo'', es decir, falta de uniformidad entre (la percepción de) por lo menos dos estados físicos, tales como una carga completa de batería o una batería descargada, una señal eléctrica variable en una conversación telefónica, o el punto y la línea en el alfabeto Morse.
# Datos como ''diaphora de dicto'', esto es, falta de uniformidad entre dos símbolos, por ejemplo, las letras A y B en el alfabeto latino.
 
Dependiendo de qué posición se adopte con respecto a la tesis de la neutralidad ontológica (sección 1.6) y de la naturaleza de la información ambiental (1.7.1) los ''dedomena'' en (1) pueden ser o bien idénticos con las señales en (2) o bien aquello que las hace posibles. A su vez, las señales en (2) son las que hacen posible los códigos de símbolos en (3).
 
El hecho de que la información dependa de que haya datos sintácticamente bien formados, y de la existencia de diferencias implementadas físicamente de diferentes maneras, explica por qué la información puede tan fácilmente disociarse de su soporte. El ''formato'', ''medio'' y ''lenguaje'' en el cual la información semántica está codificada de hecho es, a menudo, irrelevante y, por lo tanto, no es considerado. En particular, la misma información semántica puede ser analógica o digital, estar impresa en un papel o puede visualizarse en una pantalla, puede estar en español o en algún otro idioma, expresada por medio de palabras o mediante dibujos. Las interpretaciones de esta independencia del soporte pueden variar radicalmente. La DDD deja indeterminados:
 
* la clasificación de los correlatos (''neutralidad taxonómica'');
* el tipo lógico al cual los correlatos pertenecen (''neutralidad tipológica'');
* la clase de soporte requerido para la implementación de su desigualdad (''neutralidad ontológica''); y
* la dependencia de su semántica de un productor (''neutralidad genética'').
 
Ahora veamos cada una de estas formas de neutralidad.
 
 
===Neutralidad taxonómica===
 
Por lo general, un dato se clasifica como una entidad que exhibe una anomalía, usualmente porque una anomalía es perceptualmente más conspicua o menos redundante que las condiciones de fondo. Sin embargo, la relación de desigualdad es binaria y simétrica. Una hoja blanca de papel no es sólo la condición de fondo necesaria para la ocurrencia de un punto negro como dato, sino que es una parte constitutiva del dato mismo [punto-negro-en-papel-blanco], junto con la relación fundamental de desigualdad que lo empareja con el punto. Nada parece ser un dato ''per se''. Más bien, ser un dato es una propiedad externa. Entonces, la DGI respalda la siguiente tesis de la neutralidad taxonómica:
 
'''Neutralidad taxonómica (NTa):'''
 
Un dato es una entidad relacional.
 
El slogan dice “los datos son correlatos”, pero la DGI es neutral con respecto a la identificación de los datos con correlatos ''específicos''. En nuestro ejemplo, la DGI se abstiene de identificar como datos a la luz roja o al fondo blanco. Para entender por qué no puede haber “información sin datos”, examinaremos la neutralidad tipológica de la DGI.
 
 
===Neutralidad tipológica===
 
La DGI también apoya la tesis de la neutralidad tipológica:
 
'''Neutralidad tipológica (NTi):'''
 
La información puede consistir en diferentes tipos de datos como correlatos.
 
Hay cinco clasificaciones que son bastante comunes, aunque todavía la terminología no está establecida o estandarizada. Estas clasificaciones no son mutuamente excluyentes y no deben ser entendidas como rígidas. Dependiendo de las circunstancias, de la clase de análisis que se esté llevando a cabo y del nivel de abstracción que se adopte, los mismos datos pueden caer en distintas clasificaciones.
 
(D1) ''Datos primarios''. Son los principales datos almacenados en, por ejemplo, una base de datos, como una simple colección de números. Estos son los datos que generalmente son transmitidos por un sistema de manejo de la información, como por ejemplo el que es utilizado en un auto para indicar que la batería se está agotando. Normalmente, cuando se habla de datos, y de la información que ellos constituyen, implícitamente se asume que se trata de la información y de los datos ''primarios''. Entonces, por defecto se asume que la luz roja del indicador de batería baja es una instancia de dato primario transmitiendo información primaria.
 
(D2) ''Datos secundarios''. Los datos secundarios son opuestos a los datos primarios, consisten en su ausencia (por lo que podemos llamarlos también “anti-datos”). Recordemos cómo fue que supusimos, primariamente, que la batería estaba agotada: el motor no hizo el ruido usual. Del mismo modo, en ''Estrella de plata'', Sherlock Holmes resuelve el caso al notar algo que nadie más había notado: el silencio inusual del perro. Claramente, el silencio puede ser muy informativo. Esta es una peculiaridad de la información, a saber, su ausencia puede también ser informativa. A esto podemos referirnos, entonces, como ''información secundaria''.
 
(D3) ''Metadatos''. Son indicaciones acerca de la naturaleza de otros datos (usualmente, primarios). Estos metadatos describen propiedades como ubicación, formato, actualización, disponibilidad, restricciones de uso, entre otras. De modo correspondiente, la ''metainformación'' es información acerca de la naturaleza de la información. Un ejemplo de metainformación simple puede ser “‘La batería está agotada’ está codificado en castellano”.
 
(D4) ''Datos operacionales''. Son datos acerca de las operaciones del sistema de datos y de su desempeño. En correspondencia, la ''información operacional'' es información acerca de la dinámica de un sistema de información. Supongamos que el auto cuenta con una luz amarilla que cuando se enciende indica que el sistema de chequeo del auto está fallando. El hecho de que la luz esté encendida puede indicar que el indicador de la batería no esté funcionando adecuadamente y puede, por lo tanto, debilitar la hipótesis de que la batería esté agotada.
 
(D5) ''Datos derivativos''. Pueden ser extraídos a partir de ciertos datos cuando estos últimos son usados como fuentes indirectas en la búsqueda de patrones, indicios o evidencias inferenciales acerca de cosas distintas de aquéllas directamente aludidas por los datos mismos, por ejemplo, para análisis comparativos y cuantitativos (''ideometría''). Esta categoría es difícil de definir con precisión, de modo que un ejemplo cotidiano puede resultar útil para ilustrar el punto. Las tarjetas de crédito dejan, notoriamente, un rastro de información derivativa. A partir del resumen de la tarjeta de crédito de una persona donde consta, por ejemplo, una compra de combustible en una gasolinera, uno puede derivar información acerca de su paradero en determinado momento. La información derivativa no es algo nuevo. Hume ofrece un bello ejemplo en estos tiempos de calentamiento global. En el ''Essays Moral, Political, and Literary'' (Part II, Essay 11. Of the Populousness of Ancient Nations, Parágrafos 155/186 mp. 448 gp. 432, ver Hume 1987), Hume reporta que “Es una observación de L'Abbe du Bos que Italia es más cálida en el presente que en los tiempos antiguos. ‘''Los Anales de Roma'' nos cuentan’, dice él, ‘que en el año 480 ab U.C. el invierno era tan severo que destruyó los árboles’ […]. Muchos pasajes de Horacio suponen que las calles de Roma estaban cubiertas de nieve y hielo. Tendríamos más certeza respecto de este punto si los antiguos hubieran conocido el uso de los termómetros, pero sus escribas, sin intención, nos dan información suficiente para convencernos de que los inviernos en Roma son mucho más templados ahora que antes”. Hume ha extraído precisamente información derivativa a partir de alguna información primaria proporcionada por L’Abbe du Bos.
 
Volvamos ahora a nuestra pregunta: ¿puede haber información sin datos? La DGI no especifica qué tipos de datos constituyen información. Esta ''neutralidad tipológica'' (NTi, ver más arriba) está justificada por el hecho de que, cuando la aparente falta de datos no se reduce a la existencia de datos primarios ''negativos'', lo que se vuelve disponible y que califica como información es cierta información adicional no-primaria μ acerca de σ constituida por ciertos datos no-primarios (D2)–(D5). Por ejemplo, si una consulta en una base de datos proporciona una respuesta, esta respuesta será al menos negativa, por ejemplo, “no se encontraron documentos”. En tal caso, ésta sería información primaria negativa. Sin embargo, si la base de datos no proporciona ninguna respuesta, pueden suceder dos cosas: o bien no es capaz de proveer datos en absoluto, en cuyo caso no hay ninguna información σ disponible –de modo que la regla “no hay información sin datos” todavía rige–, o bien es capaz de ofrecer algunos datos que permiten establecer, por ejemplo, que está corriendo en un ''loop'' [N. del T.: un ''loop'' es una secuencia que se repite una y otra vez, de manera continua]. Del mismo modo, el silencio –esta vez como respuesta a una pregunta– podría representar información primaria negativa, por ejemplo, como un asentimiento o una negación implícita; o bien podría portar cierta información no-primaria, por ejemplo, acerca del hecho de que la persona no ha escuchado la pregunta o acerca de la cantidad de ruido en la habitación.
 
 
===Neutralidad ontológica===
 
Al rechazar la posibilidad de información sin datos, la DGI también acepta la modesta tesis de la neutralidad ontológica.
 
'''Neutralidad ontológica (NO)''':
 
No puede haber información sin representación de datos.
 
Siguiendo a Landauer y Bennet (1985), y Landauer (1987; 1991; 1996), la neutralidad ontológica (NO) a menudo se interpreta en términos materiales, como defendiendo la imposibilidad de la información sin soporte físico, a través de la ecuación “representación = implementación física”, esto es:
 
<center>(NO.1) No puede haber información sin implementación física.</center>
 
Cuando se trabaja en física de la computación, (NO.1) es un presupuesto inevitable ya que la ciencia de la computación debe, necesariamente, tomar en consideración las propiedades físicas y los límites de los portadores de datos. Por lo tanto, el debate en torno a (NO.1) ha florecido especialmente en el contexto de la filosofía de la información y computación cuántica (ver Deutsch 1985; 1997 y Di Vincenzo y Loss 1998; Steane 1998 ofrece un revisión). (NO.1) es también un presupuesto ontológico que está detrás de la Hipótesis de Sistemas de Símbolos Físicos en IA (Inteligencia Artificial) y en Ciencias Cognitivas. (Newell y Simon 1976). Pero (NO), y por lo tanto DGI, no especifica si, en última instancia, la aparición de todo estado discreto requiere una implementación material de las representaciones de datos. Presumiblemente, los entornos en los cuales todas las entidades, propiedades y procesos son en última instancia noéticos (''e.g.'' Berkeley, Spinoza), o aquellos en los cuales el universo material o extenso tiene una matriz noética y no extensa como fundamento ontológico (''e.g''. Pitágoras, Platón, Descartes, Leibniz, Fichte, Hegel), parecen perfectamente capaces de sostener (NO) sin la necesidad de sostener (NO.1) de manera simultánea. Los correlatos en la DDD (más arriba) podrían ser los ''dedomena'', tal como las mónadas leibnizianas, por ejemplo. De hecho, el clásico debate del realismo acerca de cuál es la naturaleza última del “ser” puede ser reconstruido en términos de las posibles interpretaciones de (NO).
 
Todas estas consideraciones explican por qué la DGI es también consistente con otros dos eslóganes muy populares, favorables a la naturaleza proto-física de la información y, por lo tanto, completamente contrarios a (NO.1):
 
<center>(NO. 2) ''Desde el bit''. Dicho de otra manera, toda “cosa”–toda partícula, todo campo de fuerza, todo continuo espacio-temporal mismo– deriva su función, su significado, su propia existencia (incluso de manera indirecta en algunos contextos) de respuestas generadas por un aparato a preguntas “por sí o por no”, o también desde elecciones binarias, o desde ''bits''. [N. del T.: Texto original en inglés: “''It from bit''. Otherwise put, every ‘it’ — every particle, every field of force, even the space-time continuum itself—derives its function, its meaning, its very existence (even if in some contexts indirectly) from the apparatus-elicited answers to yes-or-no questions, binary choices, ''bits.''”]. “Desde el bit” representa la idea de que todo elemento del mundo físico tiene en el fondo –un fondo muy profundo en la mayoría de los casos– una fuente y una explicación inmaterial; aquello que llamamos realidad surge, en última instancia, de formular preguntas por sí o por no y del registrar respuestas evocadas por un sistema. Dicho brevemente, todas las cosas físicas tienen en su origen una naturaleza informacional en un universo participativo (Wheeler 1990, 5);</center>
 
Y también:
 
<center>(NO.3) [información es] un nombre para el contenido de lo que se intercambia con el mundo externo a medida que nos adaptamos a él y hacemos que nuestros ajustes se correspondan con él. (Wiener 1954, 17). La información es información, no es materia ni energía. Ningún tipo de materialismo que no admita esto puede sobrevivir en nuestros días (Wiener 1961, 132).</center>
 
(NO.2) adopta una noción teórica de información, un monismo metafísico: la esencial naturaleza del universo es digital, está compuesta fundamentalmente de información en tanto datos/''dedomena'' en lugar de materia o energía, donde los objetos materiales son una compleja manifestación secundaria (recientemente, una posición similar ha sido defendida en física por Frieden (1998), cuyo trabajo está basado en una perspectiva platónica inexacta). Sin embargo, (NO.2) puede no verse obligado a comprometerse con un punto de vista computacional de los procesos de información. (NO.3) defiende un enfoque más pluralista en términos similares. Y ambos son compatibles con DGI.
 
Podemos introducir un comentario final sobre (DGI.3) al discutir un cuarto eslogan:
 
<center>(NO.4) De hecho, lo que queremos decir con información –la unidad elemental de información – es una diferencia que hace una diferencia. (Bateson 1973, 428).</center>
 
(NO.4) es una de las primeras y más populares formulaciones de la DGI (ver por ejemplo Franklin 1995, 34 y Chalmers 1996, 281). Habitualmente, la formulación se atribuye a Mackay (1969) (aunque no se ha encontrado en este texto) –esto es, “información es una distinción que hace una diferencia” –que precede a la formulación de Bateson aunque es ligeramente diferente de ella, ya que habla de “distinción” en lugar de “diferencia”, lo cual le da un giro más epistemológico y no tan ontológico. Una “diferencia” (una “distinción”) es sólo un estado discreto, a saber, un dato; y “hacer una diferencia” significa simplemente que el dato es “significativo”, al menos potencialmente.
 
 
===Neutralidad Genética===
 
Finalmente, consideremos la naturaleza semántica de los datos. El tema de cómo los datos pueden llegar a tener un significado asignado y una función en un sistema semiótico constituye en primer lugar uno de los problemas más difíciles de la semántica. Afortunadamente, el punto en cuestión aquí no es ''cómo'' sino ''si acaso'' los datos que constituyen información como contenido semántico pueden ser significativos ''independientemente'' de un informado. La ''neutralidad genética ''(NGe), apoyada por la DGI, afirma que:
 
'''Neutralidad Genética (NGe):'''
 
Los datos (como correlatos) pueden tener una semántica ''independientemente'' de cualquier informado.
 
Antes del descubrimiento de la Piedra Roseta, los jeroglíficos egipcios ya eran considerados como información, aun cuando su semántica estuviese más allá de la comprensión de cualquier intérprete. El descubrimiento de una interfaz entre el griego y el egipcio no afectó la semántica de los jeroglíficos, sino solamente su accesibilidad. Este es el sentido condicional-contrafáctico débil en el que (DGI.3) se refiere a datos significativos arraigados en portadores de información, con independencia de un informado. La NGe apoya la posibilidad de la ''información sin un sujeto informado'', para usar una frase popperiana. El significado no está (o, al menos, no está únicamente) en la mente del usuario. Hay que distinguir la NGe de la tesis realista más fuerte que defiende, por ejemplo, Dretske (1981). De acuerdo con esta tesis, los datos podrían también tener su semántica propia, independientemente de un ''informador/productor'' inteligente. Esto es conocido como ''información ambiental'', un concepto que merece una breve presentación antes de finalizar esta primera parte.
 
 
====Información ambiental====
 
Uno de los ejemplos más citados de información ambiental es el de los anillos concéntricos que se ven en la madera de un tronco de árbol que ha sido cortado, y que se pueden usar para estimar su edad. Sin embargo, la información “ambiental” no necesariamente debe ser ''natural''. Volviendo a nuestro ejemplo anterior, cuando uno enciende el auto con la llave, la luz roja del indicador de batería baja se prende. Esta señal también puede interpretarse como una instancia de información ambiental, sin ser natural.
 
La información ambiental se define en relación con un observador (un agente de información) que, se supone, no tiene acceso directo a los datos puros en sí mismos. Se requiere que dos sistemas ''a'' y ''b'' estén acoplados de tal manera que el que ''a'' sea (del tipo de, o en el estado) ''F'' esté correlacionado con el que ''b'' sea (del tipo de, o en el estado) ''G'', y que así lleve la información al observador de que ''b'' es'' G'' (este análisis está adaptado de Barwise y Seligman (1997), quienes mejoran un abordaje similar ofrecido por Dretske 1981).
 
'''Información ambiental:'''
 
Dos sistemas, ''a'' y ''b'', están acoplados de manera tal que el que ''a'' sea (del tipo de, o en el estado) ''F'', esté correlacionado con el que ''b'' sea (del tipo de, o en el estado) ''G'', transmitiéndole así al agente la información de que ''b'' es'' G.''
 
La correlación aludida es usualmente ''nómica'', es decir, sigue alguna ley. Puede tratarse de un producto de ingeniería, como en el caso del indicador de baja batería (''a'') cuyo brillo (''F'') está desencadenado por el hecho de que la batería (''b'') está descargada (''G'') y, por lo tanto, es informativo acerca de ello. Pero también puede ser natural, como cuando se usa tornasol (un colorante natural de los líquenes) como un indicador de acidez y alcalinidad, pues se vuelve rojo en las soluciones ácidas y azul en las alcalinas. Otros ejemplos típicos incluyen la correlación entre las huellas digitales y la identificación personal.
 
Puede suceder que uno esté tan acostumbrado a ver el indicador de batería baja encendido como algo que lleva información acerca de que la batería está descargada, que resulta difícil distinguir, con claridad suficiente, entre información ambiental y semántica. Sin embargo, es importante enfatizar que la información ambiental puede no requerir o no involucrar semántica en absoluto. La información ambiental puede consistir en (redes o patrones de) datos correlacionados, entendidos como meras diferencias o ''posibilitadores limitantes ''(“''constraining affordances''" en el original). Las plantas (por ejemplo, un girasol), los animales (por ejemplo, una ameba), y los mecanismos (por ejemplo, una célula fotoeléctrica) son ciertamente capaces de hacer un uso práctico de la información ambiental, incluso sin que haya (procesamiento semántico de) datos ''significativos''.
 
 
===Resumen de la primera parte===
 
Para resumir, la DGI define la información, en un sentido amplio, como datos sintácticamente bien formados y significativos. Los cuatro tipos de neutralidad (NTa, NTi, NO y NGe) representan una ventaja obvia, en tanto hacen que la DGI sea perfectamente extrapolable a casos más complejos, y razonablemente flexible en términos de aplicabilidad y compatibilidad. De hecho, los filósofos han interpretado y ajustado de diversas formas estas cuatro neutralidades de acuerdo con sus necesidades teóricas.
 
Nuestro siguiente paso es examinar si acaso la DGI resulta satisfactoria cuando se discute el tipo más importante de información semántica, esto es, la información acerca de hechos (información factual). Antes de abordar este asunto, sin embargo, necesitamos detenernos y ocuparnos de la teoría matemática de la comunicación (TMC).
 
La TMC no es el único enfoque matemático exitoso del concepto de información. La ''información de Fisher ''(Frieden 2004) y la ''teoría algorítmica de la información'' (Chaitin 1987) son otros dos ejemplos importantes. En cualquier caso, la TMC es ciertamente la más conocida entre los filósofos. Como tal, ha tenido un impacto profundo en los análisis filosóficos de la información semántica, a los cuales ha aportado tanto el vocabulario técnico como también un primer marco conceptual de referencia. Para comprender el debate filosófico que suscita es necesario comprender la esencia de la teoría.
 
 
==La información como comunicación de datos==
 
Algunas características de la información son intuitivas. Estamos acostumbrados, por ejemplo, a que la información sea ''codificada'', ''transmitida'' y ''almacenada''. Además, esperamos que sea ''aditiva'' (es decir, que información ''a'' + información ''b'' = ''a ''+ ''b'') y ''no-negativa'', como otras cosas en la vida, tal como las probabilidades y las tasas de interés. Si hace una pregunta, el peor escenario es aquél en el que no recibe respuesta o recibe una respuesta errónea, lo cual lo dejará en un estado de cero información nueva.
 
Algunas propiedades similares de la información son cuantificables y son investigadas por la teoría matemática de la comunicación (TMC) con el objetivo de generar modos eficientes de codificar y transferir datos.
 
El nombre de esta rama de teorías probabilísticas surge del trabajo seminal de Shannon (Shannon and Weaver 1949). Shannon fue pionero en este campo y obtuvo muchos de sus principales resultados, pero reconoció la importancia del trabajo previo llevado a cabo por otros investigadores y colegas en ''Bell Laboratories'', donde se destacan Nyquist y Hartley (ver Cherry 1978 y Mabon 1975). Después de Shannon, la TMC se popularizó como la ''teoría de la información'', una atractiva pero desafortunada etiqueta, que continúa indefinidamente causando malos entendidos. Shannon llegó a lamentar la amplia popularidad de la etiqueta, y aquí evitaremos usarla.
 
La segunda parte de este artículo esboza algunas de las ideas claves detrás de la TMC, con el objetivo de comprender la relación que hay entre la TMC y algunas de las teorías filosóficas de la información semántica. Aquellos lectores que no sean afectos a las fórmulas matemáticas, preferirán ir directamente a la sección 2.2, donde se esbozan algunas implicaciones conceptuales de la TMC. En cambio, los lectores que estén interesados en profundizar su conocimiento, pueden comenzar leyendo Weaver (1949), Pierce (1980), Shannon y Weaver (1949 rep. 1998), luego Jones (1979), y finalmente Cover y Thomas (1991). Los últimos dos son textos técnicos. Floridi (2010) ofrece un análisis breve y simplificado orientado a estudiantes de filosofía.
 
 
===La teoría matemática de la comunicación===
 
La TMC se originó en el campo de la ingeniería electrónica como el estudio de los límites de la comunicación, desarrollando un enfoque cuantitativo de la información como una manera de dar respuesta a dos problemas fundamentales: cuál es el nivel último de compresión de datos (¿cuán pequeño puede ser un mensaje dada la misma cantidad de información a codificar?) y cuál es la tasa última de transmisión de datos (¿cuán rápido pueden transmitirse los datos por un canal?). Para ambos problemas, las soluciones son la entropía ''H'' en la ecuación [9] (ver más abajo) y la capacidad del canal'' C''. El resto de la sección ilustra cómo obtener soluciones para los dos problemas.
 
Para comenzar con una aproximación intuitiva al enfoque, volvamos a nuestro ejemplo. Recordemos la conversación telefónica con el mecánico. En la Figura 3, la esposa es la ''informadora'', el mecánico es el ''informado'', “la batería está descargada” es el mensaje (semántico), es decir, el ''informante''. Además, hay un proceso de codificación y decodificación a través del lenguaje natural (español), un canal de comunicación (el sistema de teléfono) y algún posible ruido. Informador e informado comparten alguna clase de conocimiento común acerca de la colección de símbolos que son utilizados (técnicamente, esto es conocido como el ''alfabeto''; en el ejemplo es el alfabeto latino).
 
[[File:image003 csi.png|center]]
 
<center>'''Figura 3: Modelo de comunicación'''</center>
<center>''(adaptado de Shannon y Weaver 1949)''</center>
Autores, Editores, Burócratas, Administradores
2246
ediciones

Menú de navegación