Concepciones semánticas de la información

7146 bytes añadidos, 18:16 12 may 2016
sin resumen de edición
<center>'''Figura 3: Modelo de comunicación'''</center>
<center>''(adaptado de Shannon y Weaver 1949)''</center>
 
 
La TMC se ocupa del uso eficiente de los recursos que están indicados en la Figura 3. Ahora bien, la conversación con el mecánico es bastante realista y, por lo tanto, más difícil de modelar que un caso simplificado. Volveremos a esto más adelante pero, en vistas a introducir la TMC, imaginemos en lugar del ejemplo del mecánico, un dispositivo muy aburrido que solamente puede producir un único símbolo. Edgar Alan Poe escribió un breve cuento en el cual un cuervo solo podía responder “nunca más” a cualquier pregunta. El cuervo de Poe es llamado un ''dispositivo unario''. Imagine que llama al mecánico y quien responde su llamado es el cuervo de Poe. Incluso a este nivel elemental, el modelo simple de comunicación de Shannon se aplica. Es obvio que el cuervo (un dispositivo unario) produce cero cantidades de información. Simplificando, nosotros ya sabemos cuál será la respuesta en el intercambio comunicativo, por lo que nuestra ignorancia (expresada por nuestra pregunta) no puede decrecer. Sea cual sea el estado informacional en el que el sistema esté, hacer las preguntas pertinentes (''e.g.'' ¿seré capaz de encender mi auto?, ¿puede venir a arreglar el auto?) al cuervo no le hace ninguna diferencia. Es interesante notar que esto está a la base del famoso argumento de Platón en el ''Fedro'' contra el valor de la información semántica provista por textos escritos:
 
“[Sócrates]: Escribir, Fedro, tiene esta extraña cualidad, muy similar a la pintura: las criaturas de las pinturas parecen seres vivos, pero si uno les hace una pregunta, ellas permanecen en un solemne silencio. Y lo mismo sucede con las palabras escritas; podríamos pensar que ellas hablan, como si tuviesen inteligencia, pero si las interrogas, deseando saber acerca de lo que dicen, ellas siempre dicen una misma y única cosa [ellas son dispositivos unarios, en nuestra terminología]. Y toda palabra [275e] una vez escrita, se pone de moda igualmente para quienes la entienden y para quienes no están interesados en ella, y ella no sabe a quién hablarle y a quién no; cuando es maltratada o injustamente injuriada siempre necesita de un padre que la defienda, ya que no tiene poder para protegerse a sí misma.”
 
Como bien advierte Platón, un recurso unario responde siempre con un único mensaje, no con un silencio o un mensaje, ya que el silencio cuenta también como mensaje, como dijimos en 1.5 cuando se discutió la naturaleza de la información secundaria. Lo que se sigue de esto es que una fuente en completo silencio también califica como una fuente unaria. Y si silenciar una fuente (censura) puede ser una forma sucia de hacer a una fuente no-informativa, es bien conocido que gritar “¡lobo!” es un caso clásico en el cual una fuente informativa se degrada al papel de un dispositivo unario no-informativo.
 
Consideremos ahora un dispositivo binario capaz de producir dos símbolos, como una moneda justa con sus dos símbolos equiprobables {''h, t''} [N. del T.: las letras “h” y “t” corresponden al inglés “head” y “tail”, que serían la cara y ceca de una moneda. Como en español ambas empiezan con la misma letra, se decidió dejarlo como estaba en el original]; o, como Mateo 5,37 sugiere: “Que este sea vuestro hablar: sí, cuando sea sí; no, cuando sea no; cualquier cosa de más, proviene del demonio”. Antes de que la moneda sea lanzada, el informado (por ejemplo, una computadora) está en un estado de déficit de datos mayor a cero: el informado no sabe qué símbolo producirá el dispositivo. Shannon utilizó el término técnico de “incertidumbre” para referirse a este déficit de datos. En un contexto no matemático, esto puede ser un término un poco engañoso, ya que tiene fuertes connotaciones epistemológicas. Recuérdese que el informado puede ser una simple máquina, por lo que estados doxásticos, mentales o psicológicos son claramente irrelevantes.
 
Una vez que la moneda ha sido lanzada, el sistema produce una cantidad de información que es una función de los posibles resultados, en este caso, dos símbolos equiprobables, e igual al déficit de datos que elimina.
 
Construyamos ahora un sistema ligeramente más complejo, compuesto de dos monedas'' A'' y ''B''. El sistema ''AB'' puede producir los siguientes cuatro pares ordenados como resultado: <''h'', ''h''>, <''h'', ''t''>, <''t'', ''h''>, <''t'', ''t''>, lo cual genera un déficit de datos de cuatro unidades, donde cada par es considerado como un símbolo en el alfabeto de la fuente. En el sistema ''AB'', la aparición de cada símbolo <_,_> elimina una mayor cantidad de déficit de datos que la aparición de un símbolo en el sistema ''A''. En otras palabras, cada símbolo provee mayor información. Agregar una moneda más produciría ocho unidades de déficit de datos, incrementando la cantidad de información que cada símbolo contiene en el sistema ''ABC'', y así sucesivamente.
 
Estamos en condiciones de generalizar los ejemplos. Llamemos ''N'' al número de símbolos posibles. Para ''N'' = 1, la cantidad de información producida por un dispositivo unario es 0. Para ''N'' = 2, al producir un símbolo equiprobable, el dispositivo envía una unidad de información; y para ''N'' = 4, al producir un símbolo equiprobable, el dispositivo envía la sumatoria de la cantidad de información producida por un dispositivo que produce uno de dos símbolos equiprobables (la moneda ''A'' en el ejemplo anterior) más la cantidad de información producida por otro dispositivo que también produce uno de dos símbolos equiprobables (moneda ''B''), esto es, dos unidades de información, aunque el número total de símbolos es obtenido al multiplicar los símbolos de ''A'' por los símbolos de ''B''. Ahora, nuestra medida de información debe ser una función continua y monótona de la probabilidad de los símbolos. La manera más eficiente de satisfacer estos requerimientos es utilizando el logaritmo en base 2 del número de posibles símbolos (el logaritmo en base 2 de un número ''n'' es la potencia a la cual 2 debe ser elevado para obtener ''n'', por ejemplo log<sub>2</sub> 8 = 3, ya que 2<sup>3</sup> = 8). Los logaritmos tienen la ventajosa propiedad de convertir la multiplicación de símbolos en una suma de unidades de información. Tomando el logaritmo en base 2 (en adelante, log simplemente significa log<sub>2</sub>), tenemos la ventaja extra de expresar las unidades en bits. La base del logaritmo es parcialmente una cuestión convencional, de la misma manera que utilizar centímetros en lugar de pulgadas; en parte porque es útil cuando tratamos con dispositivos digitales que utilizan códigos binarios para representar datos.
 
Dado un alfabeto de '''N''' símbolos equiprobables, ahora podemos utilizar la ecuación [1]:
 
[1] El promedio de informatividad por símbolo (o “incerteza”) = log<sub>2</sub>(''N'') bits de información por símbolo.
 
Para repasar algunos ejemplos de manera más precisa:
 
[[File:CSI 4.jpg|center]]
 
<center>'''Algunos dispositivos de comunicación y su capacidad informativa.'''</center>
Autores, Editores, Burócratas, Administradores
2246
ediciones

Menú de navegación