Teoría de la información de Claude E. Shannon

1429 bytes añadidos, 14:14 29 jul 2016
sin resumen de edición
<div align="center">I(S;D)= H(S) − E = I(X;Y) = H(D) – N </div>     <div align="right">(5)</div>                                                                
La equivocación E y el ruido ''N ''son medidas de la independencia entre la fuente y el destinatario, dado que si ''S ''y ''D ''son completamente independientes, los valores de E y N son máximos(''E'' = ''H''(''S'') y ''N'' = ''H''(''D'')), y el valor de I(S;D) es mínimo (I(S;D)=0). Por otro lado, si la dependencia entre ''S ''y ''D ''es máxima, los valores de ''E ''y ''N ''son mínimos (''E'' = ''N'' = 0), y el valor de I(S;D) es máximo (I(S;D)=H(S)=H(D)). Los valores de E y N son funciones no solo de la fuente y del destinatario, sino también del canal de comunicación CH. La introducción del canal de comunicación lleva directamente a la posibilidad de que se produzcan errores en el proceso de transmisión. El canal CH se puede definir como una matriz [p(d<sub>j</sub>|s<sub>i</sub>)], donde p(d<sub>j</sub>|s<sub>i</sub>) es la probabilidad condicional de ocurrencia de ''d<sub>j</sub>'' en el destinatario dado que ''s<sub>i</sib>'' ocurrió en la fuente ''S''. Los elementos de cada columna de [p(d<sub>j</sub>|s<sub>i</sub>)] suman uno. De este modo, ''E ''y ''N'' se pueden expresar como: [[File:Shannon 7.jpg|center]] <div align="right">(6)</div> [[File:Shannon 8.jpg|center]] <div align="right">(7)</div> donde [[File:Shannon 9.jpg]]. La capacidad del canal C se define como: [[File:Shannon 10.jpg|center]] <div align="right">(8)</div> Donde el máximo se toma sobre todas las posibles distribuciones [[File:Shannon 11.jpg]] en la fuente. La magnitud ''C'' se interpreta como la cantidad de información promedio más grande que puede ser transmitida sobre el canal de comunicación ''CH''.
Autores, Editores, Burócratas, Administradores
2226
ediciones

Menú de navegación