Abrir menú principal

DIA β

Cambios

Teoría de la información de Claude E. Shannon

1429 bytes añadidos, 14:14 29 jul 2016
sin resumen de edición
<div align="center">I(S;D)= H(S) − E = I(X;Y) = H(D) – N </div>     <div align="right">(5)</div>                                                                
La equivocación E y el ruido ''N ''son medidas de la independencia entre la fuente y el destinatario, dado que si ''S ''y ''D ''son completamente independientes, los valores de E y N son máximos(''E'' = ''H''(''S'') y ''N'' = ''H''(''D'')), y el valor de I(S;D) es mínimo (I(S;D)=0). Por otro lado, si la dependencia entre ''S ''y ''D ''es máxima, los valores de ''E ''y ''N ''son mínimos (''E'' = ''N'' = 0), y el valor de I(S;D) es máximo (I(S;D)=H(S)=H(D)). Los valores de E y N son funciones no solo de la fuente y del destinatario, sino también del canal de comunicación CH. La introducción del canal de comunicación lleva directamente a la posibilidad de que se produzcan errores en el proceso de transmisión. El canal CH se puede definir como una matriz [p(d<sub>j</sub>|s<sub>i</sub>)], donde p(d<sub>j</sub>|s<sub>i</sub>) es la probabilidad condicional de ocurrencia de ''d<sub>j</sub>'' en el destinatario dado que ''s<sub>i</sib>'' ocurrió en la fuente ''S''. Los elementos de cada columna de [p(d<sub>j</sub>|s<sub>i</sub>)] suman uno. De este modo, ''E ''y ''N'' se pueden expresar como: [[File:Shannon 7.jpg|center]] <div align="right">(6)</div> [[File:Shannon 8.jpg|center]] <div align="right">(7)</div> donde [[File:Shannon 9.jpg]]. La capacidad del canal C se define como: [[File:Shannon 10.jpg|center]] <div align="right">(8)</div> Donde el máximo se toma sobre todas las posibles distribuciones [[File:Shannon 11.jpg]] en la fuente. La magnitud ''C'' se interpreta como la cantidad de información promedio más grande que puede ser transmitida sobre el canal de comunicación ''CH''.
Autores, Editores, Burócratas, Administradores
2226
ediciones