<div align="center">I(S;D)= H(S) − E = I(X;Y) = H(D) – N </div> <div align="right">(5)</div>
La equivocación E y el ruido ''N ''son medidas de la independencia entre la fuente y el destinatario, dado que si ''S ''y ''D ''son completamente independientes, los valores de E y N son máximos(''E'' = ''H''(''S'') y ''N'' = ''H''(''D'')), y el valor de I(S;D) es mínimo (I(S;D)=0). Por otro lado, si la dependencia entre ''S ''y ''D ''es máxima, los valores de ''E ''y ''N ''son mínimos (''E'' = ''N'' = 0), y el valor de I(S;D) es máximo (I(S;D)=H(S)=H(D)). Los valores de E y N son funciones no solo de la fuente y del destinatario, sino también del canal de comunicación CH. La introducción del canal de comunicación lleva directamente a la posibilidad de que se produzcan errores en el proceso de transmisión. El canal CH se puede definir como una matriz [p(d<sub>j</sub>|s<sub>i</sub>)], donde p(d<sub>j</sub>|s<sub>i</sub>) es la probabilidad condicional de ocurrencia de ''d<sub>j</sub>'' en el destinatario dado que ''s<sub>i</sib>'' ocurrió en la fuente ''S''. Los elementos de cada columna de [p(d<sub>j</sub>|s<sub>i</sub>)] suman uno. De este modo, ''E ''y ''N'' se pueden expresar como: [[File:Shannon 7.jpg|center]] <div align="right">(6)</div> [[File:Shannon 8.jpg|center]] <div align="right">(7)</div> donde [[File:Shannon 9.jpg]]. La capacidad del canal C se define como: [[File:Shannon 10.jpg|center]] <div align="right">(8)</div> Donde el máximo se toma sobre todas las posibles distribuciones [[File:Shannon 11.jpg]] en la fuente. La magnitud ''C'' se interpreta como la cantidad de información promedio más grande que puede ser transmitida sobre el canal de comunicación ''CH''.