[6]  ——————
    ∑''Ni''=1 ''S<sub>i</sub>'' La ecuación [6] puede simplificarse de la siguiente manera:    ''N'' ''S<sub>i</sub>'' [7]  ∑ — ''u<sub>i</sub>''    ''i''=1<sub>''S''</sub> Ahora, tenemos que ''S<sub>i </sub>/ S ''es la frecuencia con la cual aparece el símbolo ''i<sup>th</sup>'' en ''S,'' cuando ''S'' es una cadena finita. Si, en cambio, el largo de ''S'' permanece indeterminado (es decir, es una cadena tan larga como uno lo desee), entonces la frecuencia del símbolo ''i<sup>th</sup>'' se vuelve la de su probabilidad ''P<sub>i</sub>''. Entonces, para generalizar más los términos de la ecuación [7], tenemos que:     ''N'' [8]    ∑ ''P<sub>i</sub>u<sub>i</sub>''    ''i''=1 Finalmente, utilizando la ecuación [4] podemos substituir ''u<sub>i</sub>'' y obtener:      ''N'' [9]  ''H'' = − ∑ ''P<sub>i</sub>'' log ''P<sub>i</sub>'' (bits por símbolo)      ''i''=1 La ecuación [9] es la fórmula de Shannon para ''H'' = incerteza, la cual hemos llamado'' déficit de datos'' (en realidad, la fórmula original de Shannon incluye una constante positiva ''K'', la cual equivale a escoger una unidad de medida, bits en nuestro caso; aparentemente, Shannon uso la letra ''H'' en virtud del trabajo previo de R.V.L Harley).