Dado un Vector de probabilidad sobre un alfabeto , se define la entropía de Shannon de como

Interpretación

La entropía de Shannon puede interpretarse como la “sorpresa promedio” que se obtiene al obtener el resultado de un experimento: se interpreta como una medida logarítmica de la sorpresa que produce el obtener en un resultado. En particular, observe que implica que la sorpresa, implica que la sorpresa, A menudo se menciona la interpretación de la entropía de Shannon como el promedio de “incertidumbre”. Sin embargo, un ejemplo a continuación comprueba que esta intuición es engañosa.

Ejemplos

Considere los registros con alfabetos y vectores de probabilidad correspondientes:

  • Bit aleatorio: y tal que . Entonces En cambio, si , , se tiene (donde se toma como el limite ).

  • , . Entonces

  • , . Entonces

  • con y , para . Entonces Mientras que I.e. aumenta la certeza (disminuye la incertidumbre), pero la entropía tiende a infinito.

Resultados