Dado un Vector de probabilidad sobre un alfabeto , se define la entropía de Shannon de como
Interpretación
La entropía de Shannon puede interpretarse como la “sorpresa promedio” que se obtiene al obtener el resultado de un experimento: se interpreta como una medida logarítmica de la sorpresa que produce el obtener en un resultado. En particular, observe que implica que la sorpresa, implica que la sorpresa, A menudo se menciona la interpretación de la entropía de Shannon como el promedio de “incertidumbre”. Sin embargo, un ejemplo a continuación comprueba que esta intuición es engañosa.
Ejemplos
Considere los registros con alfabetos y vectores de probabilidad correspondientes:
-
Bit aleatorio: y tal que . Entonces En cambio, si , , se tiene (donde se toma como el limite ).
-
, . Entonces
-
, . Entonces
-
con y , para . Entonces Mientras que I.e. aumenta la certeza (disminuye la incertidumbre), pero la entropía tiende a infinito.
Resultados
- Para cualquier vector de probabilidad , Se sigue de la concavidad de la función logaritmo y de la Desigualdad de Jensen.