Tests d'Hypothèses et Inférence Statistique
Cet outil calcule l'entropie de Shannon basée sur un ensemble de probabilités ou à partir d'un message texte donné, fournissant une mesure de l'incertitude de l'information en bits.
Explorez différents scénarios pour comprendre comment l'entropie de Shannon est calculée et interprétée.
Une pièce équilibrée a deux résultats (Pile, Face) avec une probabilité égale.
Probabilités: 0.5, 0.5
Un dé à six faces qui est biaisé. Par exemple, la probabilité d'obtenir un 6 est élevée.
Probabilités: 0.1, 0.1, 0.1, 0.1, 0.1, 0.5
Un message texte court et répétitif a une faible entropie.
Texte: "abababab"
Un texte avec une variété de caractères a une entropie plus élevée.
Texte: "The quick brown fox jumps over the lazy dog."
p(x)
est la probabilité d'un événement x
. log₂(p(x))
représente le contenu d'information ou la 'surprise' de cet événement. Les événements avec une faible probabilité ont une surprise élevée. Nous multiplions la surprise de chaque événement par sa probabilité et sommons ces valeurs. Le signe négatif assure que le résultat est positif, car les probabilités sont ≤ 1 et leurs logarithmes sont non-positifs.