Prueba de Hipótesis e Inferencia Estadística
Esta herramienta calcula la entropía de Shannon basándose en un conjunto de probabilidades o a partir de un mensaje de texto dado, proporcionando una medida de incertidumbre de información en bits.
Explora diferentes escenarios para entender cómo se calcula e interpreta la entropía de Shannon.
Una moneda justa tiene dos resultados (Cara, Cruz) con igual probabilidad.
Probabilidades: 0.5, 0.5
Un dado de seis caras que está sesgado. Por ejemplo, la probabilidad de obtener un 6 es alta.
Probabilidades: 0.1, 0.1, 0.1, 0.1, 0.1, 0.5
Un mensaje de texto corto y repetitivo tiene baja entropía.
Texto: "abababab"
Un texto con variedad de caracteres tiene mayor entropía.
Texto: "The quick brown fox jumps over the lazy dog."
p(x)
es la probabilidad de un evento x
. log₂(p(x))
representa el contenido de información o 'sorpresa' de ese evento. Los eventos con baja probabilidad tienen alta sorpresa. Multiplicamos la sorpresa de cada evento por su probabilidad y sumamos estos valores. El signo negativo asegura que el resultado sea positivo, ya que las probabilidades son ≤ 1 y sus logaritmos son no positivos.