import numpy as np
import matplotlib.pyplot as plt
# Fonction pour calculer l'entropie
def entropy(p):
if p == 0 or p == 1:
return 0
return -p * np.log2(p) - (1 - p) * np.log2(1 - p)
# Générer des probabilités de 0 à 1
= np.linspace(0, 1, 1000)
probabilities
# Calculer l'entropie pour chaque probabilité
= [entropy(p) for p in probabilities]
entropies
# Tracer les résultats
=(10, 6))
plt.figure(figsize='Entropie H(p)', color='blue')
plt.plot(probabilities, entropies, label'Entropie pour une variable avec deux résultats')
plt.title('Probabilité p')
plt.xlabel('Entropie H(p)')
plt.ylabel(True)
plt.grid(
plt.legend() plt.show()
Glossaire
Entropie
L’entropie en théorie de l’information quantifie l’incertitude ou l’imprévisibilité des résultats possibles d’une variable aléatoire. Elle mesure la quantité moyenne d’information produite par une source de données stochastique et est généralement exprimée en bits pour les systèmes binaires. L’entropie
L’entropie est maximisée lorsque tous les résultats sont également probables, auquel cas elle est égale au logarithme du nombre de résultats :
Utiliser la base logarithmique 2 est courant car cela mesure l’entropie en bits, ce qui est en accord avec les systèmes binaires et le traitement de l’information numérique. Une entropie élevée indique plus de hasard et moins de prévisibilité, tandis qu’une entropie faible suggère plus de prévisibilité et moins de contenu informatif.
Voici un programme Python qui visualise l’entropie d’une seule variable avec deux résultats. Le programme utilise Matplotlib pour tracer l’entropie en fonction de la probabilité de l’un des résultats (puisque la probabilité de l’autre résultat est simplement 1 moins la probabilité du premier résultat).
L’entropie
où
Voici le programme Python :
Explication :
Fonction d’Entropie : La fonction
entropy
calcule l’entropie pour une probabilité donnée . Elle gère les cas particuliers où est 0 ou 1, renvoyant 0 pour ces cas puisque l’entropie est nulle lorsqu’il n’y a pas d’incertitude (surprise).Plage de Probabilités : Le tableau
probabilities
contient 1000 valeurs également espacées entre 0 et 1.Calcul des Entropies : La liste
entropies
stocke les valeurs d’entropie calculées pour chaque probabilité dans le tableauprobabilities
.Traçage : Le programme utilise Matplotlib pour tracer l’entropie
en fonction de la probabilité . Le tracé comprend des étiquettes, un titre, une grille pour une meilleure lisibilité et une légende.
Cette visualisation illustre la relation entre l’entropie et la probabilité d’un résultat dans une variable binaire. Lorsque les deux résultats sont également probables (