Par définition générale la " quantité d’information " I est le logarithme de l’étendue des possibles, c’est-à-dire de l’inverse de la probabilité. […]
Il se trouve que ce concept, noté, I, se retrouve en mécanique statistique sous le nom d’entropie changée de signe, ou " néguentropie ", notée N. Au total, donc :
I = N = - Log P.
Auteur:
Info: Le temps déployé
Commentaires: 0