Pour qu’il y ait communication, il faut que le destinataire ignore ce qui va lui être transmis. Shannon nomme information la levée de cette incertitude, opérée par la réception d’un message. L’information est donc proportionnelle à la quantité de surprise que ce message contient : moins le destinataire est capable d’anticiper ce qu’il va recevoir, plus l’incertitude dissipée sera grande. La quantité d’information par message étant maximale quand la source est aléatoire. L’information, au sens de Shannon, n’est que cela.
Auteur:
Info: La théorie de l'information
Commentaires: 0