sciences

Une ambiguïté rend cependant parfois difficile la compréhension des enjeux de la notion d'information. Le terme est en effet utilisé dans deux sens qui, tout en n'étant pas sans rapport, ne sont pas exactement les mêmes. Au sens strict de la théorie de l'information, l'information est une quantité, mesurée à l'aide d'une formule qui est sensiblement la même (mais avec une signe inversé) que celle proposée par le physicien autrichien Ludwig Boltzmann (1844-1906) à la fin du XIXè siècle pour mesurer l'entropie des gaz.
Mais parallèlement à ce sens strict, défini mathématiquement par une formule invariable à base de logarithmes, on utilise également ce terme "information" pour désigner un symbole numérique (0 ou 1) qui est codé de façon binaire.
L'informatique utilise cette notion principalement dans ce deuxième sens.

Auteur: Breton Philippe

Info: Une histoire de l'informatique, les origines de la notion d'information, p 47

[ computer ]

 

Commentaires: 0

Commentaires

No comments