C'est dans La théorie mathématique de la communication qu'apparaît pour la première fois le mot bit. À l'époque, tout est nouveau dans ce livre : l'information est une quantité mesurable à l'instar des grandeurs physiques, elle est liée à l'incertain et aux probabilités, elle est de nature discrète (on dit aujourd'hui digitale ou numérique). Ces idées forment la
trame de notre civilisation technologique, elles sont d'usage quotidien, au point que l'on peine à imaginer combien elles étaient novatrices en 1948.
Personne n'avait pensé non plus, avant Claude Shannon, que l'on pouvait réduire à quasiment rien le risque d'erreur dans la communication ou la conservation des contenus en introduisant de la redondance (pour mesurer l'information, on élimine la redondance) grâce aux « codes correcteurs d'erreur ». Sans les codes correcteurs, rien ne fonctionnerait aujourd'hui dans notre monde, ni les microprocesseurs, ni les mémoires, ni les réseaux, ni tout ce qui en dépend. Shannon n'a pas seulement fait la théorie de la communication, il l'a rendue possible à une échelle inconnue jusqu'alors.
D'autres domaines se sont emparés du schéma de la communication de Shannon, point de départ de développements qui ont mené aux sciences cognitives, et après la découverte du code génétique, la biologie a adopté le vocabulaire et les concepts de ce qu'on appelle désormais la théorie de l'information.
La théorie mathématique de la communication est l'un des livres qui ont changé le monde.
We publiceren alleen reviews die voldoen aan de voorwaarden voor reviews. Bekijk onze voorwaarden voor reviews.