Vous êtes ici :

  • Google+
  • Imprimer

Voilà un nom cité en introduction de bon nombre de cours de sciences humaines…

Qui était ce pionnier des théories de la communication ?

Dates principales

30 avril 1916 : naissance à Gaylord, Michigan, Etats-Unis
1932 : études en ingénierie électrique et mathématiques à l'Université du Michigan
1936 : double licence en mathématiques et en ingénierie électrique
1938 : publication de A Symbolic Analysis of Relay and Switching Circuits (Transactions of the AIEE, no 57). Shannon applique pour la première fois l'algèbre de Boole aux circuits de commutation automatique.
1940 : obtention d'un master en ingénierie électrique et d'un doctorat en mathématiques au Massachusetts Institute of Technology (M.I.T.). Shannon quitte le MIT pour devenir chercheur à Princeton.
1941-1972 : chercheur aux laboratoires Bell 
1948 (1949) : publication de A Mathematical Theory of Communication
1949 : mariage avec Mary Elizabeth Betty Moore, une collègue de chez Bell, analyste passionnée de mathématiques. Ils auront rois enfants.
1958-1978 : de nouveau enseignant et chercheur au Massachussets Institute of Technologie (MIT)
1978 : départ en retraite
24 février 2001 : décès à Medford, Massachussets, de la maladie d'Alzheimer.

  • Un contexte de guerre
    Les travaux autour de la communication prennent aux Etats-Unis une ampleur particulière dans le contexte de la seconde guerre mondiale. Le libre débat sur la guerre ne doit pas entraver la cohésion patriotique : on s'interroge donc au plus haut niveau sur la communication de masse en tant que moyen visant à l'adhésion de la nation à la participation à la guerre. On délaisse le terme propagande, connoté négativement, au profit de celui de persuasion. L'armée attend des applications pratiques, et tous azimuts, aux recherches en communication… A cette époque donc, les chercheurs sont amenés à plancher sur des programmes qui auront un impact considérable sur la construction des sciences de la communication. Ces grands programmes nous sont signalés ainsi par Serge Proulx :
    « • Au sein de l'armée américaine, pour le compte du Pentagone, le psychologue expérimental Carl I. Hovland (1912-1961) évalue des films de propagande destinés à convaincre les soldats américains en entraînement, d'une part, du bienfondé de l'engagement des Alliés dans la guerre, d'autre part, du fait que cette guerre pourrait durer plus longtemps que prévu (Hovland et al., 1949). […]
    • À la Bibliothèque du Congrès (Library of Congress), le politologue Harold D. Lasswell (1902-1978) met au point une méthodologie d'analyse de contenu et l'applique à des corpus de messages de propagande. […]
    • Au Massachusetts Institute of Technology (MIT) à Cambridge, subventionné par le Pentagone, le mathématicien Norbert Wiener (1894-1964) conduit des travaux de mathématique appliquée destinés à améliorer la précision des canons antiaériens […].
    • Dans les Laboratoires Bell à New York, le mathématicien Claude E. Shannon (1916-2001) mène des analyses cryptographiques en matière de télécommunication, recherches destinées à maîtriser les techniques d'encodage et décodage des messages. […]
    • À l'Office of Facts and Figures, agence gouvernementale créée en octobre 1941 et dont la mission consiste à maintenir le moral du public américain à l'orée d'une guerre mondiale, Wilbur Schramm (1907-1987) travaille à la rédaction des discours du Président Roosevelt pour diffusion radiophonique. En juin 1942, cette agence deviendra The Office of War Information (OWI), responsable des messages d'information et de propagande destinés aux publics domestiques et aux publics ennemis. » [1]
  • … et d'après-guerre.
    Au sortir de la deuxième guerre mondiale, le monde s'enfonce dans un sombre climat de guerre froide qui opposera deux blocs jusqu'à l'effondrement de l'URSS. Paradoxalement, les sciences sociales et humaines construiront une réponse à l'angoisse générée par cette nouvelle situation internationale : « De nombreuses tentatives émergent pour essayer de construire une science unifiée de l'homme, soit en montrant que telle discipline peut ramener les autres vers elle (la linguistique, la psychiatrie, les mathématiques vont se voir attribuer ce rôle matriciel), soit en dégageant une théorisation nouvelle qui permettrait une fusion de toutes les disciplines. La théorie générale des systèmes établie par Ludwig von Bertalanffy en 1950, la cybernétique développée par Norbert Wiener en 1948 et la théorie de la communication de Shannon et Weaver seront envisagées dans cette perspective. » [2]

Gaylord, Michigan, 3000 habitants. Claude Shannon naît en 1916 et grandit dans cette petite ville américaine tranquille. Son père y exerce la fonction de juge alors que sa mère y dirige une école. Les sciences et les techniques ne sont pas les centres d'intérêt privilégiés de ses parents, loin s'en faut. Mais c'est sans compter sur le grand-père… agriculteur inventif qui va marquer le jeune esprit de Claude par ces incessantes innovations. On lui doit par exemple une machine à laver et divers matériels agricoles. Toujours en éveil et désireux d'apprendre et de découvrir, Claude entre en 1932 au MIT (Michigan Institute of Technology) pour des études en ingénierie électrique et en mathématiques. Dans cette institution prestigieuse, où se conduisent des recherches sur ce qu'on finira par nommer 'sciences de l'information', Claude Shannon fait des rencontres particulièrement fructueuses et qui l'amèneront à la célébrité.

Théoricien de la communication

Shannon bénéficie au Michigan Institute of Technology des échanges avec Norbert Wiener, mathématicien et théoricien, fondateur de la cybernétique. L'influence de ce chercheur sera déterminante sur les travaux de Shannon. En effet, Norbert Wiener, en pleine deuxième guerre mondiale, en collaboration avec l'Université de Pennsylvanie où l'armée américaine a constitué un centre de calcul balistique, travaille avec opiniâtreté à l'élaboration d'un calculateur destiné à contrôler un canon antiaérien. Les problèmes techniques soulevés par le projet conduisent Wiener à isoler deux grands axes de réflexion : la transmission des messages, c'est-à-dire le problème de la communication, et le couplage de l'homme et de la machine. Il fonde alors les bases de la cybernétique, c'est-à-dire, la théorie de « la communication et de la commande chez l'animal et dans la machine » [3]. Wiener introduit par le biais de cette science de la commande et du contrôle la notion de feedback (rétroaction). Ces notions vont servir de socle à la réflexion de Shannon.

Parallèlement à la collaboration avec Wiener, Shannon est amené par un autre de ses professeurs, le mathématicien Vannevar Bush, à approfondir ses théories sur les circuits de commutations automatiques. En effet, depuis 1927, Vannevar Bush travaille sur le "Differential Analyser" (ordinateur mécanique), dédié au calcul des équations différentielles : mais son fonctionnement est lent et son paramétrage fastidieux. Il demande donc à son étudiant Shannon d'utiliser ses connaissances mathématiques pour optimiser le Differential Analyser. Suite à ces travaux spécifiques, en 1938, Shannon publie ses conclusions sous le titre « A Symbolic Analysis of Relay and Switching Circuits », où il applique pour la première fois l'algèbre de Boole aux circuits de commutation automatique.

En 1941, Shannon intègre les Bell Telephone Laboratories, et, en collaboration avec d'autres scientifiques, travaille sur de nouvelles méthodes plus fiables de transmission sur de grandes distances de l'information, par téléphone ou télégraphe. Ce contexte de travail sur l'amélioration des performances des systèmes de télécommunications a été déterminant pour l'élaboration de sa théorie mathématique de la communication. « Quand Shannon publie sa théorie dans le Bell System Technical Journal en 1948, le plus gros câble de l'époque ne pouvait transporter simultanément que 1800 conversations. » [4]

Ces études sont menées parallèlement à des travaux en cryptographie que Shannon mène pour le compte des services secrets américains (voir notre encadré sur le contexte de guerre), travaux dont l'objectif est de développer des techniques permettant de localiser automatiquement dans les messages ennemis brouillés les éléments de sens.

L'ensemble des projets sur lesquels Shannon a été impliqué le conduisent en 1948 à formuler ce qu'on considère comme la première théorie de l'information, d'abord dans un article scientifique, puis dans un livre co-signé par Warren Weaver paru l'année suivante et publié par l'Université de l'Illinois. Dans le fameux document A Mathematical Theory of Communication, il s'attache à montrer qu'un message spécifique peut être envoyé sans être affecté par un environnement producteur de bruit tel celui d'une conversation. Il faut pour cela que le message soit encodé de telle façon qu'il puisse s'auto-corriger, et les signaux seront reçus par le récepteur quelles que soient les possibles interférences présentes sur la ligne téléphonique ou télégraphique. L'ouvrage est donc centré autour de la problématique de la transmission du signal. Ainsi, Shannon établit son si fameux schéma :

source -> encodeur -> signal -> décodeur -> destinataire.

  • Les 5 parties d'un système de communication selon Shannon
    • une « source d'information » qui produit un message ou une séquence de messages pour être transmis(e) au terminal de réception ;
    • un « transmetteur » qui transforme le message de sorte que celui-ci puisse être transmis sous forme de signal ; dans le domaine de la téléphonie, cette opération consiste à changer les différences de pression du son en un courant électrique proportionnel ; ce « transmetteur » est généralement appelé « codeur » ;
    • un « canal » capable d'acheminer le signal ; le canal peut être une paire de fils de cuivre, un câble coaxial ou une fréquence radio, etc. ;
    • le « récepteur » ou « receveur » (en anglais : receiver) qui réalise l'opération de décodage, c'est-à-dire qui reconstruit le message à partir du signal émis ; il est aussi appelé décodeur ;
    • à l'autre bout de cette chaîne se trouve le destinataire : une personne, un ordinateur... à qui le message est adressé.

      [4] et voir aussi l'article Valorisation de l'information, Savoirs CDI.

Armand et Michelle Mattelart commentent ce schéma [5] :

« Shannon propose un schéma du «système général de communication ». Le problème de la communication est, selon lui, de « reproduire à un point donné, de manière exacte ou approximative, un message sélectionné à un autre point ». Dans ce schéma linéaire où les pôles définissent une origine et signalent une fin, la communication repose sur la chaîne des constituants suivants : la source (d'information) qui produit un message (la parole au téléphone), l'encoder, ou l'émetteur, qui transforme le message en signaux afin de le rendre transmissible (le téléphone transforme la voix en oscillations électriques), le canal, qui est le moyen utilisé pour transporter les signaux (câble téléphonique), le decoder, ou le récepteur, qui reconstruit le message à partir des signaux, et la destination, qui est la personne ou la chose à laquelle le message est transmis. L'objectif de Shannon est de dessiner le cadre mathématique à l'intérieur duquel il est possible de quantifier le coût d'un message, d'une communication entre les deux pôles de ce système, en présence de perturbations aléatoires, dites « bruit », indésirables parce qu'empêchant l'« isomorphisme », la pleine correspondance entre les deux pôles. »

Si la théorie de Shannon a été si marquante, c'est que de nombreuses applications ont pu en découler pour tous les domaines dans lesquels le langage est primordial comme la linguistique, la psychologie ou la cryptologie. Des années après la parution de son schéma, Shannon lui-même n'a eu de cesse de critiquer les applications qu'on en a faites et d'en souligner les faiblesses, s'étonnant même de sa popularité. Ce schéma est en effet adapté à la communication entre machine, mais insuffisant pour décrire la communication humaine. Sa théorie, uniquement basée sur une logique mécanique, ne s'intéresse pas au sens subjectif du message, que lui donne l'émetteur ou que lui attribue le destinataire. A quoi est donc lié le succès planétaire de Théorie mathématique de la communication ? Yves Winkin, explique :

« Le succès de la Théorie mathématique de la communication est dû à l'introduction écrite par Weaver, qui généralise la théorie de Shannon : « Le mot communication sera utilisé ici dans un sens très large incluant tous les procédés par lesquels un esprit peut en influencer un autre. Cela, bien sûr, comprend non seulement le langage écrit ou parlé, mais aussi la musique, les arts plastiques, le théâtre, la danse et, en fait, tout comportement humain. » Le livre s'ouvre sur un « modèle de la communication » fait de cinq boîtes et de cinq flèches (source d'information – émetteur – source de bruit – récepteur – destination), qui n'était au départ destiné qu'à représenter des « systèmes de communication » de messages discrets, mais que Weaver a généralisé à tout système, mécanique, vivant ou symbolique. On voit ainsi comment s'opère, subrepticement, non seulement le glissement de la transmission à la communication mais aussi le passage du particulier au général par le relais d'une mathématisation universalisante. »

  • Une information est codable donc manipulable par une machine
    Shannon pose que toute information étant codable, elle peut donc être manipulée par une machine. Le problème de départ est donc dans le système de codage… Le chercheur décide donc d'utiliser la logique booléenne et de développer un modèle qui réduise l'information à sa forme la plus simple : un système binaire de choix oui/non codé 1 ou 0. A la fin des années 40, cette logique l'amène à utiliser pour la première fois le terme 'bit', contraction de Binary digIT, dans La théorie mathématique de la communication. Il marque ainsi définitivement l'histoire de l'informatique, en posant que la transmission de séries de bits améliore la performance de la transmission. « On peut dire que toutes les communications numériques de sons, d'images et de données – qu'elles soient réalisées sur des lignes téléphoniques, dans des fibres optiques, à travers l'atmosphère, ou entre un processeur de PC et sa mémoire – dépendent des fondations mathématiques de la théorie de l'information élaborée à la fin des années 1940 dans les Bell Labs.  » [4]
    « L'idée, qui paraît évidente aujourd'hui, de transmettre des images, de la vidéo à l'aide d'un flux de 0 et de 1 était née. C'est à cette époque que Shannon propose d'utiliser un système de codage entre la source et le canal de transmission ainsi qu'un décodeur entre le canal et le récepteur. Ce principe est toujours utilisé aujourd'hui, entre autres pour les transmissions sur fibres optiques et les liaisons par satellites. Dans sa publication, Shannon propose de transmettre dans un canal des mots composés de symboles élémentaires de durée finie. C'est encore lui qui introduit la notion de code correcteur d'erreur et la notion de redondance, qui consiste à insérer des symboles supplémentaires dans les mots de code, ce qui permet la correction des erreurs de transmission. » [6]

Valeur et définition de l'information

On remarque des explications qui précèdent que si l'on parle de théorie de la communication, on est peut-être plus proche de concepts liés à l'information. Voici l'éclairage que nous donnent Patrick-Yves Badillo et Dominique Roux pour lever cette ambiguïté : « Shannon élabore une théorie de l'information, appelée aussi « théorie mathématique de la communication ». En effet, pour les ingénieurs, « communication » et « information » sont à l'époque des termes synonymes. La communication, apparaît comme un pur mécanisme de transmission d'information et l'information, elle, est conçue comme un signal. » [4]

C'est la transmission de l'information qui en fait est le sujet traité par Shannon tout au long de sa vie. Sur cette question, il va produire des théories, et même des théorèmes. Par exemple, il pose un théorème sur l'échantillonnage optimal des signaux analogiques qui est aujourd'hui toujours enseigné dans les universités : 'un signal contenant une fréquence maximale de valeur f doit être échantillonné à la fréquence de 2f pour que toute l'information qu'il contient soit conservée'.

Il va réfléchir également à la valeur d'une information :

« Shannon [montre] que la valeur d'une information dépend de sa probabilité d'apparition (annoncer une dissolution de l'Assemblée nationale informe plus qu'une prévision de beau temps un 23 juillet). » [7]

« C'est toujours pour obtenir une définition mathématique de l'information que Shannon et Warren Weaver introduisent la notion d'entropie, jusque-là réservée au domaine de la thermodynamique. Cette notion peut s'expliquer en considérant une situation où M événements discrets mi peuvent se produire avec une probabilité d'apparition Pi. Si nous ne possédons aucune information a priori sur ce système, alors toutes les probabilités Pi sont égales. La réalisation d'un événement apporte des informations sur le système étudié et cette information est d'autant plus grande que l'événement est improbable. La probabilité d'apparition d'un événement est donc reliée à l'information. […] » [6]

Et de proposer une définition de l'information : « Si l'on pose a priori que tout système, mécanique ou vivant, tend vers l'« entropie », c'est-à-dire vers la disparition totale de toute circulation d'information, on peut proposer que tout ce qui permet à un système de contrer l'entropie relève de l'information. » [2]

Des inventions, toujours des inventions…

Crédit : MIT Museum, Boston / Nixdorf MuseumsForum, Paderborn
Crédit : MIT Museum, Boston / Nixdorf MuseumsForum, Paderborn

En digne héritier de son grand-père, Claude Shannon n'a de cesse d'appliquer son esprit scientifique à la réalisation de machines innovantes. Citons en quelques-unes pour peaufiner le portrait de Shannon :

  • A l'occasion d'une visite aux Etats-Unis pendant la guerre, le mathématicien anglais Alan Turing et lui travaillent sur le projet d'une machine permettant de crypter la voix, afin que Roosevelt et Churchill puissent avoir des échanges téléphoniques transatlantiques sécurisé.
  • Theseus, la souris mécanique : doté d'une 'intelligence artificielle' grâce à ses relais magnétiques, l'animal électrique – un des premiers exemples de machine intelligente – a appris à sortir seul de labyrinthes métalliques, et donc à démontrer sa capacité d'apprentissage.
  • En 1950, Shannon écrit l'article 'Programmation d'un ordinateur pour jouer aux échecs' et se lance dans la fabrication de la machine, première en son genre. En 1965, le champion du monde d'échecs, Mikhail Botvinnik, se confronte à la machine, … et la bat en 42 mouvements. Cette invention pionnière a fait progresser les recherches en matière d'intelligence artificielle. Certaines des stratégies de jeu qu'il a incluses dans son ordinateur sont encore utilisées. Son innovation ouvre la voie aux jeux sur ordinateur.
  • Signalons également, l'invention des inventions : la machine « gratuite » c'est-à-dire sans finalité, l' « ultimate machine ». La mettre en route, en enfonçant le bouton « on », comme sur tout dispositif électronagnétique, c'est déclencher un mécanisme qui provoque l'arrêt de l'appareil et positionnant l'interrupteur sur « off ».

Exposition Claude Shannon, Musée Heinz Nixdorf, Paderborn, Allemagne, 2008

  • Ses autres prouesses : jongler avec trois balles tout en se déplaçant sur un monocycle ; jouer de la clarinette ; écrire des vers ; lancer moult devinettes !

Conclusion

L'extraordinaire et insatiable esprit scientifique de Shannon lui vaudra bien des titres et des récompenses. L'impressionnante littérature qu'il a laissée couvre un spectre infini de domaines. On dit même que sans la théorie de la communication de Shannon, il n'y aurait pas eu internet : chaque modem, chaque fichier compressé, chaque code de correction d'erreurs lui doit quelque chose.

« On peut dire que toutes les communications numériques de sons, d'images et de données – qu'elles soient réalisés sur des lignes téléphoniques, dans des fibres optiques, à travers l'atmosphère, ou entre un processeur de PC et sa mémoire – dépendent des fondations mathématiques de la théorie de l'information élaborée à la fin des années 1940 dans les Bell Labs. 2 ». [4]

Shannon est donc bien un 'incontournable' de l'info-com !

Pour aller plus loin

  • Mattelart, A. et Mattelart, M. (2004) Histoire des théories de la communication. 3e édition. Paris : Éditions La Découverte
  • Proulx, Serge. Naissance des sciences de la communication dans le contexte militaire des années 1940 aux Etats-Unis. Hermès, 48, CNRS, Paris, 2007, p. 47-53.
  • Claude E. Shannon, A Symbolic Analysis of Relay and Switching Circuits, Thesis (M.S.), Massachusetts Institute of Technology, Dept. of Electrical Engineering, 1940 (Opens external link in new windowlire en ligne)
  • Claude E. Shannon, A Mathematical Theory of Communication, Bell System Technical Journal, vol. 27, p. 379-423 and 623-656, July and October, 1948 (ISBN 0252725484) (Opens external link in new windowlire)
  • Claude E. Shannon, Communication Theory of Secrecy Systems, Bell System Technical Journal, Vol 28, p. 656-715, Oct 1949.
  • "Shannon, Claude Elwood." Complete Dictionary of Scientific Biography. 2008. Retrieved October 25, 2012 from Encyclopedia.com : Opens external link in new windowhttp ://www.encyclopedia.com/doc/1G2-2830906087.html
  • Patrick-Yves Badillo et Dominique Roux, Les 100 mots des télécommunications, P.U.F. « Que sais-je ? », 2009, p. 9
  • Véronique Bedin et Martine Fournier (dir.), Claude Shannon, Warren Weaver, La Bibliothèque idéale des sciences humaines, Editions Sciences humaines, 2009. URL : Opens external link in new windowwww.cairn.info/la-bibliotheque-ideale-des-sciences-humaines-article-375.htm
  • Armand Mattelart et Michèle Mattelart, Histoire des théories de la communication, La Découverte « Repères », 2010
  • Frédéric Gauthier, Shannon Claude Elwood – (1916-2001), Encyclopædia Universalis [en ligne], consulté le 2 octobre 2012. URL : Opens external link in new windowhttp ://www.universalis-edu.com/encyclopedie/claude-elwood-shannon/

Notes de bas de page

[1] Serge Proulx, Naissance des sciences de la communication dans le contexte militaire des années 1940 aux Etats-Unis. Hermès, 48, CNRS, Paris, p. 47-53.

[2] Yves Winkin, Communication, Encyclopædia Universalis [en ligne], consulté le 2 octobre 2012. URL : Opens external link in new windowhttp://www.universalis-edu.com/encyclopedie/communication/

[3] Jean-Luc Verley, Wiener, Norbert - (1894-1964), Encyclopædia Universalis [en ligne], consulté le 14 octobre 2012. URL : Opens external link in new windowhttp://www.universalis-edu.com/encyclopedie/norbert-wiener/ 

[4] Patrick-Yves Badillo et Dominique Roux, Les 100 mots des télécommunications, P.U.F. « Que sais-je ? », 2009, p. 9

[5] Armand Mattelart et Michèle Mattelart, Histoire des théories de la communication, La Découverte « Repères », 2010, p. 30

[6] Frédéric Gauthier, Shannon, Claude Elwood – (1916-2001), Encyclopædia Universalis [en ligne], consulté le 2 octobre 2012. URL : Opens external link in new windowhttp ://www.universalis-edu.com/encyclopedie/claude-elwood-shannon/

[7] Véronique Bedin et Martine Fournier (dir.), Claude Shannon, Warren Weaver, La Bibliothèque idéale des sciences humaines, Editions Sciences humaines, 2009. URL : Opens external link in new windowwww.cairn.info/la-bibliotheque-ideale-des-sciences-humaines-article-375.htm )

Recherche avancée