Claude Shannon
Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.
Claude Shannon
Nom : Claude Elwood Shannon
Naissance : 30 avril 1916
Gaylord, Michigan, États-Unis
Décès : 24 février 2001 (à 84 ans)
Nationalité : États-Unis États-Unis
Profession : Ingénieur (« Le métier de base de l'ingénieur consiste à résoudre des problèmes de nature technologique, concrets et souvent complexes, liés à la conception, à la réalisation et à la mise...), Chercheur (Un chercheur (fem. chercheuse) désigne une personne dont le métier consiste à faire de la recherche. Il est difficile de bien cerner le métier de...)
Remarques : père fondateur, de la théorie (Le mot théorie vient du mot grec theorein, qui signifie « contempler, observer, examiner ». Dans le langage courant, une théorie est une...) de l'information

Claude Elwood Shannon (30 avril 1916 à Gaylord, Michigan - 24 février 2001) est un ingénieur électricien (Électricien est le nom donné au métier qu'exercent les hommes de l'art en matière d'électricité. Il est issu du terme électricité, puisque...) et mathématicien (Un mathématicien est au sens restreint un chercheur en mathématiques, par extension toute personne faisant des mathématiques la base...) américain. Il est l'un des pères, si ce n'est le père fondateur, de la théorie de l'information. Son nom est attaché à un célèbre " schéma de Shannon " très utilisé en sciences humaines, qu'il a constamment désavoué.

Biographie

Il étudie le génie électrique et les mathématiques (Les mathématiques constituent un domaine de connaissances abstraites construites à l'aide de raisonnements logiques sur des concepts tels que les nombres, les figures, les structures et les transformations. Les...) à l'Université (Une université est un établissement d'enseignement supérieur dont l'objectif est la production du savoir (recherche), sa conservation et sa transmission...) du Michigan en 1932. Il utilise notamment l'algèbre (L'algèbre, mot d'origine arabe al-jabr (الجبر), est la branche des mathématiques qui étudie, d'une façon...) booléenne pour sa maîtrise (La maîtrise est un grade ou un diplôme universitaire correspondant au grade ou titre de « maître ». Il existe dans plusieurs pays et correspond...) soutenue en 1938 au Massachusetts Institute of Technology (MIT). Il y explique comment construire des machines à relais en utilisant l'algèbre de Boole pour décrire l'état des relais (1 : fermé, 0 : ouvert).

Shannon travaille vingt ans au MIT, de 1958 à 1978. Parallèlement à ses activités académiques, il travaille aussi aux laboratoires Bell (Bell Aircraft Corporation est un constructeur aéronautique américain fondé le 10 juillet 1935. Après avoir construit des avions de combat durant la Seconde Guerre mondiale, mais aussi le premier avion à avoir franchi le...) de 1941 à 1972.

Claude Shannon (Claude Elwood Shannon (30 avril 1916 à Gaylord, Michigan - 24 février 2001) est un ingénieur électricien et mathématicien américain. Il est l'un des pères, si ce n'est le père...) est connu non seulement pour ses travaux dans les télécommunications (Les télécommunications sont aujourd’hui définies comme la transmission à distance d’information avec des moyens électroniques. Ce terme est plus utilisé que le terme synonyme officiel...), mais aussi pour l'étendue et l'originalité de ses hobbies, comme la jonglerie, la pratique du monocycle et l'invention de machines farfelues : une souris (Le terme souris est un nom vernaculaire ambigu qui peut désigner, pour les francophones, avant tout l’espèce commune Mus musculus,...) mécanique (Dans le langage courant, la mécanique est le domaine des machines, moteurs, véhicules, organes (engrenages, poulies, courroies, vilebrequins, arbres de transmission, pistons, ...), bref, de tout ce qui produit ou transmet un...) sachant trouver son chemin dans un labyrinthe, un robot (Un robot est un dispositif mécatronique (alliant mécanique, électronique et informatique) accomplissant automatiquement soit des tâches qui sont...) jongleur, un joueur d'échecs (roi tour contre roi), etc. L'un de ces "gadgets" présente toutefois un grand intérêt conceptuel, comme le montrent Philippe Boulanger (Le boulanger est spécialisé dans la fabrication du pain, de ses dérivés, de la viennoiserie.) et Alain Cohen dans Le Trésor des paradoxes (Éditions Belin, 2007) : "Claude Shannon voulut élaborer une " machine gratuite ", sans finalité : on la met en marche (La marche (le pléonasme marche à pied est également souvent utilisé) est un mode de locomotion naturel. Il consiste en un déplacement en appui alternatif...) en appuyant, comme sur tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) dispositif électromécanique (L'électromécanique est l'association des technologies de l'électricité et de la mécanique.), sur une touche " on " ; mais les choses prennent alors une tournure surprenante, car cette mise sous tension (La tension est une force d'extension.) déclenche un mécanisme provoquant aussitôt l’arrêt du gadget (On nomme gadget un objet souvent ingénieux, mais presque toujours inutile sur le long terme.) en mettant l’interrupteur sur " off ! " Ce type de comportement insolite caractérise les situations ubiquitaires où la communication (La communication concerne aussi bien l'homme (communication intra-psychique, interpersonnelle, groupale...) que l'animal (communication intra- ou inter-...) réside paradoxalement dans l'absence de communication, l'utilité dans l'absence d'utilité. Exemples : "La mode, c'est ce qui se démode" (Jean Cocteau); "Créer cette École (L’École Freudienne) afin de la dissoudre" (Jacques Lacan); "On se rend compte que l'on dort en se réveillant" (John Lennon); "Le bon fonctionnement de tout le système de l’épargne-logement suppose, paradoxalement, que certains ayants droit (les " bons frères ") renoncent précisément à faire valoir leur droit à un prêt au terme d’une période d’épargne" (Pierre Chaillol); "L'idéal (En mathématiques, un idéal est une structure algébrique définie dans un anneau. Les idéaux généralisent de façon...) révolutionnaire n’a pu que se troubler au moment de s’accomplir : la nécessité dont il se réclamait le condamnait à se perdre pour se réaliser, trahi et déformé moins par ses ennemis que par ceux-là mêmes qui ont voulu en assurer l’application" (Jean Starobinsky); "La virginité se perd en se prouvant" (Fernand Crommelynck). Un avatar géostratégique de cet automate (Un automate est un dispositif se comportant de manière automatique, c'est-à-dire sans intervention d'un humain. Ce comportement peut être figé, le système fera toujours la même chose, ou bien peut...) paradoxal de Shannon consiste dans le concept de dissuasion nucléaire (Le terme d'énergie nucléaire recouvre deux sens selon le contexte :): les puissances nucléaires amassent des armes atomiques dans le but... d'interdire toute velléité d'emploi de ce type d'armes, en se neutralisant mutuellement: ça sert à ne pas servir!

Souffrant de la maladie (La maladie est une altération des fonctions ou de la santé d'un organisme vivant, animal ou végétal.) d'Alzheimer dans les dernières années de sa vie (La vie est le nom donné :), Claude Shannon est mort (La mort est l'état définitif d'un organisme biologique qui cesse de vivre (même si on a pu parler de la mort dans un sens cosmique plus général, incluant par...) à 84 ans le 24 février 2001.

Son œuvre

Pendant la Seconde ( Seconde est le féminin de l'adjectif second, qui vient immédiatement après le premier ou qui s'ajoute à quelque chose de nature identique. La seconde est une unité de mesure du temps. La seconde d'arc est une mesure...) Guerre mondiale, Shannon travaille pour les services secrets de l'armée, en cryptographie (La cryptographie est une des disciplines de la cryptologie s'attachant à protéger des messages (assurant confidentialité, authenticité et intégrité) en s'aidant souvent de secrets ou clés.), chargé de localiser de manière automatique (L'automatique fait partie des sciences de l'ingénieur. Cette discipline traite de la modélisation, de l'analyse, de la commande et, de la régulation des systèmes dynamiques. Elle...) dans le code ennemi les parties signifiantes cachées au milieu du brouillage. Son travail est exposé dans un rapport secret (déclassifié dans les années 1980 seulement), qui donne naissance après-guerre à un article, A Mathematical Theory of Communications (1948), qui fut repris en 1949 sous forme de livre avec un ajout de Warren Weaver, son supérieur dans les services secrets. Cet ouvrage est centré autour (Autour est le nom que la nomenclature aviaire en langue française (mise à jour) donne à 31 espèces d'oiseaux qui, soit appartiennent au genre Accipiter, soit constituent les 5 genres Erythrotriorchis, Kaupifalco,...) de la problématique de la transmission du signal ( Termes généraux Un signal est un message simplifié et généralement codé. Il existe sous forme d'objets ayant des formes particulières. Les signaux lumineux sont employés depuis la nuit...).

Le schéma de Shannon

Pour décrire la communication entre machines, l'article de 1948 et le livre de 1949 commencent tous deux par un " schéma " qui connut dès lors une postérité étonnante en Sciences de l'information et de la communication, au point (Graphie) que Shannon s'en étonna et s'en dissocia. Le schéma modélise la communication entre machines en 5 éléments :

  • source --> émetteur --> message (La théorie de l'information fut mise au point pour déterminer mathématiquement le taux d’information transmis dans la communication d’un message par un canal de communication, notamment en présence de...) --> récepteur --> destinataire, dans un contexte (Le contexte d'un évènement inclut les circonstances et conditions qui l'entourent; le contexte d'un mot, d'une phrase ou d'un texte inclut les mots qui l'entourent. Le concept de contexte issu...) de bruit (Dans son sens courant, le mot de bruit se rapproche de la signification principale du mot son. C'est-à-dire vibration de l'air pouvant donner lieu à la création d'une sensation auditive.).

Ce schéma est la traduction " civile " d'un schéma préalable, utilisé dans le contexte militaire :

  • source --> encodeur --> signal --> décodeur --> destinataire, dans un contexte de brouillage.

Adéquat à décrire la communication entre machines, ce schéma ne modélise qu'imparfaitement la communication humaine[réf. nécessaire]. Pourtant, son succès est foudroyant, et il a participé largement à la création d'un champ (Un champ correspond à une notion d'espace défini:) disciplinaire, les sciences de l'information et de la communication. L'une des explications de ce succès est le fait qu'il se fond parfaitement dans une approche béhavioriste des médias (On nomme média un moyen impersonnel de diffusion d'informations (comme la presse, la radio, la télévision), utilisé pour communiquer. Les médias permettent de diffuser une information vers un grand nombre...). De plus, ce schéma dit canonique donne une consistance et une apparence de scientificité.

Shannon : l'unité de mesure (En physique et en métrologie, les unités sont des étalons pour la mesure de grandeurs physiques qui ont besoin de définitions précises pour être utiles. Les systèmes d'unité, définis en...)

Dans l'article comme dans le livre, il popularise l'utilisation du mot bit qui mesure l'unité élémentaire d'information numérique (Une information numérique (en anglais « digital ») est une information ayant été quantifiée et échantillonnée, par opposition à une information dite...), bien qu'il n'en soit pas l'inventeur (John Tukey fut le premier à utiliser le terme).

Le bit est une unité de mesure désignant le nombre (La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».) de chiffres binaires nécessaires pour coder une quantité (La quantité est un terme générique de la métrologie (compte, montant) ; un scalaire, vecteur, nombre d’objets ou d’une autre manière de dénommer la valeur d’une collection ou un...) d'information.

Pour coder 2 états (pile ou face), 1 Shannon (ou 1 bit) est nécessaire : 0 ou 1

Pour coder 4 états, on doit utiliser 2 Shannon (2 bits) : 00, 01, 10, 11.

5 bits minimum sont indispensable pour coder les 26 lettres de l'alphabet, car : (2^4= 16) < 26 \le (2^5 = 32)

Plus généralement, soit P le nombre d'états possibles, n le nombre de bits :

P = 2n

n = log2(P)

2^{(n-1)} < P \le 2^n

La relation de Shannon

Dans le domaine des télécommunications, la relation de Shannon permet de calculer la valence (ou nombre maximal d'états) en milieu perturbé :

Soit S le signal, N le bruit :

 n = \sqrt{1 + \frac{S} {N} }

On a alors le débit (Un débit permet de mesurer le flux d'une quantité relative à une unité de temps au travers d'une surface quelconque.) maximal :

 H log_2(1+ \frac{S}{N})

Ce résultat est indépendant de la vitesse (On distingue :) d'échantillonnage (L'échantillonnage est la sélection d'une partie dans un tout. Il s'agit d'une notion importante en métrologie : lorsqu'on ne peut pas saisir un événement dans son ensemble, il faut effectuer des mesures en nombre...) et du nombre de niveau d'un échantillon (De manière générale, un échantillon est une petite quantité d'une matière, d'information, ou d'une solution. Le mot est utilisé dans différents domaines :) (la valence).

Entropie (En thermodynamique, l'entropie est une fonction d'état introduite au milieu du XIXe siècle par Rudolf Clausius dans le cadre du second principe, d'après les travaux de Carnot[1]....) au sens (SENS (Strategies for Engineered Negligible Senescence) est un projet scientifique qui a pour but l'extension radicale de l'espérance de vie humaine. Par une évolution...) de Shannon

Un apport essentiel des travaux de Shannon concerne la notion d'entropie. Si l'on considère N événements de probabilité (La probabilité (du latin probabilitas) est une évaluation du caractère probable d'un évènement. En mathématiques, l'étude des probabilités est un sujet de grande importance donnant lieu...) p1, p2... pN, indépendants les uns des autres, alors leur entropie de Shannon est définie comme :

Entropie = - \sum_{i=1}^N p_i \log_2(p_i)

Il a par ailleurs :

  • établi un rapport entre augmentation d'entropie et gain d'information ;
  • montré l'équivalence de cette notion avec l’ entropie de Ludwig Boltzmann en thermodynamique (On peut définir la thermodynamique de deux façons simples : la science de la chaleur et des machines thermiques ou la science des grands systèmes...).

La découverte du concept ouvrait ainsi la voie aux méthodes dites d'entropie maximale (voir probabilité), donc au scanner (Un scanneur, ou numériseur à balayage est l'équivalent du terme anglais scanner, qui vient du verbe anglais to scan, signifiant « balayer » dans le sens de « parcourir une certaine étendue ».) médical, à la reconnaissance automatique des caractères et à l'apprentissage (L’apprentissage est l'acquisition de savoir-faire, c'est-à-dire le processus d’acquisition de pratiques, de connaissances, compétences, d'attitudes ou de...) automatique .

Anecdotes

  • En 1981, Claude Shannon a commencé à écrire un article intitulé Scientific Aspects of Juggling, sur l'art de la jonglerie. Cet article était prévu pour être publié dans Scientific American, mais ce ne fut finalement pas le cas. Néanmoins, cette ébauche a servi de base à la formalisation des mouvements de jonglerie par le siteswap.[1]
Page générée en 0.007 seconde(s) - site hébergé chez Amen
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
Ce site est édité par Techno-Science.net - A propos - Informations légales
Partenaire: HD-Numérique