Processeur
Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Microprocesseurs

Intel 80486DX2 microprocesseur en boîtier céramique PGA

L'introduction du microprocesseur dans les années 1970 a marqué de manière significative la conception et l'implémentation (Le mot implantation peut avoir plusieurs significations :) des unités centrales de traitement. Depuis l'introduction du premier microprocesseur (Intel 4004) en 1971 et du premier microprocesseur employé couramment (Intel 8080) en 1974, cette classe de processeurs a presque totalement dépassé toutes les autres méthodes d'implémentation d'unité centrale de traitement. Les fabricants d'ordinateurs centraux (mainframe et miniordinateurs) de l'époque ont lancé leurs propres programmes de développement de circuits intégrés pour mettre à niveau les architectures (Architectures est une série documentaire proposée par Frédéric Campain et Richard Copans, diffusé sur Arte depuis 1995.) anciennes de leurs ordinateurs et ont par la suite produit des microprocesseurs à jeu d'instructions compatible en assurant la compatibilité ascendante avec leurs anciens modèles. Les générations précédentes des unités centrales de traitement comportaient un assemblage de composants discrets et de nombreux circuits faiblement intégrés sur une ou plusieurs cartes électroniques. Les microprocesseurs sont construits avec un très petit nombre (La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».) de circuits très fortement intégrés (ULSI), habituellement un seul. Les microprocesseurs sont implémentés sur une seule puce électronique, donc de dimensions (Dans le sens commun, la notion de dimension renvoie à la taille ; les dimensions d'une pièce sont sa longueur, sa largeur et sa profondeur/son épaisseur, ou bien son...) réduites, ce qui veut dire des temps (Le temps est un concept développé par l'être humain pour appréhender le changement dans le monde.) de commutation plus courts liés à des facteurs physiques comme par exemple la diminution de la capacité parasite des portes. Ceci a permis aux microprocesseurs synchrones d'augmenter leur fréquence (En physique, la fréquence désigne en général la mesure du nombre de fois qu'un phénomène périodique se reproduit par unité de temps. Ainsi lorsqu'on emploie le mot fréquence sans précision, on...) de base de quelques dizaines de mégahertz à plusieurs gigahertz. De plus, à mesure que la capacité de fabriquer des transistors extrêmement petits sur un circuit intégré (Le circuit intégré (CI), aussi appelé puce électronique, est un composant électronique reproduisant une ou plusieurs fonctions électroniques plus ou...) a augmenté, la complexité (La complexité est une notion utilisée en philosophie, épistémologie (par exemple par Anthony Wilden ou Edgar Morin), en physique, en biologie (par exemple par Henri Atlan), en sociologie,...) et le nombre de transistors dans un seul processeur (Le processeur, ou CPU (de l'anglais Central Processing Unit, « Unité centrale de traitement »), est le composant de l'ordinateur...) a considérablement augmenté. Cette tendance largement observée est décrite par la loi de Moore, qui s'est avérée être jusqu'ici un facteur prédictif assez précis de la croissance de la complexité des processeurs (et de tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) autre circuit intégré).

Les processeurs multi cœur (multicores) récents comportent maintenant plusieurs cœurs dans un seul circuit intégré, leur efficacité dépend grandement de la topologie (La topologie est une branche des mathématiques concernant l'étude des déformations spatiales par des transformations continues (sans arrachages ni recollement des...) d'interconnexion entre les cœurs. De nouvelles approches comme la superposition (En mécanique quantique, le principe de superposition stipule qu'un même état quantique peut possèder plusieurs valeurs pour une certaine quantité observable...) de la mémoire (D'une manière générale, la mémoire est le stockage de l'information. C'est aussi le souvenir d'une information.) et du cœur de processeur (memory stacking) sont à l'étude et devraient conduire à un nouvel accroissement des performances. En se basant sur les tendances des 10 dernières années, les performances des processeurs devraient atteindre le Pétaflop, vers 2010 pour les serveurs, et à l'horizon (Conceptuellement, l’horizon est la limite de ce que l'on peut observer, du fait de sa propre position ou situation. Ce concept simple se décline en physique,...) 2030 dans les PC.

Début juin 2008 le supercalculateur militaire IBM (International Business Machines Corporation (IBM) est une société multinationale américaine présente dans les domaines du matériel informatique, du logiciel et des...) Roadrunner est le premier à franchir cette barre symbolique du Pétaflop. Puis en novembre 2008 c'est au tour du supercalculateur Jaguar (Le jaguar (Panthera onca) est un mammifère carnivore de la famille des félidés. C'est l'un des quatre « grands félins » du genre Panthera,...) de Cray. En avril 2009 ce sont les deux seuls supercalculateurs à avoir dépassé le Petaflop.

Tandis que la complexité, la taille, la construction, et la forme générale des processeurs ont fortement évolué au cours des soixante dernières années, la conception et la fonction de base n'ont pas beaucoup changé. Presque tous les processeurs communs d'aujourd'hui peuvent être décrits très précisément comme machines à programme enregistré de von Neumann. Alors que la loi de Moore, mentionnée ci-dessus, continue à être vérifiée, des questions ont surgi au sujet des limites de la technologie (Le mot technologie possède deux acceptions de fait :) des circuits intégrés à transistors. La miniaturisation des portes électroniques est si importante que les effets de phénomènes comme l'électromigration (dégradation progressive des interconnexions métalliques entraînant une diminution de la fiabilité (Un système est fiable lorsque la probabilité de remplir sa mission sur une durée donnée correspond à celle spécifiée dans le cahier des charges.) des circuits intégrés) et les courants de fuite (leur importance augmente avec la réduction des dimensions des circuits intégrés, ils sont à l'origine d'une consommation d'énergie électrique (Un apport d'énergie électrique à un système électrotechnique est nécessaire pour qu'il effectue un travail : déplacer une charge, fournir de la lumière, calculer. Ce...) pénalisante), auparavant négligeables, deviennent de plus en plus significatifs. Ces nouveaux problèmes sont parmi les nombreux facteurs conduisant les chercheurs à étudier d'une part, de nouvelles technologies de traitement telles que l'ordinateur quantique (Un ordinateur quantique (ou rarement calculateur quantique) repose sur des propriétés quantiques de la matière : superposition et intrication d'états quantiques. De petits ordinateurs quantiques ont déjà été...) l'usage (L’usage est l'action de se servir de quelque chose.) du calcul parallèle (En informatique, le calcul parallèle consiste en l'exécution simultanée d'une même tâche, partitionnée et adaptée afin de pouvoir être répartie...), et d'autre part, d'autres méthodes d'utilisation du modèle classique de von Neumann.

Page générée en 0.127 seconde(s) - site hébergé chez Amen
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
Ce site est édité par Techno-Science.net - A propos - Informations légales
Partenaire: HD-Numérique