Recherchez sur tout Techno-Science.net
       
Techno-Science.net : Suivez l'actualité des sciences et des technologies, découvrez, commentez
Catégories
Techniques
Sciences
Encore plus...
Techno-Science.net
Partenaires
Organismes
 CEA
 ESA
Sites Web
Photo Mystérieuse

Que représente
cette image ?
 A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | +
Histoire de l'informatique

Quand on parle d'informatique on pense souvent ordinateur. Pourtant, l'informatique existe depuis plus longtemps. Il s'agit avant tout de méthode technique pour améliorer le calcul. Ensuite sont apparues les manipulations de données non calculatoires, et la recherche (La recherche scientifique désigne en premier lieu l’ensemble des actions entreprises en vue de produire et de développer les connaissances scientifiques. Par extension métonymique, la recherche scientifique désigne également le cadre social,...) de l'IA.

L'ENIAC
L'ENIAC

Premiers outils

Un boulier
Un boulier

Depuis des milliers d'années, l'homme (Un homme est un individu de sexe masculin adulte de l'espèce appelée Homme moderne (Homo sapiens) ou plus simplement « Homme ». Par...) a créé et utilisé des outils l'aidant à calculer. Au départ, la plupart des sociétés ont sans doute utilisé la main (La main est l’organe préhensile effecteur situé à l’extrémité de l’avant-bras et relié à ce dernier par le...), ainsi que d'autres parties du corps, comme auxiliaires de calcul. Puis apparurent les entailles dans du bois, les entassements de cailloux, de coquillages ou d'osselets (il est intéressant de remarquer que le mot " calcul " provient du mot latin, calculi qui signifiait " cailloux "). Le premier exemple d'outil (Un outil est un objet finalisé utilisé par un être vivant dans le but d'augmenter son efficacité naturelle dans l'action. Cette augmentation se traduit par la...) plus complexe est l'abaque, qui connut diverses formes, jusqu'au boulier toujours utilisé en Chine. Parmi les algorithmes les plus anciens, on compte des tables datant de l'époque d'Hammurabi (env. -1750).

Vers 1617, John Napier invente une sorte d'abaque perfectionné. Son invention des logarithmes permit en 1625 à William Oughtred de développer la règle à calcul qui fut utilisée jusqu'à l'apparition des calculatrices de poche par de nombreux ingénieurs. Ainsi, par exemple, une grande partie des calculs nécessaires au programme Apollo (Le programme Apollo est le programme spatial des États-Unis d'Amérique qui était destiné à permettre à l'homme de marcher sur la Lune puis d'en revenir. Il a été lancé par John F. Kennedy le 25 mai...) furent effectués avec des règles à calcul.

Premiers calculateurs mécaniques

Les premiers outils autonomes — mécaniques — apparurent au XVIe ou XVIIe siècle. Limités tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) d'abord aux simples opérations d'addition (L'addition est une opération élémentaire, permettant notamment de décrire la réunion de quantités ou l'adjonction de grandeurs extensives de...) et de soustraction (La soustraction est l'une des opérations basiques de l'arithmétique. La soustraction combine deux ou plusieurs grandeurs du même type, appelées opérandes, pour donner un...), ils utilisaient des pignons et roues (La roue est un organe ou pièce mécanique de forme circulaire tournant autour d'un axe passant par son centre.) à dents d'horlogerie.

Il est difficile de dire qui créa le premier modèle de ces machines. Deux manuscrits de Léonard de Vinci, écrits vers 1500, semblaient décrire un tel mécanisme. Une analyse plus approfondie de ces manuscrits montre qu'il s'agit en fait de machines de levage. Des modèles fonctionnant ont pu être fabriqués par la suite mais il n'en reste pas de trace (TRACE est un télescope spatial de la NASA conçu pour étudier la connexion entre le champ magnétique à petite échelle du Soleil et la...).

Wilhelm Schickard (Wilhelm Schickard (né le 22 avril 1592 à Herrenberg, mort de la peste bubonique le 23 octobre 1635 à Tübingen) est un pasteur et universitaire souabe qui conçut la première machine...) en 1623, dans une lettre écrite à Johannes Kepler, propose l'utilisation d'une machine décrite comme une horloge à calcul capable de " calculer immédiatement les nombres donnés automatiquement ; additionner, soustraire, multiplier et diviser, etc. ", aucun exemplaire d'époque n'a été retrouvé mais il a été possible d'en construire à partir de ses descriptions.

En 1640, le jésuite hollandais Jean Ciermans mentionne dans ses Disciplinae Mathematicae un appareil à roues pour effectuer sans erreur les multiplications et les divisions mais il n'en donne aucune description.

Du fait qu'aucun modèle fonctionnel antérieur n'a pu être découvert et qu'aucun n'avait été commercialisé, on crédite en général Blaise Pascal (Blaise Pascal (19 juin 1623, Clermont (Auvergne) - 19 août 1662, Paris) est un mathématicien et physicien, philosophe, moraliste et théologien français.) de la création du premier calculateur mécanique : la pascaline. Le premier exemplaire fut construit vers 1642 et n'était capable d'effectuer que des additions et des soustractions.

En 1673, Gottfried Leibniz en perfectionne le principe pour la rendre capable d'effectuer des multiplications, des divisions et même des racines carrées, le tout par une série d'additions sous la dépendance d'un compteur. Leibniz inventa aussi le système binaire (Le système binaire est un système de numération utilisant la base 2. On nomme couramment bit (de l'anglais binary digit, soit « chiffre binaire ») les chiffres de la numération binaire. Ceux ci ne peuvent prendre que...), système de numération (Un système de numération est un ensemble de règles d'utilisation des signes, des mots ou des gestes permettant d'écrire, d'énoncer ou de mimer des nombres. Sous leur forme écrite, ces derniers sont nés, en même temps que l'écriture, de...) qui sera approprié aux futurs ordinateurs (soit sous forme de binaire pur pour les machines scientifiques, soit sous forme de décimal codé binaire, ou DCB, pour les machines commerciales qui font plus d'entrée-sortie que de calcul). Néanmoins, jusqu'en 1945, les machines étaient encore basées sur le système décimal (Le système décimal est un système de numération utilisant la base dix. Dans ce système, les puissances de dix et leurs multiples bénéficient d'une représentation...), plus difficile à implémenter.

À la fin du XVIIIe siècle, des machines étaient capables de réaliser un grand nombre (La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».) d'opérations afin de calculer des fonctions polynomiales et de là, obtenir des tables logarithmiques et trigonométriques (par approximation (Une approximation est une représentation grossière c'est-à-dire manquant de précision et d'exactitude, de quelque chose, mais encore assez...) polynomiale). Il est étonnant de constater que c'est précisément le développement de l'informatique (L´informatique - contraction d´information et automatique - est le domaine d'activité scientifique, technique et industriel en rapport avec le traitement automatique de l'information par des machines telles que les ordinateurs,...) qui a rendu (Le rendu est un processus informatique calculant l'image 2D (équivalent d'une photographie) d'une scène créée dans un logiciel de...) aujourd'hui l'usage (L’usage est l'action de se servir de quelque chose.) de ces tables presque inutiles.

Premières machines programmables

carte perforée
carte perforée

La principale marque d'un ordinateur (Un ordinateur est une machine dotée d'une unité de traitement lui permettant d'exécuter des programmes enregistrés. C'est un ensemble de circuits électroniques permettant de manipuler des données sous...) est sa programmabilité. Celle-ci permet à l'ordinateur d'émuler toute autre machine à calculer en changeant la séquence des instructions disponibles.

En 1725, Basile Bouchon, un Lyonnais, met au point (Graphie) un système de programmation (La programmation dans le domaine informatique est l'ensemble des activités qui permettent l'écriture des programmes informatiques. C'est une étape importante de la conception de logiciel (voire de matériel, cf. VHDL).) d'un métier à tisser à l'aide d'un ruban perforé. C'était le début de la programmation. Cette invention est perfectionnée en 1728 par son assistant, Jean-Baptiste Falcon, qui utilise une série de cartes perforées reliées entre elles. Jacques de Vaucanson (Jacques de Vaucanson (24 février 1709, Grenoble - 21 novembre 1782, Paris) est un inventeur et mécanicien français.) reprend l'idée en remplaçant ruban et cartes par un cylindre (Un cylindre est une surface dans l'espace définie par une droite (d), appelée génératrice, passant par un point variable décrivant une courbe plane fermée (c),...) métallique perforé. On crédite souvent Joseph-Marie Jacquard de l'invention des cartes perforées, mais il ne fit que perfectionner et commercialiser le métier à tisser automatique (L'automatique fait partie des sciences de l'ingénieur. Cette discipline traite de la modélisation, de l'analyse, de la commande et, de la régulation des...) au début du XIXe siècle.

En 1833, Charles Babbage (Charles Babbage (né le 26 décembre 1791 à Teignmouths, Devonshire, Angleterre, mort le 18 octobre 1871) était un mathématicien britannique et le précurseur de l'informatique.) décrivit sa machine analytique. C'était un ordinateur mécanique (Dans le langage courant, la mécanique est le domaine des machines, moteurs, véhicules, organes (engrenages, poulies, courroies, vilebrequins, arbres de transmission,...) programmable utilisant des cartes perforées comme données (Dans les technologies de l'information (TI), une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction d'affaire, d'un...) et fonctionnant à la vapeur (). Bien que sa théorie (Le mot théorie vient du mot grec theorein, qui signifie « contempler, observer, examiner ». Dans le langage courant, une théorie est une idée ou une...) ait été correcte, le manque de pièces mécaniques suffisamment précises et de financement public firent obstacle à la construction de cette machine. Ada Lovelace (Augusta Ada King, comtesse Lovelace ou simplement Ada Lovelace, née à Londres le 10 décembre 1815 et morte à Londres le 27 novembre 1852, est principalement...) créa une série de programmes (suite de cartes perforées) pour cette machine, ses efforts firent d'elle la première programmeuse du monde (Le mot monde peut désigner :).

Sur les conseils d'Herman Hollerith (qui allait créer IBM), le Bureau du recensement (Le recensement est une opération statistique de dénombrement d'une population.) américain (United States Census Bureau) utilisa des cartes perforées pour le recensement de 1890.

Au XXe siècle, l'électricité (L’électricité est un phénomène physique dû aux différentes charges électriques de la matière, se manifestant par une énergie. L'électricité désigne également la branche de la physique qui étudie les phénomènes électriques...) permit de remplacer les calculateurs mécaniques par des moteurs (Un moteur est un dispositif transformant une énergie non-mécanique (éolienne, chimique, électrique, thermique par exemple) en une énergie mécanique ou travail.[réf. nécessaire]) électriques.

Les calculateurs analogiques

Avant la Seconde ( Seconde est le féminin de l'adjectif second, qui vient immédiatement après le premier ou qui s'ajoute à quelque chose de nature identique. La seconde est une unité de mesure du temps. La seconde d'arc est une mesure d'angle plan. La...) Guerre mondiale, les ordinateurs analogiques, qu'ils fussent mécaniques ou électriques, étaient considérés comme le dernier cri de la technologie (Le mot technologie possède deux acceptions de fait :) et beaucoup pensaient qu'ils seraient le futur (Futurs est une collection de science-fiction des Éditions de l'Aurore.) de l'informatique. Ces ordinateurs analogiques utilisaient des quantités physiques, telles que la tension (La tension est une force d'extension.), le courant ou la vitesse (On distingue :) de rotation des axes, pour représenter les nombres. Ainsi, ils devaient être reprogrammés manuellement à chaque nouveau problème. Leur avantage par rapport aux premiers ordinateurs numériques était leur capacité à traiter des problèmes plus complexes, avec une certaine forme de parallélisme.

Les calculateurs stochastiques, où la grandeur physique (Une grandeur physique est un ensemble d'unités de mesure, de variables, d'ordres de grandeur et de méthodes de mesure (qui sont l'objet de la métrologie) lié à un aspect ou phénomène particulier de la physique. Par exemple, la grandeur longueur...) était remplacée par une probabilité (La probabilité (du latin probabilitas) est une évaluation du caractère probable d'un évènement. En mathématiques, l'étude des probabilités est un...), parurent sur le moment être l'avenir du calculateur analogique : ils étaient en effet bon marché, faciles à produire en masse (Le terme masse est utilisé pour désigner deux grandeurs attachées à un corps : l'une quantifie l'inertie du corps (la masse inerte) et l'autre la contribution du corps à la...), et rapides (en particulier pour les multiplications). Mais les ordinateurs numériques, plus faciles encore à programmer, remplacèrent ces ordinateurs analogiques.

Première génération d'ordinateurs (1938-1956)

Enigma, une machine de chiffrement électromécanique à cylindres; la version ci-dessus est probablement militaire, mais est similaire à la version commerciale Enigma-D
Enigma, une machine de chiffrement (En cryptographie, le chiffrement (parfois appelé à tort cryptage) est le procédé grâce auquel on peut rendre la compréhension d'un document impossible à toute personne qui n'a pas la clé de (dé)chiffrement.) électromécanique (L'électromécanique est l'association des technologies de l'électricité et de la mécanique.) à cylindres; la version ci-dessus est probablement militaire, mais est similaire à la version commerciale Enigma-D

L'ère des ordinateurs modernes commença avec les grands développements de la Seconde Guerre mondiale. Les circuits électroniques, tubes à vide (Le vide est ordinairement défini comme l'absence de matière dans une zone spatiale.), condensateurs et relais remplacèrent leurs équivalents mécaniques et le calcul numérique (Une information numérique (en anglais « digital ») est une information ayant été quantifiée et échantillonnée, par opposition à une information dite...) remplaça le calcul analogique (Le concept d'analogique est utilisé par opposition à celui de numérique.). Les ordinateurs conçus à cette époque forment la première génération d'ordinateurs.

Vers 1954, les mémoires magnétiques (tores de ferrite pour la mémoire (D'une manière générale, la mémoire est le stockage de l'information. C'est aussi le souvenir d'une information.) vive, bandes, ensuite disques amovibles puis fixes pour la mémoire de masse) supplantèrent toute autre forme de stockage et étaient dominantes au milieu des années 1970.

De nombreuses machines électromécaniques furent construites avec des capacités diverses. Elles n'eurent qu'un impact limité sur les constructions à venir.

En 1937, George Stibitz construisit le premier circuit binaire, un additionneur : le Model K. K, pour Kitchen. En effet, il construit son appareil dans sa cuisine (La cuisine est l'ensemble des techniques de préparation des aliments en vue de leur consommation par les êtres humains (voir cuisinerie). La cuisine est diverse à travers le monde, fruit des ressources...).

En 1938, Konrad Zuse commença la construction des premières séries-Z, des calculateurs électromécaniques comportant une mémoire et une programmation limitée. Zuse fut soutenu par la Wehrmacht qui utilisa ces systèmes pour des missiles guidés. Les séries-Z furent les précurseurs de nombreuses avancées technologiques telles que l'arithmétique binaire (L'arithmétique binaire est la manière dont on mène les calculs en base 2 (système binaire).) et les nombres en virgule flottante.

Konrad Zuse mit au point cette année-là le Z1 (ou Versuchsmodell), qui ne fonctionna jamais vraiment correctement faute de crédits de développement (le Troisième Reich ne croyait guère à l'idée de Zuse).

La même année (Une année est une unité de temps exprimant la durée entre deux occurrences d'un évènement lié à la révolution de la Terre autour du Soleil.), John Vincent Atanasoff et Clifford E. Berry, de l'Université (Une université est un établissement d'enseignement supérieur dont l'objectif est la production du savoir (recherche), sa conservation et...) de l'État de l'Iowa, développèrent l'ordinateur Atanasoff-Berry, un additionneur (Un additionneur est un circuit électronique permettant de faire une addition.) 16 bits binaire. Cette machine avait pour but de résoudre des systèmes d'équations linéaires. La mémoire était stockée à l'aide de condensateurs fixés à un tambour rotatif.

En novembre 1939, John Vincent Atanasoff et Clifford E. Berry achevèrent l'ABC (Atanasoff Berry Computer). Composé de lampes et de tambours pour la mémoire, il fut construit pour résoudre des systèmes d'équations linéaires. Bien que n'étant pas programmable, il était basé sur trois idées propres aux ordinateurs modernes : l'utilisation du système binaire (plus fiable et plus simple à mettre au point que le système décimal), la séparation (D'une manière générale, le mot séparation désigne une action consistant à séparer quelque chose ou son résultat. Plus particulièrement il est employé...) entre le calcul et la mémoire et l'utilisation de composants électroniques plutôt que des éléments mécaniques pour réaliser les calculs. Il pouvait stocker 60 mots de 50 bits dans ses deux tambours, fonctionnait à une vitesse d'horloge de 60 Hz et réalisait 30 additions par seconde.

En 1940, George Stibitz et Samuel Williams achevèrent le Complex Number Computer (ou Model I), un calculateur à base de relais téléphoniques. Ce fut la première machine utilisée à distance via une ligne de téléphone (Le téléphone est un système de communication, initialement conçu pour transmettre la voix humaine.). Il réalisait une multiplication (La multiplication est l'une des quatre opérations de l'arithmétique élémentaire avec l'addition, la soustraction et la division .) en une minute ( Forme première d'un document : Droit : une minute est l'original d'un acte. Cartographie géologique ; la minute de terrain est la carte originale, au crayon, levée sur le terrain. ...).

Pendant la Seconde Guerre mondiale, le Royaume-Uni fit de grands efforts à Bletchley Park pour déchiffrer les codes des communications militaires allemandes. Le principal système de chiffrement allemand, Enigma (et ses différentes variantes), fut attaqué avec l'aide de machines appelées bombes, créées par les services secrets polonais et améliorés par les Britanniques, qui permettaient de trouver les clés de chiffrement après que d'autres techniques en eurent réduit le nombre possible. Les Allemands créèrent également une autre série de systèmes de chiffrement (appelés FISH par les Britanniques) très différents d'Enigma. Pour casser ces systèmes, le professeur Max Newman et ses collègues (dont Alan Turing, inventeur de la machine théorique qui porte son nom) fabriquèrent Colossus ou la " bombe de Turing ".

Colossus était la première machine totalement électronique, elle utilisait uniquement des tubes à vide et non des relais. Elle était composée de 2 000 tubes à vide et lisait des rubans perforés à la vitesse de 5 000 caractères par seconde. Colossus implémentait les branchements conditionnels. Neuf machines ont été construites sur le modèle Mk II ainsi qu'une dixième lorsque la seule Mk I a été convertie en Mk II. L'existence de cette machine a été tenue secrète jusque dans les années 1970 ce qui explique pourquoi de nombreuses histoires de l'informatique n'en font pas mention. Il a été dit que Winston Churchill a personnellement donné l'ordre de leur destruction en pièces de moins de vingt centimètres pour conserver le secret. Il existe actuellement un projet (Un projet est un engagement irréversible de résultat incertain, non reproductible a priori à l’identique, nécessitant le concours et l’intégration...) actif pour reconstruire une de ces machines.

En 1941, Konrad Zuse construit le Z3. Il était basé sur 2 600 relais de téléphone, lisait les programmes sur bandes magnétiques et fonctionnait parfaitement, ce qui en fit le premier ordinateur programmable fonctionnel. Il utilisait l'arithmétique (L'arithmétique est une branche des mathématiques qui comprend la partie de la théorie des nombres qui utilise des méthodes de la géométrie algébrique et de la théorie des groupes. On l'appelle...) binaire et les nombres à virgule flottante. Le Z3 pouvait enregistrer 64 nombres de 22 bits, avait une fréquence (En physique, la fréquence désigne en général la mesure du nombre de fois qu'un phénomène périodique se reproduit par unité de temps....) de 5,33 Hz et réalisait quatre additions par seconde ou 15 multiplications en une minute.

En 1944, le Harvard Mark I (ou l'ASCC, Automatic Sequence Controlled Calculator) fut mis au point par Howard H. Aiken chez IBM (International Business Machines Corporation (IBM) est une société multinationale américaine présente dans les domaines du matériel informatique, du logiciel et des services informatiques.). C'était une machine de calcul décimal qui lisait les programmes depuis une bande de papier (Le papier (du latin papyrus) est une matière fabriquée à partir de fibres cellulosiques végétales et animales. Il se présente sous forme de feuilles minces et...). Elle pesait cinq tonnes et occupait une place de 37 mètres carrés. Elle était composée de plusieurs calculateurs qui travaillaient en parallèle et réalisait trois opérations sur 23 chiffres par seconde.

L'ENIAC
L'ENIAC

Début 1946, Presper Eckert et John William Mauchly achevèrent l'ENIAC (Electronic Numerical Integrator and Computer), qui est souvent considéré comme le premier ordinateur tout électronique universel. Il avait été commandé en 1942 par l'armée américaine afin d'effectuer les calculs de balistique (La balistique est la science qui a pour objet l'étude du mouvement des projectiles.). L'ENIAC utilisait des tubes à vide (au nombre de 17 468) contrairement au Z3 qui utilisait des relais mécaniques. Néanmoins, il faisait ses calculs en système décimal. Malgré la véhémence de ses détracteurs qui auguraient de sa fragilité (La fragilité est l'état d'une substance qui se fracture lorsqu'on lui impose des contraintes mécaniques ou qu'on lui fait subir des déformations brutales (c'est-à-dire sous forme de...) (celles des tubes à vide), il était très fiable pour l'époque et pouvait calculer plusieurs heures (L'heure est une unité de mesure  :) entre deux pannes. Physiquement c'était un monstre: il pesait plus de 30 tonnes, occupait 72 m² et consommait une puissance (Le mot puissance est employé dans plusieurs domaines avec une signification particulière :) de 160 kW. Il tournait à 100 kHz, était composé de 20 calculateurs fonctionnant en parallèle et pouvait effectuer 100 000 additions ou 357 multiplications par seconde.

À partir de 1948 apparurent les premières machines à architecture (L’architecture peut se définir comme l’art de bâtir des édifices.) de von Neumann : contrairement à toutes les machines précédentes, les programmes étaient stockés dans la même mémoire que les données et pouvaient ainsi être manipulés comme des données (l'avenir révèlera tardivement qu'en fin de compte l'idée n'était pas bonne). La première machine utilisant cette architecture était le SSEM (Small-Scale Experimental Machine) construit à l'université de Manchester en 1948. Le SSEM fut suivi en 1949 par le Manchester Mark I qui inaugura un nouveau type de mémoire composée de tubes cathodiques. La machine était programmée avec le programme stocké en mémoire dans un tube cathodique (Le tube cathodique (CRT ou Cathode Ray Tube en anglais), fut inventé par Karl Ferdinand Braun. Le dispositif est constitué d'un filament chauffé, de cathodes et d'anodes en...) et les résultats étaient lus sur un deuxième tube cathodique.

Parallèlement l'université de Cambridge développa l'EDSAC, inspiré des plans de l'EDVAC, le successeur de l'ENIAC. Contrairement à l'ENIAC qui utilisait le calcul en parallèle, l'EDVAC et l'EDSAC possédaient une seule unité de calcul. Il utilisait un type de mémoire différent du Manchester Mark I, constitué de lignes à retard de mercure. L'EDSAC tournait à une vitesse d'horloge de 0,5 MHz.

On peut considérer que l'architecture de tous les ordinateurs actuels dérive de celle de Manchester Mark I / EDSAC / EDVAC.

En 1950 naquît le premier ordinateur soviétique, le MESM (???? en russe, Small Electronic Calculating Machine), sous la direction de Sergei Alexeevich Lebedev à l'institut (Un institut est une organisation permanente créée dans un certain but. C'est habituellement une institution de recherche. Par exemple, le Perimeter Institute for Theoretical Physics est un tel institut.) d'Électrotechnologie de Kiev (Kiev (???? - Kyïv en ukrainien, ???? en russe, Kijów en polonais) est la capitale et la plus grande ville de l'Ukraine, c'est aussi le chef-lieu de la région et une des plus anciennes villes de...). Il était composé de 6 000 tubes à vide, consommait 25 kW et réalisait 3 000 opérations par seconde.

En février 1951, le premier modèle de Ferranti Mark I, version commerciale du Manchester Mark I et premier ordinateur commercial (Un commercial (une commerciale) est une personne dont le métier est lié à la vente.) de l'histoire (Les Histoires ou l'Enquête (en grec ancien Ἱστορίαι / Historíai) sont la seule œuvre connue de l'historien grec...), est vendu. Il s'en vendra 9 jusqu'en 1957.

Quatre mois (Le mois (Du lat. mensis «mois», et anciennement au plur. «menstrues») est une période de temps arbitraire.) plus tard, P. Eckert et J. Mauchly de Remington Rand commercialisèrent l'UNIVAC I (Universal Automatic Computer). Contrairement aux machines précédentes, il ne lisait pas des cartes perforées mais des cassettes métalliques. Il possédait 5 200 tubes à vide, avait une mémoire à lignes à retard de mercure de 1 000 mots de 72 bits et consommait 125 kW. Il exécutait 8 333 additions ou 555 multiplications par seconde. 46 exemplaires furent vendus au total ( Total est la qualité de ce qui est complet, sans exception. D'un point de vue comptable, un total est le résultat d'une addition, c'est-à-dire une somme. Exemple :...), à plus d'un million (Un million (1 000 000) est l'entier naturel qui suit neuf cent quatre-vingt-dix-neuf mille neuf cent quatre-vingt-dix-neuf (999 999) et qui précède un million un (1 000 001)....) de dollars l'unité.

En avril 1952, IBM produit son premier ordinateur, l'IBM 701, pour la défense américaine. L'IBM 701 utilisait une mémoire à tubes cathodiques de 2 048 mots de 36 bits. Il effectuait 16 000 additions ou 2 200 multiplications par seconde. 19 machines seront installées au total.

La même année, IBM est contacté pour mettre en chantier la production des ordinateurs du réseau (Un réseau informatique est un ensemble d'équipements reliés entre eux pour échanger des informations. Par analogie avec un filet (un réseau est un « petit rets », c'est-à-dire un petit filet), on appelle...) SAGE. Une cinquantaine de machines, portant le nom AN/FSQ7, sera produite. Chaque machine comportait 75 000 tubes, pesait 275 tonnes et consommait 750 kW.

En juillet 1953, IBM lance l'IBM 650, ordinateur scientifique (Un scientifique est une personne qui se consacre à l'étude d'une science ou des sciences et qui se consacre à l'étude d'un domaine avec la rigueur et les méthodes scientifiques.) comme tous ceux des séries 600 (son successeur sera le 1620). Il était composé de tubes à vide et avait une mémoire à tambour de 2 000 mots de 10 digits, mais était relativement lent. Environ 2 000 unités furent produites jusqu'en 1962. L'instabilité des résultats d'équations différentielles mise en évidence pour la première fois sur cette machine par Marion Créhange à l'université de Nancy aurait pu faire naître dès les années 1950 les questions relatives au chaos.

En avril 1955, IBM lance l'IBM 704, premier ordinateur commercial capable aussi de calculer sur des nombres à virgule flottante. L'architecture du 704 a été significativement améliorée par rapport au 701. Il utilisait une mémoire à tores de ferrite de 32 768 mots de 36 bits, bien plus fiable et plus rapide que les tubes cathodiques et les autres systèmes utilisés jusqu'alors. D'après IBM, le 704 pouvait exécuter 40 000 instructions par seconde. 123 machines seront vendues jusqu'en 1960.

Deuxième génération (1956-1963)

La deuxième génération d'ordinateurs est basée sur l'invention du transistor en 1947. Cela permit de remplacer les fragiles et encombrantes ampoules par un composant plus petit et fiable. Les ordinateurs composés de transistor sont considérés comme la deuxième génération et ont dominé l'informatique dans la fin des années 1950 et le début des années 1960. Malgré l'utilisation de transistors et de circuits imprimés, ces ordinateurs étaient encore encombrants et utilisés par les universités, gouvernements et grandes sociétés uniquement. Par exemple, l'IBM 650 de 1954 composé de tubes à vide pesait 900 kg et son alimentation environ 1 350 kg, chacun enfermé dans un module de près de 2,5 m³. Il coûtait 500 000 $ ou pouvait être loué 3 500 $ par mois. De plus sa mémoire n'était que de 2 000 mots de 10 digits.

En 1955, Maurice Wilkes inventa la microprogrammation, désormais universellement utilisée dans la conception des processeurs. Le set d'instruction (Une instruction est une forme d'information communiquée qui est à la fois une commande et une explication pour décrire l'action, le comportement, la méthode ou la tâche qui devra commencer, se...) du processeur (Le processeur, ou CPU (de l'anglais Central Processing Unit, « Unité centrale de traitement »), est le composant de l'ordinateur qui...) est défini par un type de programmation.

En 1956, IBM sortit son premier système de disque (Le mot disque est employé, aussi bien en géométrie que dans la vie courante, pour désigner une forme ronde et régulière, à l'image d'un palet — discus en latin.) magnétique, RAMAC (Random Access Method of Accounting and Control). Il utilisait 50 disques de 24 pouces en métal (Un métal est un élément chimique qui peut perdre des électrons pour former des cations et former des liaisons métalliques ainsi que des liaisons...), avec 100 pistes par face. Il pouvait enregistrer cinq mégaoctets de données et coûtait 10 000 $ par mégaoctet.

Le premier langage de programmation (Un langage de programmation est un code de communication, permettant à un être humain de dialoguer avec une machine en lui soumettant des instructions et...) universel de haut niveau à être implémenté, le Fortran (Formula Translator), fut aussi développé par IBM à cette période. (Le Plantalkül, langage de haut niveau (Un langage de haut niveau en informatique est un langage de programmation qui permet au programmeur de s'abstraire de détails inhérents au fonctionnement de la machine, ceux-ci étant pris en compte lors de la compilation. Il permet...) développé par Konrad Zuse en 1945 n'avait pas encore été implémenté à cette époque.)

En 1959, IBM lança l'IBM 1401 (commercial), qui utilisait des cartes perforées. Il fut le plus grand succès dans l'histoire de l'informatique avec 12 000 unités vendues. Il utilisait une mémoire magnétique de 4 000 caractères (étendue plus tard à 16 000 caractères).

En 1960, IBM lança l'IBM 1620 (scientifique). Il écrivait à l'origine sur des rubans perforés, mais évolua rapidement pour utiliser des lecteurs de cartes perforées comme le 1442. 2 000 unités furent vendues. Il utilisait une mémoire magnétique de 60 000 caractères décimaux. Un exemplaire opérationnel en fut longtemps présent au palais de la Découverte (Le Palais de la découverte est un musée et centre culturel scientifique parisien. Il est situé dans le VIIIe arrondissement, avenue Franklin-Delano-Roosevelt. Il a...).

En 1960, l'IBM 7000 est le premier ordinateur à base de transistors.

La même année, Digital Equipment Corporation (DEC) lança le PDP-1 (Programmed Data Processor). Le PDP-1 était le premier ordinateur interactif et a lancé le concept de mini-ordinateur. Il avait une vitesse d'horloge de 0,2 MHz et pouvait stocker 4 096 mots de 18 bits. Il effectuait 100 000 opérations par seconde. Vendu pour seulement 120 000 $ environ, il était le premier ordinateur accessible sur le simple budget (Un budget est un document comptable prévisionnel distinguant les recettes et les dépenses.) d'un (gros) service sans remonter à la direction générale.

Troisième génération (1963-1971)

La troisième génération d'ordinateurs est celle des ordinateurs à circuit intégré (Le circuit intégré (CI), aussi appelé puce électronique, est un composant électronique reproduisant une ou plusieurs fonctions électroniques plus ou moins complexes, intégrant souvent plusieurs types de composants électroniques de base dans un...). C'est à cette date que l'utilisation de l'informatique a explosé.

En 1964 IBM annonça la série 360, première gamme d'ordinateurs compatibles entre eux et première gamme aussi à combiner par conception le commercial et le scientifique. Plus de 14 000 ordinateurs IBM 360 furent vendus jusqu'en 1970, date où on les remplaça par la série 370 beaucoup moins chère à puissance égale (mémoires bipolaires à la place des ferrites).

Toujours en 1964, DEC lança le PDP-8, machine bien moins encombrante destinée aux laboratoires et à la recherche. Il avait une mémoire de 4 096 mots de 12 bits et tournait à 1 MHz. Il pouvait effectuer 100 000 opérations par seconde. Le PDP-8 se taillera rapidement une place de choix dans les laboratoires, aidé par son langage FOCAL facile à maîtriser.

En 1966, Hewlett-Packard (Hewlett-Packard Company, officiellement abrégée en HP, est une entreprise d'informatique et d'électronique multinationale américaine. Elle fait partie des 40 plus grosses entreprises du monde. Ses principaux...) entra dans le domaine des ordinateurs universels (par opposition aux ordinateurs spécifiques) avec son HP-2115. Celui-ci supportait de nombreux langages, dont l'Algol et le Fortran, comme les " grands ". Le BASIC (En programmation, BASIC est un acronyme pour Beginner's All-purpose Symbolic Instruction Code. qui désigne une famille de langages de programmations...) y sera adjoint plus tard.

En 1967, le gouvernement français lance le Plan Calcul (Le Plan Calcul était un plan gouvernemental français lancé en 1966 par le général De Gaulle sur l'impulsion de Michel Debré, destiné à assurer l'indépendance du pays en matière de gros ordinateurs.) destiné à assurer l'indépendance du pays (Pays vient du latin pagus qui désignait une subdivision territoriale et tribale d'étendue restreinte (de l'ordre de quelques centaines de km²), subdivision de la civitas gallo-romaine. Comme la civitas qui subsiste le plus souvent...) en matière (La matière est la substance qui compose tout corps ayant une réalité tangible. Ses trois états les plus communs sont l'état solide, l'état liquide, l'état gazeux. La matière occupe de l'espace et...) de gros ordinateurs.

En 1969, Data General vendit un total de 50 000 ordinateurs Nova (En astronomie, une nova est une étoile qui devient très brutalement extrêmement brillante, avec une grande augmentation de son éclat, qui peut être de l'ordre de 10 magnitudes. Cette vive luminosité ne dure que...) à 8 000 $ l'unité. Le Nova était l'un des premiers mini-ordinateurs 16 bits. La version Supernova qui lui succédera en 1971 effectuait une multiplication en une microseconde, performance spectaculaire à l'époque. Le processeur principal était contenu sur un circuit imprimé (Le circuit imprimé est un support, généralement une plaque, destiné à regrouper des composants électroniques, afin de réaliser un système plus complexe.) de 15 pouces. Dans le même temps (Le temps est un concept développé par l'être humain pour appréhender le changement dans le monde.), grâce à une politique de mise en commun gratuite de logiciels particulièrement novatrice (et vue (La vue est le sens qui permet d'observer et d'analyser l'environnement par la réception et l'interprétation des rayonnements lumineux.) aujourd'hui comme l'ancêtre de l'Open Source), l'IBM 1130 se tailla la part du lion (Le lion (Panthera leo) est un mammifère carnivore de la famille des félidés du genre Panthera (félins). Il est surnommé « le roi des animaux » car sa crinière lui...) dans les écoles d'ingénieurs du monde entier.

Le circuit intégré a été inventé par Jack St. Clair Kilby en 1958. Le premier circuit intégré a été produit en septembre 1958 mais les ordinateurs l'utilisant ne sont apparus qu'en 1963. L'un de leurs premiers usages était dans les systèmes embarqués, notamment par la NASA (La National Aeronautics and Space Administration (« Administration nationale de l'aéronautique et de l'espace ») plus connue sous son abréviation NASA, est l'agence...) dans l'ordinateur de guidage d'Apollo et par les militaires dans le missile (Un missile est un projectile autopropulsé et guidé, constitué de :) balistique intercontinental LGM-30. Le circuit intégré autorisa le développement d'ordinateurs plus compacts. On les appela les mini-ordinateurs.

À noter que Philips (marque hollandaise bien connue de produits grand public) lança une série d'ordinateurs du type " 360 " pour concurrencer IBM, ils étaient plus rapides et largement aussi fiables (c’est-à-dire fort peu...) mais ils utilisaient un système d'exploitation propre et disparurent rapidement du marché. Siemens, Digital Equipment, HP, tentèrent également de supplanter IBM sur ce créneau (Au Moyen Âge, le mot créneau, ou en ancien français quernal, aquarniau, carnel ou créniau, désignait toute ouverture pratiquée au sommet d'une tour ou...) du " 360 " mais sans grand succès. Seuls Control-Data et Cray purent rivaliser avec les hauts de gammes d'IBM dans les années 70-80.

" Mini-ordinateurs ", à partir de 1973

Le mini-ordinateur a été une innovation des années 1970 qui devint significative vers la fin de celles-ci. Il apporta la puissance de l'ordinateur à des structures décentralisées, non seulement grâce à un encombrement plus commode, mais également en élargissant le nombre de constructeurs d'ordinateurs. DEC devint dans les années 1980 le deuxième fabricant d'ordinateurs derrière IBM (avec un chiffre (Un chiffre est un symbole utilisé pour représenter les nombres.) d'affaire représentant le cinquième de celui-ci) grâce à ses ordinateurs populaires PDP (surtout le PDP-11, première machine de DEC à utiliser des mémoires de 16 bits et non de 12, et machine sur laquelle et pour laquelle fut développé le langage C) et VAX, qui apportera le confort du système VMS.

L'intégration de circuits intégrés à grande échelle (La grande échelle, aussi appelée échelle aérienne ou auto échelle, est un véhicule utilisé par les sapeurs-pompiers, et qui...) conduisit au développement de processeurs très petits, comme celui qui analyse les données de vol dans les avions F14A Tomcat de l'US Navy. On ignorait alors encore que l'explosion (Une explosion est la transformation rapide d'une matière en une autre matière ayant un volume plus grand, généralement sous forme de gaz. Plus cette...) à distance d'une charge (La charge utile (payload en anglais ; la charge payante) représente ce qui est effectivement transporté par un moyen de transport donné, et qui donne lieu à un paiement ou un bénéfice...) nucléaire (Le terme d'énergie nucléaire recouvre deux sens selon le contexte :) les rendrait instantanément inopérants (effet EMP).

En 1973, le TV Typewriter de Don Lancaster permit le premier d'afficher des informations alphanumériques sur une télévision (La télévision est la transmission, par câble ou par ondes radioélectriques, d'images ou de scènes animées et généralement sonorisées qui sont reproduites sur un poste récepteur appelé...) ordinaire. Il était composé de 120 $ de composants électroniques, incluait deux cartes mémoires et pouvait générer et stocker 512 caractères. Une cassette optionnelle fournissait une capacité de 100 pages de textes supplémentaires. Clive Sinclair (Sir Clive Sinclair (né le 30 juillet 1940) est un entrepreneur et inventeur britannique.) se basera plus tard sur cette approche pour construire son Sinclair ZX80.

Dans les années 1970 IBM a sorti une série de mini-ordinateurs. La série 3 : 3/6, 3/8, 3/10, 3/12, 3/15. Ensuite dans les années 1980 la série 30 : 32, 34, 36, 38. Une troisième série a succédé à la série 30 : les AS/400.

Quatrième génération (1971 à nos jours)

Une définition (Une définition est un discours qui dit ce qu'est une chose ou ce que signifie un nom. D'où la division entre les définitions réelles et les définitions nominales.) non universellement acceptée associe le terme de quatrième génération à l'invention du microprocesseur par Marcian Hoff (Marcian Hoff surnommé Ted Hoff (28 octobre 1937 à Rochester) est un ingénieur docteur en électronique américain, inventeur du microprocesseur pour la société Intel en 1970.). En pratique et à la différence des autres changements de génération, celui-ci constitua plus une évolution (presque passée inaperçue) qu'une révolution : les circuits s'étaient miniaturisés de plus en plus depuis l'invention du circuit intégré, ils continuaient simplement à le faire comme par le passé (Le passé est d'abord un concept lié au temps : il est constitué de l'ensemble des configurations successives du monde et s'oppose au futur sur une...).

C'est pour cette raison que certains considèrent que les générations sont devenues des questions de type de logiciel :

  • Première génération : codage (De façon générale un codage permet de passer d'une représentation des données vers une autre.) machine direct en binaire
  • Deuxième génération : langage assembleur
  • Troisième génération : langages évolués (Fortran, COBOL (COBOL est un langage de programmation de troisième génération créé en 1959 (officiellement le 18 Septembre 1959). Son nom est l'acronyme de COmmon Business Oriented Language qui révèle...), Simula, APL, etc.)
  • Quatrième génération : langages évolués de deuxième génération comme Pascal et C++, dit " structurés ", apparition des langages "Objets" et langages d'interrogation de très haut niveau comme SQL
  • Un projet de cinquième génération japonaise avait été lancé par le MITI au tout début des années 1980. Il devait être articulé sur les moteurs d'inférence et le langage Prolog, mais en dépit de budgets importants le projet n'aboutit pas.

Les microprocesseurs

Le 15 novembre 1971, Intel dévoile le premier microprocesseur commercial, le 4004. Il a été développé pour Busicom, un constructeur japonais. Les microprocesseurs regroupent la plupart des composants de calcul (horloge et mémoire mises à part pour des raisons techniques) sur un seul circuit. Couplé à un autre produit, la puce mémoire, le microprocesseur permet une diminution nouvelle des coûts. Le 4004 ne réalisait que 60 000 opérations par seconde, mais la puissance de ses successeurs répondit à la loi de Moore.

Les super-calculateurs

Les superordinateurs intégrèrent aussi des microprocesseurs. En 1976, le Cray-1 fut développé par Seymour Cray (Seymour Roger Cray (28 septembre 1925 à Chippewa Fall dans le Wisconsin - 5 octobre 1996), ingénieur de génie, a conçu plusieurs superordinateurs et fonda la société qui porte son nom, Cray...), qui avait quitté Control Data en 1972 pour créer sa propre compagnie. C'était l'un des premiers ordinateurs à mettre en pratique le traitement vectoriel, qui appliquait la même instruction à une série consécutive d'opérandes (évitant ainsi des coûts de décodage répétés). Le Cray-1 pouvait calculer 150 millions d'opérations à virgule flottante par seconde. 85 exemplaires furent vendus à cinq millions de dollar l'unité. Parmi ses clients en France :

  • L'École polytechnique (simulations et calculs numériques)
  • Michelin (étude de résistance des pneumatiques par des méthodes d'éléments finis)
  • Peugeot (Peugeot est une marque de constructeur automobile français fondée par Armand Peugeot de la famille Peugeot en 1896. Le siège est à Paris et les bureaux...) (simulations intensives de déformations de l'habitacle d'une voiture en cas de choc (Dès que deux entitées interagissent de manière violente, on dit qu'il y a choc, que ce soit de civilisation ou de particules de hautes énergies.) frontal ou latéral)

Les contrôleurs de communication (La communication concerne aussi bien l'homme (communication intra-psychique, interpersonnelle, groupale...) que l'animal (communication intra- ou inter- espèces) ou...)

Eux aussi bénéficièrent de l'usage des microprocesseurs et l'on peut même dire que la généralisation des réseaux informatiques n'a été possible que par l'invention des microprocesseurs. Les contrôleurs 3745 (IBM) utilisaient intensivement cette technologie. Dans le même temps, aux États-Unis, la compagnie AT&T se rendit compte qu'avec tous ses standards téléphoniques interconnectés, elle se trouvait sans l'avoir cherché disposer du plus grand réseau d'ordinateurs des États-Unis (un standard téléphonique, depuis l'invention des microprocesseurs, tient beaucoup plus de l'ordinateur que du dispositif câblé (Câblé (titre original : Hardwired) est un roman cyberpunk de Walter Jon Williams en 1986. Paru en français en 1987 chez Denoël (Présence du futur, n°437), il est...), et nombre d'entre eux se commandent en UNIX).

L'ordinateur personnel

Un ordinateur familial.
Un ordinateur familial.

Au Sicob (Le SICOB était le salon généraliste français de l'informatique, des réseaux et des télécommunications.) 1973 est apparu un micro-ordinateur allemand. Le DIEHL Alphatronic. Il comprenait une unité centrale équipée d'un 8008 (4 ko extensible à 16 ko), d'un lecteur enregistreur de mini (MINI est une marque automobile de BMW Group. L'ancien modèle Mini était construit par MG Rover.) cassette magnétique et d'une imprimante (Les imprimantes ont été conçues dès l’apparition des premiers ordinateurs, pour permettre la consultation et la conservation sur support papier des...) à boule IBM. Il ne comportait pas d'écran (Un moniteur est un périphérique de sortie usuel d'un ordinateur. C'est l'écran où s'affichent les informations saisies ou demandées par l'utilisateur et générées ou restituées par l'ordinateur, sous forme de...). La programmation en mini basic était visualisée sur une mini imprimante (bande papier en rouleau). Prix de vente de l'ensemble (En théorie des ensembles, un ensemble désigne intuitivement une collection d’objets (les éléments de l'ensemble), « une multitude qui peut être comprise...) 4 573 €.

Au même Sicob est présenté le premier micro-ordinateur français le Micral conçu par François Gernelle de la société R2E dirigée par André Truong Trong Thi (André Truong, ingénieur français (né en 1936 à Saïgon — décédé le 1er avril 2005 à Paris). Il est le fondateur de la société qui commercialisera le premier micro-ordinateur, le Micral.). Il utilise lui aussi le microprocesseur Intel 8008. La machine ne survécut pas au rachat de R2E par Bull (Bull est une société française spécialisée dans l'informatique professionnelle.).

En janvier 1975 sort l'Altair. Développé par des amateurs, frustrés par la faible puissance et le peu de flexibilité des quelques ordinateurs en kit existant sur le marché à l'époque, ce fut certainement le premier ordinateur personnel en kit produit en masse. Il était le premier ordinateur à utiliser un processeur Intel 8080. L'Altair inaugura le bus S-100. Ce fut un énorme succès et 10 000 unités furent vendues. C'est l'Altair qui inspira le développement de logiciels à Bill Gates (William Henry Gates III KBE dit Bill Gates (né le 28 octobre 1955 à Seattle) est un informaticien et chef d'entreprise américain, pionnier dans le domaine de la micro...) et Paul Allen (Paul Allen de son nom complet Paul Gardner Allen (né le 21 janvier 1953), est un informaticien, chef d'entreprise, homme d'affaires et mécène américain....), qui développèrent un interpréteur (En informatique, un interprète (parfois appelé, à tort, « interpréteur » par mauvaise traduction de l'anglais) est un outil ayant pour tâche d'analyser, de traduire et d'exécuter un programme écrit dans un langage...) BASIC pour cette machine. En 1975 sortira aussi l'IBM 5100, machine totalement intégrée avec son clavier et son écran, qui se contente d'une prise de courant pour fonctionner.

Toujours en 1975, le fabricant de terminaux programmables TRW se rend compte que son terminal Datapoint 2200 à disquettes (de huit pouces) est un ordinateur si on l'équipe d'un langage évolué (BASIC) et d'un système d'exploitation (CP/M), et commence à le commercialiser comme tel, en inventant le premier réseau local (Un réseau local, souvent désigné par l'acronyme anglais LAN de Local Area Network, est un réseau informatique à une échelle géographique relativement restreinte, par exemple...) pour micros : ARCnet. Ce système, commercialisé en France par Matra, ne sera cependant jamais proposé au grand public.

Le processeur Intel 8080 mena à la première vague (Une vague est un mouvement oscillatoire de la surface d'un océan, d'une mer ou d'un lac. Les vagues sont générées par le vent et ont une amplitude crête-à-crête allant de quelques centimètres à 34 m (112 pieds), la...) d'ordinateurs personnels, à la fin des années 1970. La plupart utilisaient le bus S-100 et le système d'exploitation CP/M-80 de Digital Research (Digital Research était une entreprise informatique fondée en 1974 par Gary Kildall.). CP/M-80 était le premier système d'exploitation à être utilisé par plusieurs fabricants d'ordinateurs différents, et de nombreux logiciels furent développés pour lui. Le système MS-DOS (DOS disk operating system est le nom générique employé pour désigner les anciens systèmes d'exploitation dont les fonctionnalités étaient orientées manipulation aisée des périphériques contenant des fichiers.) de Microsoft (Microsoft Corporation (NASDAQ : MSFT) est une multinationale américaine de solutions informatiques, fondée par Bill Gates et Paul Allen, dont le revenu annuel a atteint 44,28 milliards de dollars en 2006 et emploie...) s'en inspira fortement (en inversant l'ordre de certains opérandes pour ne pas encourir de procès, ce qui provoqua quelques catastrophes chez ceux qui utilisaient les deux systèmes).

De nombreux amateurs tentèrent à cette époque de créer leurs propres systèmes. Ces passionnés se rencontraient lors de réunions au Homebrew Computer Club, où ils montraient leurs réalisations, comparaient leurs systèmes et échangeaient des plans ou des logiciels. Certains de ces amateurs s'intéressaient à construire quelque chose de prêt à l'emploi que Monsieur tout le monde puisse s'offrir. En 1976, Steve Wozniak (Steve Wozniak (surnommé Woz) (11 août 1950) est un informaticien et électronicien américain Il est cofondateur de la societé Apple computer avec Steve Jobs et concepteur des...), qui fréquentait régulièrement le Homebrew Computer Club, conçut l'Apple (Apple, Inc. (Apple Computer, Inc. jusqu'en janvier 2007 ; apple signifie « pomme » en anglais) (NASDAQ : AAPL) est une société multinationale dont l'activité principale était de fabriquer et de...) I, doté d'un processeur MOS Technology (MOS Technologie, également connue sous le nom de Commodore Semiconductor Group, fut une société américaine d'électronique et un fondeur de microprocesseurs. La société est...) 6502 à 1 MHz. Il vendit avec Steve Jobs (Steven Paul Jobs (né le 24 février 1955) est, avec Steve Wozniak, le cofondateur d'Apple. Ils sont tous deux considérés comme...) environ 200 machines à 666 $ l'unité. Il est doté d'un microprocesseur et d'un clavier.

L'Apple II sortit en 1977. Malgré son prix élevé (environ 1 000 $), il prit rapidement l'avantage sur les deux autres machines lancées la même année, le TRS-80 et le Commodore PET, pour devenir le symbole du phénomène de l'ordinateur personnel. D'une très grande qualité, l'Apple II avait de gros avantages techniques sur ses concurrents : il avait une architecture ouverte, un lecteur de disquettes, et utilisait des graphismes en couleur (La couleur est la perception subjective qu'a l'œil d'une ou plusieurs fréquences d'ondes lumineuses, avec une (ou des) amplitude(s) donnée(s).). Grâce à l'Apple II, Apple domina l'industrie de l'ordinateur personnel entre 1977 et 1983. Plus de deux millions d'Apple II furent vendus au total.

En 1978, devant le succès de l'Apple II, IBM décida de renouer avec le marché de l'ordinateur personnel (le marché avait trouvé le 5100 trop lent, le 5110 trop lourd physiquement, et le System 23 Datamaster — créé pour faire pendant au TRW-2200 — n'avait pas bénéficié d'un support marketing (Le marketing (on utilise aussi parfois — dans 7% des cas, d'après les chiffres donnés par Google — le néologisme français mercatique) est une discipline qui cherche à déterminer les offres de biens et services en fonction des...) suffisant à l'époque). Frank Cary confia une équipe, un budget et donna carte blanche à Don Estridge. En août 1981 sortit l'IBM PC (L'IBM Personal Computer, l'IBM PC, moins connu sous les dénominations de PC/G ou IBM modèle 5150, est le premier ordinateur personnel produit par millions par IBM (à la...) (Personnal Computer). Il utilisait un processeur Intel 8088 tournant à 4,77 MHz et pouvait faire tourner trois systèmes d'exploitation différents : PC-DOS, CP/M-86 et PC/IX. L'UCSD p-System sera également utilisable, mais non supporté par IBM. Microsoft s'est réservé, contre réduction de la facture à IBM, le droit de commercialiser sa propre version du PC-DOS pour d'autres ordinateurs de marque non-IBM, et qui sera nommée le MS-DOS. Cela se révèlera une erreur monumentale pour IBM.

L'ordinateur le plus vendu de tous les temps fut sans doute le Commodore 64, dévoilé par Commodore International (Commodore Business Machines Inc. fut avant tout l'entreprise familiale fondée par un immigré juif new-yorkais, rescapé d'Auschwitz, nommé Jack Tramielsky. Ledit « Jack Tramiel » avait acquis une boutique...) en septembre 1982. Il utilisait un processeur MOS Technology 6510 à 1 MHz et coûtait 595 $. Il avait un écran 16 couleurs et possédait une carte son. Entre 17 et 25 millions d'unités furent vendues jusqu'en 1993.

Après le 64, Commodore sortit l'Amiga. Ses possibilités exceptionnelles en matière de graphisme et la rapidité de son processeur permettaient de programmer des jeux, en particulier en utilisant le langage Amos .

À cette époque apparurent les premiers " clones " compatibles, comme le Franklin 1000 compatible avec l'Apple II ou le premier PC compatible lancé par Compaq (Compaq Computer Corporation est une entreprise d'informatique créée en 1982 par Rod Canion, Bill Murto et Jim Harris à Houston, Texas (États-Unis).) en mars 1983. Cette concurrence sur le marché des ordinateurs personnels permit de faire baisser les prix et de rendre ces machines populaires.

En 1982, Intel lança le 80286, et IBM le PC/AT basé dessus. C'est à cette époque que le PC devint l'architecture dominante sur le marché des ordinateurs personnels. Seul le Macintosh (Macintosh (prononcé /makintɔʃ/) ou Mac est une série de différentes familles d'ordinateurs personnels conçus, développés, et vendus par Apple. Le premier Macintosh, le...) d'Apple continua à défier l'IBM PC et ses clones, qui devinrent rapidement le standard.

En 1983, Apple lance le Lisa, le premier ordinateur personnel doté d'une interface (Une interface est une zone, réelle ou virtuelle qui sépare deux éléments. L’interface désigne ainsi ce que chaque élément a besoin de connaître de l’autre pour pouvoir fonctionner correctement.) graphique. Le Lisa utilisait un processeur Motorola 68000 (Apparu en 1979, le Motorola 68000 est un microprocesseur CISC 16/32 bits développé par Motorola. C'est le premier de la famille de microprocesseurs souvent appelée m68k ou 680x0, qui comprend notamment les microprocesseurs Motorola 68010,...), un disque dur (Un disque dur est une mémoire de masse magnétique utilisée principalement dans les ordinateurs, mais également dans des baladeurs numériques, des caméscopes, des...) de 5 Mo, deux lecteurs de disquette (Une disquette est un support de stockage de données informatiques amovible. La disquette est aussi appelée disque souple (floppy disk en anglais) en raison de la souplesse de son support et par opposition au disque dur.) et 1 Mo de RAM. Son interface graphique s'inspirait de celle du Xerox (Xerox est une entreprise américaine, basée à Stamford (Connecticut).) Star. Malgré son caractère révolutionnaire pour l'époque, ce fut un échec commercial, principalement à cause de son prix élevé (10 000 $) et de sa relative lenteur.

Le 22 janvier 1984, Apple lance le Macintosh, le premier micro-ordinateur à succès utilisant une souris (Le terme souris est un nom vernaculaire ambigu qui peut désigner, pour les francophones, avant tout l’espèce commune Mus musculus, connue aussi comme...) et une interface graphique. Il reprenait plusieurs caractéristiques du Lisa, comme le processeur Motorola (www.motorola.com/fr) 68000, mais pour un prix bien plus abordable : 2 500 $, grâce à l'abandon de quelques fonctionnalités du Lisa comme le multitasking. Il était fourni (Les Foúrnoi Korséon (Grec: Φούρνοι Κορσέων) appelés plus communément Fourni, sont un...) avec plusieurs applications utilisant la souris, comme MacPaint et MacWrite.

Malgré ses nombreuses innovations dans le domaine, Apple perdit peu à peu des parts de marché pour se stabiliser à environ 4 % des ventes d'ordinateurs dans les années 2000. Et ce, malgré le gigantesque succès de l'iMac, premier ordinateur conçu par des designers, qui s'écoula à plus de six millions d'exemplaires, en en faisant le modèle d'ordinateur personnel le plus vendu au monde. Parallèlement, le PC Compatible s'imposa de plus en plus au grand public avec des assembleurs tel que Hewlett-Packard, Compaq, Dell (Dell est une entreprise américaine, actuellement deuxième plus grand constructeur d'ordinateurs au monde derrière Hewlett-Packard. Son siège est basé à Round Rock dans l'État du Texas.) ou NEC.

Source: Wikipédia publiée sous licence CC-BY-SA 3.0.

Vous pouvez soumettre une modification à cette définition sur cette page. La liste des auteurs de cet article est disponible ici.