Parallélisme (informatique) - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs est disponible ici.

Le parallélisme est le mode d'activité de certains ensembles composés d'éléments aux comportements analogues durant la même période. Ces ensembles étant fréquents dans la nature même, les manifestations de parallélisme sont nombreuses à tous les niveaux depuis les particules élémentaires jusqu'aux collectivités humaines. On observe ainsi du parallélisme aussi bien dans une culture de bactéries que dans l'expansion urbaine.

La puissance de calcul de l'informatique, son potentiel en matière de modélisation, permettent d'explorer les domaines où dominent un grand nombre de phénomènes simultanés. L'informatique s'est d'ailleurs appliqué à elle-même ses capacités, les processus répétitifs pouvant partiellement se concevoir simultanément s'ils sont suffisamment indépendants. Le parallélisme désigne l'alternative aux processus séquentiels des algorithmes primitifs. Il repose sur des innovations d'ordre technique et matériel (architecture parallèle) autant que sur de nouveaux modes de programmation (traitements parallèles), voir réseau de neurones. D'un point de vue théorique, les automates cellulaires peuvent être considérés comme un modèle des comportements parallèles.

Page générée en 0.021 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise