Systémique - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

La notion de système

Historique

Le concept moderne de système date des années 1940. Il est dû à l’apport au moins de cinq personnages : outre Ludwig von Bertalanffy, Norbert Wiener, Claude Shannon, dont nous venons de parler, il faut aussi évoquer :

  • Warren McCulloch : à l’origine neuropsychiatre, il étend ses recherches aux mathématiques et à l’ingénierie. Pionnier de la théorie moderne des automates, il est le premier à comparer le fonctionnement en réseau des composantes d’une machine à celui des neurones dans le cerveau. Il engage des travaux importants sur l’intelligence artificielle et fonde une nouvelle science, la bionique.
  • Jay Wright Forrester : ingénieur en électronique, il élargit à partir de 1960 le champ d’application de la nouvelle théorie des Systèmes à la dynamique industrielle, puis élabore une « dynamique générale des systèmes ».
  • Herbert A. Simon : Prix Turing (1975) et "prix Nobel d'économie" (1978), Herbert Simon a développé une vision de l'organisation, de la cognition et de l'ingénierie largement inspirée de la théorie de systèmes. Refusant la dichotomie entre science pure et science appliquée, son œuvre se situe à l'interface de l'informatique, de l'économie, de la psychologie et de la biologie. Il fut parmi les premiers théoriciens de la rationalité limitée des agents économiques et administratifs. Traquant « la forme ordonnée cachée dans l'apparent désordre », Simon a postulé que la distinction entre artificiel et naturel n'est pas opérante au niveau des modes de traitement de l'information par des systèmes complexes (cerveau ou ordinateur), dont l'organisation est assurée par des règles formelles d'adaptation à leur environnement. En 1956, Herbert A. Simon a réalisé avec Allen Newell ce qui est généralement considéré comme le premier système informatique d'intelligence artificielle (Logic theorist, pour la RAND Corporation).

La nouvelle approche des systèmes se développe aux États-Unis pour répondre à des problèmes divers : mise au point d’instruments de guidage des missiles, modélisation du cerveau humain et du comportement, stratégie des grandes entreprises, conception et réalisation des premiers grands ordinateurs ...

Quatre concepts fondamentaux

Quatre concepts sont fondamentaux pour comprendre ce qu’est un système :

  • L’interaction (ou l’interrelation) renvoie à l’idée d’une causalité non-linéaire. Ce concept est essentiel pour comprendre la coévolution et la symbiose en biologie. Une forme particulière d’interaction est la rétroaction (ou feed-back) dont l’étude est au centre des travaux de la cybernétique.
  • La totalité (ou la globalité). Si un système est d’abord un ensemble d’éléments, il ne s’y réduit pas. Selon la formule consacrée, le tout est plus que la somme de ses parties. Bertalanffy montre, contre l'avis de Russell qui rejette le concept d'organisme, « qu'on ne peut obtenir le comportement de l'ensemble comme somme de ceux des parties et [qu'on doit] tenir compte des relations entre les divers systèmes secondaires et les systèmes qui les coiffent [pour] comprendre le comportement des parties ». Cette idée s’éclaire par le phénomène d’émergence : au niveau global, apparaissent des propriétés non déductibles des propriétés élémentaires, ce qu’on peut expliquer par un effet de seuil.
  • L’organisation est le concept central pour comprendre ce qu’est un système. L’organisation est l’agencement d’une totalité en fonction de la répartition de ses éléments en niveaux hiérarchiques. Selon son degré d’organisation, une totalité n’aura pas les mêmes propriétés. On arrive ainsi à cette idée que les propriétés d’une totalité dépendent moins de la nature et du nombre d’éléments qu’ils contiennent que des relations qui s’instaurent entre eux. On peut donner deux exemples :
    • les isomères sont des composés chimiques de même formule et de même masse, mais ayant des agencements structurels différents et, de ce fait, des propriétés différentes.
    • les cerveaux humains possèdent tous à peu près le même nombre de neurones, mais ce qui va décider des différentes aptitudes, c’est la nature et le nombre de relations entre eux dans telle ou telle aire. On peut dire que, en s’organisant, une totalité se structure (une structure est donc une totalité organisée).

L’organisation est aussi un processus par lequel de la matière, de l’énergie et de l’information s’assemblent et forment une totalité, ou une structure. Certaines totalités développent une forme d’autonomie ; elles s’organisent de l’intérieur : on parle alors d’auto-organisation.

Il existe deux sortes d’organisation : l’organisation en modules, en sous-systèmes (qui renvoie aussi à l’organisation en réseaux) et l’organisation en niveaux hiérarchiques. L’organisation en sous-systèmes procède par intégration de systèmes déjà existants, tandis que l’organisation en niveaux hiérarchiques produit de nouvelles propriétés, à chaque niveau supplémentaire. La notion d’organisation retrouve donc celle d’émergence, dans la mesure où c’est le degré d’organisation d’une totalité qui fait passer d’un niveau hiérarchique à un autre, et fait émerger de nouvelles propriétés. L’émergence est la création d’un niveau hiérarchique supérieur.

De manière générale, on s’aperçoit donc que la notion d’organisation recouvre un aspect structurel (comment est construit la totalité) et un aspect fonctionnel (ce que la structure lui permet de faire). On peut représenter une structure par un organigramme, la fonction par un programme.

  • La complexité. La complexité d’un système tient au moins à trois facteurs :
    • le degré élevé d’organisation ;
    • l’incertitude de son environnement ;
    • la difficulté, sinon l’impossibilité d’identifier tous les éléments et toutes les relations en jeu. D’où l’idée que les lois qui permettent de décrire ce type de système ne conduisent pas à sa reproduction à l'identique, mais à la détermination d'un comportement global caractérisé par une prédictivité réduite.

Description d’un système

  • Sous son aspect structurel, un système comprend quatre composants :
    • les éléments constitutifs : on peut en évaluer le nombre et la nature (même si ce n’est qu’approximativement). Ces éléments sont plus ou moins homogènes (ex automobile: groupe motopropulseur, chassis, habitacle, liaison au sol, carrosserie). Dans une entreprise commerciale, les éléments sont hétérogènes (capitaux, bâtiments, personnel,…),
    • une limite (ou frontière) qui sépare la totalité des éléments de son environnement : cette limite est toujours plus ou moins perméable et constitue une interface avec le milieu extérieur. C’est par exemple, la membrane d’une cellule, la peau du corps, la carrosserie d'une voiture. La limite d’un système peut être plus floue, ou particulièrement mouvante, comme dans le cas d’un groupe social,
    • des réseaux de relations : les éléments sont en effet interreliés. Nous avons vu que, plus les interrelations sont nombreuses, plus le degré d’organisation est élevé et plus grande est la complexité. Les relations peuvent être de toutes sortes. Les deux principaux types de relations sont : les transports et les communications. En fait, ces deux types peuvent se réduire à un seul, puisque communiquer c’est transporter de l’information, et transporter sert à communiquer (faire circuler) des matériaux, de l’énergie ou de l’information.
    • des stocks (ou réservoirs) où sont entreposés les matériaux, l’énergie ou l’information constituant les ressources du systèmes qui doivent être transmises ou réceptionnées.
  • Sous son aspect fonctionnel :
    • des flux de matériaux, d’énergie ou d’informations, qui empruntent les réseaux de relations et transitent par les stocks. Ils fonctionnent par entrées/sorties (ou inputs/outputs) avec l’environnement,
    • des centres de décision qui organisent les réseaux de relations, c’est-à-dire coordonnent les flux et gèrent les stocks,
    • des boucles de rétroaction qui servent à informer, à l’entrée des flux, sur leur sortie, de façon à permettre aux centres de décision de connaître plus rapidement l’état général du système,
    • des ajustements réalisés par les centres de décisions en fonction des boucles de rétroaction et de délais de réponse (correspondant au temps que mettent les informations « montantes » pour être traitées et au temps supplémentaire que mettent les informations « descendantes » pour se transformer en actions).

Il existe deux sortes de systèmes : les systèmes ouverts et les systèmes fermés. Comme leur nom l’indique, les systèmes ouverts ont plus d’échanges avec leur environnement, les systèmes fermés jouissent d’une plus grande autonomie (auto-organisation). Evidemment, cette distinction n’est pas tranchée : aucun système n’est complètement fermé sur lui-même, ni complètement perméable. Cette distinction a été introduite par la thermodynamique au milieu du XIXe siècle : un système fermé échange uniquement de l’énergie avec son environnement, contrairement à un système ouvert, qui échange énergie, matière et information. La notion de système ouvert s’est considérablement élargie avec les travaux sur le vivant de Cannon vers 1930 et de Bertalanffy dans les années 1940. La notion de système fermé n’est en fait qu’un concept théorique, puisque tout système est plus ou moins ouvert.

Conservation des systèmes : état constant et homéostasie

La fonction première d’un système est sa propre conservation. Un système doit rester dans un état constant, orienté vers un optimum. Or, une des caractéristiques des systèmes qui « fonctionnent » est qu’ils sont tous dans un état de déséquilibre thermodynamique, dans la mesure où ils ne cessent d’échanger de l’énergie avec leur environnement. Ils se retrouvent donc obligés de se maintenir dans un état constant, caractérisé par une relative stabilité au sein même de laquelle existent des déséquilibres provoqués par les flux d’entrées et de sorties. L'image mécanique pour comprendre cette dynamique interne du système est celle du vélo qui doit avancer pour être en état d'équilibre dynamique.

Un système se retrouvant dans un état d’équilibre en ayant épuisé tous les échanges possibles avec son environnement a atteint le stade de la « mort thermique » (pour reprendre l’expression de Boltzmann). La loi physique montrant que tous les systèmes fermés finissent tôt ou tard de cette façon s’appelle l’entropie (dit aussi 2e principe thermodynamique).

La conservation d’un état constant est aussi une nécessité des systèmes cybernétiques (qu’ils soient organiques ou artificiels) : leur autorégulation dépend des boucles de rétroaction négatives, qui ont une fonction de contrôle et de stabilisation autour d’une valeur moyenne.

On trouve un processus particulier dans les systèmes vivants : l’homéostasie. L’homéostasie (d’homios, le même, et stasis, l’arrêt, la mise au repos) désigne la capacité d’un système à se maintenir dans un état constant, dans sa forme et ses conditions internes, en dépit des perturbations externes. Dans le cas des animaux, les conditions internes sont nombreuses et dépendent de sous-systèmes (maintien de la température interne, de la pression artérielle, de la teneur en eau et autres substances vitales, etc). Le terme d’homéostasie est forgé par le physiologiste Walter Cannon dans les années 1920 ; mais la propriété est découverte dès le milieu du XIXe siècle par Claude Bernard, qui décrit les principes de régulation du milieu interne. Théoriquement, un système parfaitement autorégulé impliquerait de pouvoir revenir à son état initial, suite à une perturbation. Néanmoins, si le monde vivant lutte contre la flèche du temps (tous les êtres vivants créant des boucles de néguentropie provisoires), ils ne reviennent cependant jamais à un état identique, mais évoluent vers un état légèrement différent, qu’ils s’efforcent de rendre aussi proche que possible de leur état initial. C’est pourquoi le système vivant maintient sa forme malgré des échanges avec l’environnement ; c’est également pourquoi sa stabilité n’exclut pas une certaine évolution. En bref, la simple régulation cybernétique pour maintenir un système dans un état constant (comme c’est le cas pour un thermostat) diffère de l’homéostasie qui, malgré son nom, est un processus complexe et autonome d’autorégulation, impliquant un renouvellement des éléments et une réorganisation structurelle autonomes.

Variété d’un système

La variété d’un système est le nombre de configurations ou d’états que ce système peut revêtir. Cette propriété est nécessaire pour éviter la sclérose. Cela dit, la variété du système ne doit pas excéder les capacités de contrôle de ce système, ce que le cybernéticien R. Ashby a exprimé par la loi dite de la variété requise : « Pour contrôler un système donné, il faut disposer d’un contrôle dont la variété est au moins égale à la variété de ce système ».

Typologie des systèmes

Il existe plusieurs typologies. Citons-en deux :

  • La typologie de Jacques Lesourne (Les systèmes du destin), qui distingue :
    • Les systèmes à états (transformations entrées/sorties, sans régulation interne. Ex : un moteur de voiture).
    • Les systèmes à buts (régulation interne intégrée, capacité d’atteindre des objectifs. Ex : une chambre avec thermostat, une fusée à tête chercheuse).
    • Les systèmes à apprentissage (incluant mémoire, mécanismes de calcul, et capacité de prise de décision et d’adaptation en fonction des données enregistrées et de processus par essais et erreurs. C’est à ce niveau que l’auto-organisation devient possible. Ex : systèmes experts en stratégie économique ou militaire).
    • Les systèmes à décideurs multiples (structure complexe de plusieurs systèmes à buts, s’organisant de manière spontanée (jeux) ou de façon hiérarchique (organisations). Lorsque les hiérarchies sont enchevêtrées en un système encore plus large et complexe, on parle de sociétés).
  • La typologie de Jean-Louis Le Moigne, (La théorie du système général), qui sépare :
    • Les systèmes-machines, qui relèvent de la mécanique et de l’ingénierie.
    • Les systèmes vivants (et systèmes artificiels complexes), dans lesquels apparaissent les processus de mémorisation, des centres de décision (ou de commande) et de coordination (ou de pilotage).
    • Les systèmes humain et social, avec l’apparition de l’intelligence (ou capacité à traiter des informations symboliques), permettant une auto-organisation par des mécanismes abstraits d’apprentissage et d’invention, mais aussi avec la finalisation (l’intentionnalité), réorganisant tout le système en fonction de fins sélectionnées de manière autonome.

A noter qu’un type nouveau de système a émergé dans la deuxième moitié du XXe siècle : les systèmes dynamiques, dans le champ des recherches scientifiques sur le chaos déterministe. La première idée caractérisant ce champ est que, derrière l'apparent désordre, se cache un ordre plus complexe que l'ordre visible. La deuxième idée est que cet ordre émerge par auto-organisation.

Page générée en 0.219 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise