Histoire de l'informatique de gestion - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Années 1950 à 1970

À partir des années 1950 aux États-Unis, puis dans les années 1960 en Europe, les entreprises et les administrations ont réalisé les avantages prodigieux qu'elles pourraient tirer de l'informatique : du traitement des résultats d'un recensement ou d'une élection, à la comptabilité et à la gestion des stocks, la capacité des ordinateurs à enregistrer, traiter et restituer de grandes quantités de données, ainsi que la relative simplicité des traitements nécessaires permettaient à la fois :

  • de réduire considérablement les délais de traitement ;
  • de réaliser des économies très significatives par rapport à un traitement manuel.

Ainsi à partir des années 1970, des firmes comme par exemple IBM, Honeywell et Bull, ont conçu des machines et aussi des programmes d'abord destinés aux grandes organisations (services administratifs et fiscaux, sécurité sociale, banques, compagnies d'assurances, mutuelles, etc.). Grâce à leur succès croissant, ces fabricants ont diversifié leur offre en même temps que se sont constituées des compagnies concurrentes. Le COBOL est rapidement devenu le principal langage de programmation pour les applications de gestion et a permis de constituer des milliers de programmes sur mesure, tout en étendant l'utilisation de l'informatique à tous les domaines de la gestion :

  • la comptabilité : comptabilité générale, comptabilité analytique (aujourd'hui on parlera plutôt du contrôle de gestion)…
  • la facturation des clients et le règlement des fournisseurs,
  • le suivi des comptes bancaires, la gestion de la trésorerie et la prévision financière,
  • la paye et le traitement social des salariés,
  • la planification et le suivi de la production de l'entreprise,
  • l'organisation et la mesure de l'efficacité commerciale,

Réalisant combien l'informatique pouvait leur faire gagner en compétitivité, les entreprises et les grandes collectivités locales se sont donc équipées et ont progressivement organisé leur service informatique interne, au sein desquels sont apparues des métiers en nombre croissant :

  • analystes,
  • programmeurs,
  • pupitreurs,
  • opérateurs de saisie,
  • etc.

Ainsi, par additions successives, services publics et sociétés se sont chacun constitué un patrimoine applicatif de plus en plus étendu (on parle souvent de millions de lignes de code), qu'il a bien fallu maintenir au cours du temps, pour l'adapter :

  • fonctionnellement à l'évolution permanente des besoins, de la concurrence et des contraintes règlementaires ;
  • techniquement au progrès rapide des ordinateurs, des systèmes d'exploitation et des réseaux de communication.

Néanmoins, le développement et l'entretien de ces programmes de complexité croissante comportaient un inconvénient majeur : les délais et les coûts informatiques augmentaient si vite qu'il devenait de plus en plus difficile de satisfaire les besoins de plus en plus variés exprimés par les autres services utilisateurs de l'entreprise.

Années 2000

Plus récemment, on constate une forte expansion des solutions de gestion électronique des documents, notamment liée aux progrès technique et à la baisse des prix des solutions de numérisation (scanner)s, de stockage (disques durs, CD-RW, DVD, et graveurs associés) et de restitution d'images (imprimantes laser couleur).

Enfin, le fort taux d'équipements informatique des entreprises, qui est souvent considéré comme un atout compétitif, a très largement contribué à la baisse des prix des matériels et des réseaux, ainsi qu'à leur plus grande ergonomie, sans lesquels le développement fulgurant de l'informatique familiale et d'Internet n'aurait probablement pas eu lieu.

Désormais pour fédérer de multiples systèmes et ainsi pouvoir consolider l'information de plusieurs services et sociétés partenaires (entreprises en réseau) on utilise des systèmes de communication plus ou moins normalisés qui facilitent l'échange de données et même la collaboration (on parle d'interopérabilité) entre des programmes d'origines diverses. Ainsi grâce au middleware un programme peut puiser des informations dans plusieurs bases de données sans en connaître les spécificités. Les entrepôts de données (datawarehouse) et les outils d'aide à la décision (Data Mining) facilitent le rapprochement et donc l'analyse des données provenant de plusieurs systèmes d'information.

Le développement mondial du réseau Internet a influencé les choix techniques des entreprises : l'utilisation des protocoles TCP/IP s'est généralisée, beaucoup de programmes de gestion sont réalisés comme ceux du Web, à tel point que l'on distingue aujourd'hui :

  • l'Intranet réservé à l'entreprise elle-même ;
  • l'Extranet ouvert à ses partenaires (clients, fournisseurs ou co-traitants).

De même, sous l'impulsion du World Wide Web Consortium (W3C), la technologie XML et tous ses dérivés (WSDL, XML-RPC), qui décrivent la structuration des données et les interfaces d'échanges, sont en voie d'adoption par un grand nombre des éditeurs de logiciels et des services informatiques, et vont peu à peu permettre à des programmes de sources variées d'exploiter mutuellement leurs possibilités.

L'interopérabilité informatique est appelée à se fonder sur des frameworks globaux tels que RDF, et sur l'utilisation massive de métadonnées.

Page générée en 0.102 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise