À partir des années 1950 aux États-Unis, puis dans les années 1960 en Europe, les entreprises et les administrations ont réalisé les avantages prodigieux qu'elles pourraient tirer de l'informatique : du traitement des résultats d'un recensement ou d'une élection, à la comptabilité et à la gestion des stocks, la capacité des ordinateurs à enregistrer, traiter et restituer de grandes quantités de données, ainsi que la relative simplicité des traitements nécessaires permettaient à la fois :
Ainsi à partir des années 1970, des firmes comme par exemple IBM, Honeywell et Bull, ont conçu des machines et aussi des programmes d'abord destinés aux grandes organisations (services administratifs et fiscaux, sécurité sociale, banques, compagnies d'assurances, mutuelles, etc.). Grâce à leur succès croissant, ces fabricants ont diversifié leur offre en même temps que se sont constituées des compagnies concurrentes. Le COBOL est rapidement devenu le principal langage de programmation pour les applications de gestion et a permis de constituer des milliers de programmes sur mesure, tout en étendant l'utilisation de l'informatique à tous les domaines de la gestion :
Réalisant combien l'informatique pouvait leur faire gagner en compétitivité, les entreprises et les grandes collectivités locales se sont donc équipées et ont progressivement organisé leur service informatique interne, au sein desquels sont apparues des métiers en nombre croissant :
Ainsi, par additions successives, services publics et sociétés se sont chacun constitué un patrimoine applicatif de plus en plus étendu (on parle souvent de millions de lignes de code), qu'il a bien fallu maintenir au cours du temps, pour l'adapter :
Néanmoins, le développement et l'entretien de ces programmes de complexité croissante comportaient un inconvénient majeur : les délais et les coûts informatiques augmentaient si vite qu'il devenait de plus en plus difficile de satisfaire les besoins de plus en plus variés exprimés par les autres services utilisateurs de l'entreprise.
Plus récemment, on constate une forte expansion des solutions de gestion électronique des documents, notamment liée aux progrès technique et à la baisse des prix des solutions de numérisation (scanner)s, de stockage (disques durs, CD-RW, DVD, et graveurs associés) et de restitution d'images (imprimantes laser couleur).
Enfin, le fort taux d'équipements informatique des entreprises, qui est souvent considéré comme un atout compétitif, a très largement contribué à la baisse des prix des matériels et des réseaux, ainsi qu'à leur plus grande ergonomie, sans lesquels le développement fulgurant de l'informatique familiale et d'Internet n'aurait probablement pas eu lieu.
Désormais pour fédérer de multiples systèmes et ainsi pouvoir consolider l'information de plusieurs services et sociétés partenaires (entreprises en réseau) on utilise des systèmes de communication plus ou moins normalisés qui facilitent l'échange de données et même la collaboration (on parle d'interopérabilité) entre des programmes d'origines diverses. Ainsi grâce au middleware un programme peut puiser des informations dans plusieurs bases de données sans en connaître les spécificités. Les entrepôts de données (datawarehouse) et les outils d'aide à la décision (Data Mining) facilitent le rapprochement et donc l'analyse des données provenant de plusieurs systèmes d'information.
Le développement mondial du réseau Internet a influencé les choix techniques des entreprises : l'utilisation des protocoles TCP/IP s'est généralisée, beaucoup de programmes de gestion sont réalisés comme ceux du Web, à tel point que l'on distingue aujourd'hui :
De même, sous l'impulsion du World Wide Web Consortium (W3C), la technologie XML et tous ses dérivés (WSDL, XML-RPC), qui décrivent la structuration des données et les interfaces d'échanges, sont en voie d'adoption par un grand nombre des éditeurs de logiciels et des services informatiques, et vont peu à peu permettre à des programmes de sources variées d'exploiter mutuellement leurs possibilités.
L'interopérabilité informatique est appelée à se fonder sur des frameworks globaux tels que RDF, et sur l'utilisation massive de métadonnées.