Je trouve difficile, intellectuellement parlant, d'arriver à faire une présentation devant "quelqu'un" dont on sait qu'il ne comprend pas un traitre mot de ce qu'on lui raconte.
On commence, puis on reste un peu con à attendre une réaction de l'interlocuteur (l'IA), un regard, une mimique, ... qui ne viendra pas ou alors totalement hors champ.
Justement, il y avait un article sur Techno-Science qui faisait référence à cette aptitude naturelle qu'on retrouve chez beaucoup d'espèces communicantes :
https://www.techno-science.net/actualit ... 25855.html
Ensuite, ça pose des problèmes plus stratégiques, qui relèvent du bon fonctionnement de l'entreprise.
Ce qui distingue une entreprise d'une autre, son ADN comme on dit, ce n'est pas uniquement les services proposés à l'état brut.
Une entreprise n'étant pas simplement l'addition des employés mais de manière plus générale il s'agit d'employés interagissants, selon une conception holistique.
Donc ici on a déjà deux problèmes.
D'une part, c'est l'entreprise fournissant l'IA qui détermine maintenant l'ADN de l'entreprise cliente, se substituant à elle, en faisant ... le décideur (même si la phase IA ne serait qu'une présélection, elle a forcément un effet sur le panel sélectionné in fine)
Cette présélection ne se base d'ailleurs pas sur les capacités d'interaction du locuteur avec son interlocuteur, ce qui par exemple ici dans le cas présenté de Ryan, commercial, est un comble, mais sur "la forme de son discours".
Inutile de faire appel à des raisonnements face à une IA, l'emploi juxtaposé de mots y suffit.
Il parait assez évident que si on voulait customiser une IA pour réellement reproduire le background d'une entreprise particulière, cet outil d'IA que l'on pourrait concevoir sur la base des compte-rendus des DRH n'est possible qu'à l'échelle d'une groupe.
Les petites entreprises, même celles à quelques centaines d'employés n'ont pas suffisamment d'archives (ou alors peut-être faudra-t-il rouvrir les cartons d'il y a 50 ans... bonjour la tête des employés dans un monde moderne

) pour se faire leur propre IA.
D'autre part, l'IA ne tombant pas du ciel, elle se base nécessairement sur une base d'apprentissage, car ne l'oublions pas, l'IA cherche à REPRODUIRE ce que l'humain a RÉUSSI à faire; elle ne réinvente pas une méthode géniale qui irait au delà d'un existant (du moins pour les versions actuelles, TOUTES basées sur le même principe telles qu’actuellement conçues)
La base d'apprentissage est donc produite par des humains, les vrais DRH qui ont rédigés les compte-rendus, à grand peine certes, "biaisé" certes par les effets liés lors d'une interaction inter-humaine, mais... leur verdict tenait compte de ce biais.
Ce biais, c'est à dire l'aspect émotionnel de l’interaction et qui peut favoriser ou défavoriser, c'est bien ce biais là qui est inclus dans la décision du DRH.
Donc c'est AUSSI ce biais qu'on aimerait REPRODUIRE.
Mais l'IA ne le fait pas, elle ne se base que sur le compte-rendu brut (pour apprendre ce qu'est un bon employé), là où au contraire le DRH écrit une chose et ressentant une chose en plus elle interprète au-delà des faits bruts.
Les bons DRH sont un peu des mentalistes si je puis dire.
Donc pour le dire autrement : L'IA utilise une base de données erronée. Lors de son apprentissage, elle associe incorrectement le contenu du compte-rendu avec la décision du DRH... qui lui en tant qu'humain a "biaisé" son verdict pour prendre en compte "le feeling relationnel".
Maintenant, imaginons qu'un grand groupe généralise l'emploi de ce type d'IA en lui faisant apprendre de ses propres compte-rendus, permettant donc de conserver son ADN d'entreprise.
Sur quoi se basera cette IA particulière pour apprendre d'ici quelques années ? (et ça va vite, vu que le monde bouge en plus)
Sur ses propres compte-rendus ? (puisqu’on a écarté les vrais DRH du process).
Ça pose le problème de fond de toute cette IA mania : Les IA sans humains n'existent pas.
The Curse of Recursion: Training on Generated Data Makes Models Forget
Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, Yarin Gal, Nicolas Papernot, Ross Anderson
Stable Diffusion revolutionised image creation from descriptive text. GPT-2, GPT-3(.5) and GPT-4 demonstrated astonishing performance across a variety of language tasks. ChatGPT introduced such language models to the general public. It is now clear that large language models (LLMs) are here to stay, and will bring about drastic change in the whole ecosystem of online text and images. In this paper we consider what the future might hold. What will happen to GPT-{n} once LLMs contribute much of the language found online? We find that use of model-generated content in training causes irreversible defects in the resulting models, where tails of the original content distribution disappear. We refer to this effect as Model Collapse and show that it can occur in Variational Autoencoders, Gaussian Mixture Models and LLMs. We build theoretical intuition behind the phenomenon and portray its ubiquity amongst all learned generative models. We demonstrate that it has to be taken seriously if we are to sustain the benefits of training from large-scale data scraped from the web. Indeed, the value of data collected about genuine human interactions with systems will be increasingly valuable in the presence of content generated by LLMs in data crawled from the Internet.
https://arxiv.org/abs/2305.17493
Les données générées par une IA ne peuvent pas à leur tour être reprises pour servir à nouveau de base pour l'apprentissage car cela fait s'éffondrer le modèle.
https://fr.wikipedia.org/wiki/Effondrem ... tificielle
Les vampires ne peuvent pas boire leur propre sang.
