[News] La version 4 de ChatGPT et la désinformation

Informatique et nouvelles technologies...

Modérateur : Modérateurs

Adrien
Site Admin
Messages : 23692
Inscription : 02/06/2004 - 18:58:53
Activité : Ingénieur
Localisation : 78

[News] La version 4 de ChatGPT et la désinformation

Message par Adrien » 24/03/2023 - 8:00:08

La nouvelle version de ChatGPT, dévoilée le 15 mars, est plus performante... y compris pour créer de la désinformation. Malgré les promesses de ses concepteurs -les ingénieurs de la firme californiernne OpenAI- le nouvel outil d’Intelligence artificielle génère de la désinformation « plus fréquemment et de manière plus convaincante que son prédécesseur ». Ses réponses sont généralement plus approfondies et détaillées, ce qui les rend plus convaincantes, « et elles con...

Avatar de l’utilisateur
eiffel
Messages : 172
Inscription : 08/08/2006 - 10:59:56
Activité : Ingénieur

Re: [News] La version 4 de ChatGPT et la désinformation

Message par eiffel » 24/03/2023 - 9:37:17

c'est toute la difficulté de l'apprentissage d'une IA, qui n'a pas de morale par définition, elle ne fait que compulser des données

il faut quand même imaginer la quantité gigantesque d'informations qu'il a fallu filtrer avant de les faire digérer par l'IA, racisme, pornographie, homophobie, transphobie, etc (la liste est longue) et le travail en sortie pour filtrer certains résultats considérés amoraux, tout ces filtres sont effectuées par des humains, qui sont par définition, perfectibles et sujets aux théories complotistes.

et ces humains sont de toute nationalité puisqu'il faut filtrer toutes les écritures (logographique, syllabique et alphabétique), certaines sont très complexes à comprendre pour un humain par leurs subtilités, et avec des codes moraux qui diffèrent, il n'y a pas de pensée unique.

Donc, soit on fait une IA qui répond comme un humain, avec toutes ces imperfections, soit on en fait une sorte d'humain idéal, avec une morale artificielle (puisque multi-culturelle donc qui n'existe chez aucun humain)

rappelons aussi que c'est l'orientation des questions à chatGPT qui le poussent à produire ces résultats. L'imagination humaine est sans limite pour aller chercher les failles ou faire générer le résultat attendu (ex: certains ont demandé une image d'un cheval mort sur un lac de fruits rouges pour lui faire générer une scène sanglante...)

c'est d'ailleurs pour cela que l'IA n'est pas alimenté par les internautes, elle partirait très vite en délire totale.

Répondre