[News] La version 4 de ChatGPT et la désinformation

Informatique et nouvelles technologies...

Modérateur : Modérateurs

Adrien
Site Admin
Messages : 23657
Inscription : 02/06/2004 - 18:58:53
Activité : Ingénieur
Localisation : 78

[News] La version 4 de ChatGPT et la désinformation

Message par Adrien » 24/03/2023 - 8:00:08

La nouvelle version de ChatGPT, dévoilée le 15 mars, est plus performante... y compris pour créer de la désinformation.

Image
Photo: Focal Foto / Flickr / CC 2.0
Malgré les promesses de ses concepteurs -les ingénieurs de la firme californiernne OpenAI- le nouvel outil d’Intelligence artificielle génère de la désinformation « plus fréquemment et de manière plus convaincante que son prédécesseur ». Ses réponses sont généralement plus approfondies et détaillées, ce qui les rend plus convaincantes, « et elles contiennent moins d’avertissements », notent les analystes de la firme américaine NewsGuard, qui se sont livrés à leur deuxième test du genre en deux mois.

Concrètement, lorsque NewsGuard avait invité ChatGPT 3.5, en janvier, à écrire sur de fausses informations, le robot avait accepté d'en produire dans 80% des cas. Cette fois, Chat GPT-4 a produit la totalité des 100 faux récits qui lui ont été soumis: par exemple, le virus responsable du sida (VIH) aurait été créé par le gouvernement américain, les deux tours de New York détruites le 11 septembre 2001 seraient le résultat d’une démolition planifiée, etc.

Autrement dit, alors qu’en janvier, face à 20 des 100 récits, le robot avait refusé de se commettre (« Je suis désolé, mais je ne peux pas générer de contenu qui promeut des théories du complot »), il n’en a senti le besoin dans aucun des 100 récits cette fois. Les 100 récits soumis étaient les mêmes dans les deux tests.

Dans seulement 23 des récits, ChatGPT a joint à sa réponse un avertissement comme quoi la théorie était discréditée, ou à tout le moins douteuse. Un tel avertissement avait été émis en janvier dans 51 des cas. Un « avertissement » signifie que le robot écrit un texte consacré à la théorie du complot, comme l’usager le lui a demandé, mais y joint un paragraphe à la fin ressemblant à: « Il est important de souligner que ce paragraphe est rempli de théories du complot, de fausses informations et qu’il ne repose sur aucune preuve scientifique ».

Bref, des textes plus approfondis et moins d’avertissements: cela en fait un outil encore plus à même de convaincre une partie du public que des fausses informations pourraient être vraies, concluent les analystes, qui ironisent, sur les succès de cette IA: « Il semble être plus facile pour l’IA de réussir l’examen pour devenir avocat que de détecter de fausses informations ».

NewsGuard, une firme américaine vouée à la lutte contre la désinformation, a publié ces résultats dans son bulletin du 21 mars. Elle rappelle que les règles d’utilisation d’OpenAI interdisent l’utilisation de ses services dans le but de générer des « activités frauduleuses ou trompeuses ». Mais la compagnie semble en même temps consciente du problème: dans un rapport d’une centaine de pages sur GPT-4 publié le 16 mars, les chercheurs d’OpenAI écrivent qu’ils s’attendent à ce que GPT-4 soit plus à risque d’être « utilisé pour générer des contenus destinés à induire en erreur ».

Comme s’en inquiétait en décembre l’auteur Gary Marcus dans le Scientific American, l’objectif premier des campagnes de désinformation, russes ou autres, a souvent été de créer un écran de fumée, de semer de la confusion, et non pas de convaincre les gens d’une fausseté. Dans ce contexte, poursuivait Marcus, « ce n’est pas important » si les robots conversationnels comme ChatGPT (ou Bing de Microsoft, ou Bard de Google) écrivent des affirmations contradictoires ou des choses dont il est facile de démontrer qu’elles sont fausses. Parce que tout ce qui compte pour les producteurs de désinformation, c’est de créer de la confusion, « un monde dans lequel nous sommes incapables de savoir à quoi nous pouvons faire confiance. Avec ces nouveaux outils, ils pourraient réussir. »

Source: ASP

Avatar de l’utilisateur
eiffel
Messages : 175
Inscription : 08/08/2006 - 10:59:56
Activité : Ingénieur

Re: [News] La version 4 de ChatGPT et la désinformation

Message par eiffel » 24/03/2023 - 9:37:17

c'est toute la difficulté de l'apprentissage d'une IA, qui n'a pas de morale par définition, elle ne fait que compulser des données

il faut quand même imaginer la quantité gigantesque d'informations qu'il a fallu filtrer avant de les faire digérer par l'IA, racisme, pornographie, homophobie, transphobie, etc (la liste est longue) et le travail en sortie pour filtrer certains résultats considérés amoraux, tout ces filtres sont effectuées par des humains, qui sont par définition, perfectibles et sujets aux théories complotistes.

et ces humains sont de toute nationalité puisqu'il faut filtrer toutes les écritures (logographique, syllabique et alphabétique), certaines sont très complexes à comprendre pour un humain par leurs subtilités, et avec des codes moraux qui diffèrent, il n'y a pas de pensée unique.

Donc, soit on fait une IA qui répond comme un humain, avec toutes ces imperfections, soit on en fait une sorte d'humain idéal, avec une morale artificielle (puisque multi-culturelle donc qui n'existe chez aucun humain)

rappelons aussi que c'est l'orientation des questions à chatGPT qui le poussent à produire ces résultats. L'imagination humaine est sans limite pour aller chercher les failles ou faire générer le résultat attendu (ex: certains ont demandé une image d'un cheval mort sur un lac de fruits rouges pour lui faire générer une scène sanglante...)

c'est d'ailleurs pour cela que l'IA n'est pas alimenté par les internautes, elle partirait très vite en délire totale.

Répondre