La version 4 de ChatGPT et la désinformation

Publié par Adrien le 24/03/2023 à 08:00
Source: ASP
1
Restez toujours informé: suivez-nous sur Google Actualités (icone ☆)

La nouvelle version de ChatGPT, dévoilée le 15 mars, est plus performante... y compris pour créer de la désinformation.


Photo: Focal Foto / Flickr / CC 2.0

Malgré les promesses de ses concepteurs -les ingénieurs de la firme californiernne OpenAI- le nouvel outil d'Intelligence artificielle (L'intelligence artificielle ou informatique cognitive est la « recherche de moyens...) génère de la désinformation (La désinformation est un processus, utilisable à tous les niveaux dans toutes les sphères de la...) "plus fréquemment et de manière plus convaincante que son prédécesseur". Ses réponses sont généralement plus approfondies et détaillées, ce qui les rend plus convaincantes, "et elles contiennent moins d'avertissements", notent les analystes de la firme américaine NewsGuard, qui se sont livrés à leur deuxième test du genre en deux mois (Le mois (Du lat. mensis «mois», et anciennement au plur. «menstrues») est une période de temps...).

Concrètement, lorsque NewsGuard avait invité ChatGPT 3.5, en janvier, à écrire sur de fausses informations, le robot (Un robot est un dispositif mécatronique (alliant mécanique, électronique et...) avait accepté d'en produire dans 80% des cas. Cette fois, Chat (Le chat domestique (Felis silvestris catus) est un mammifère carnivore de la famille des...) GPT-4 a produit la totalité des 100 faux récits qui lui ont été soumis: par exemple, le virus (Un virus est une entité biologique qui nécessite une cellule hôte, dont il utilise...) responsable du sida (VIH) aurait été créé par le gouvernement américain, les deux tours de New York (New York , en anglais New York City (officiellement, City of New York) pour la distinguer de...) détruites le 11 septembre 2001 seraient le résultat d'une démolition planifiée, etc.

Autrement dit, alors qu'en janvier, face à 20 des 100 récits, le robot avait refusé de se commettre ("Je suis désolé, mais je ne peux pas générer de contenu qui promeut des théories du complot"), il n'en a senti le besoin dans aucun des 100 récits cette fois. Les 100 récits soumis étaient les mêmes dans les deux tests.

Dans seulement 23 des récits, ChatGPT a joint à sa réponse un avertissement comme quoi la théorie était discréditée, ou à tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou...) le moins douteuse. Un tel avertissement avait été émis en janvier dans 51 des cas. Un "avertissement" signifie que le robot écrit un texte consacré à la théorie du complot, comme l'usager le lui a demandé, mais y joint un paragraphe à la fin ressemblant à: "Il est important de souligner que ce paragraphe est rempli de théories du complot, de fausses informations et qu'il ne repose sur aucune preuve scientifique (Un scientifique est une personne qui se consacre à l'étude d'une science ou des sciences et qui...)".

Bref, des textes plus approfondis et moins d'avertissements: cela en fait un outil encore plus à même de convaincre une partie du public que des fausses informations pourraient être vraies, concluent les analystes, qui ironisent, sur les succès de cette IA: "Il semble être plus facile pour l'IA de réussir l'examen pour devenir avocat que de détecter de fausses informations".

NewsGuard, une firme américaine vouée à la lutte contre la désinformation, a publié ces résultats dans son bulletin du 21 mars. Elle rappelle que les règles d'utilisation d'OpenAI interdisent l'utilisation de ses services dans le but de générer des "activités frauduleuses ou trompeuses". Mais la compagnie semble en même temps (Le temps est un concept développé par l'être humain pour appréhender le...) consciente du problème: dans un rapport d'une centaine de pages sur GPT-4 publié le 16 mars, les chercheurs d'OpenAI écrivent qu'ils s'attendent à ce que GPT-4 soit plus à risque d'être "utilisé pour générer des contenus destinés à induire en erreur".

Comme s'en inquiétait en décembre l'auteur Gary Marcus dans le Scientific American, l'objectif premier des campagnes de désinformation, russes ou autres, a souvent été de créer un écran de fumée (La fumée, parfois appelée boucane en Amérique du Nord, est un nuage de particules...), de semer de la confusion, et non pas de convaincre les gens d'une fausseté. Dans ce contexte (Le contexte d'un évènement inclut les circonstances et conditions qui l'entourent; le...), poursuivait Marcus, "ce n'est pas important" si les robots conversationnels comme ChatGPT (ou Bing de Microsoft (Microsoft Corporation (NASDAQ : MSFT) est une multinationale américaine de solutions...), ou Bard de Google) écrivent des affirmations contradictoires ou des choses dont il est facile de démontrer qu'elles sont fausses. Parce que tout ce qui compte pour les producteurs de désinformation, c'est de créer de la confusion, "un monde (Le mot monde peut désigner :) dans lequel nous sommes incapables de savoir à quoi nous pouvons faire confiance. Avec ces nouveaux outils, ils pourraient réussir."
Page générée en 0.082 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique