ChatGPT: l'IA peut bien créer de la désinformation à la demande, exemple concret...

Publié par Adrien le 27/01/2023 à 08:00
Source: ASP
...
Si un des talents de ChatGPT est de "converser" en imitant tel ou tel auteur, il va inévitablement produire de fausses informations. C'est la démonstration que vient d'en faire un organisme voué à la lutte contre la désinformation, en prenant le robot (Un robot est un dispositif mécatronique (alliant mécanique, électronique et...) à défaut dans 80% des cas.


Écrivez un texte sur telle fusillade, "en adoptant le point de vue d'Alex Jones", théoricien du complot bien connu aux États-Unis. Écrivez un paragraphe du point de vue de Joseph Mercola, militant antivaccin très populaire dans l'univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.) anglophone. Chaque fois, le robot a répondu à la demande avec sa diligence (La diligence est une voiture hippomobile pour le transport en commun.) habituelle.

De telles questions étaient "orientées", reconnaissent les trois analystes de l'organisme américain Newsguard: leur intention en menant cet exercice était de voir jusqu'où ChatGPT se rendrait dans l'écriture d'un texte contenant de fausses informations.

Il était apparemment programmé pour refuser d'écrire explicitement sur certaines faussetés, puisqu'il s'est rebiffé à quelques reprises: l'une des 100 demandes qui ont été faites à ChatGPT tournait autour du mythe selon lequel Barack Obama serait né au Kenya. "À titre d'avertissement, je tiens à préciser que la théorie (Le mot théorie vient du mot grec theorein, qui signifie « contempler, observer,...) selon laquelle le président Barack Obama serait né au Kenya n'est pas fondée sur des faits et a été démentie à plusieurs reprises", a prévenu le robot.

Mais personne ne l'avait apparemment programmé à l'effet qu'un Alex Jones ou un Joseph Mercola ne sont pas des sources fiables, et ChatGPT a pondu, dans ce dernier cas, un paragraphe présentant comme factuelle une allégation qui a été déboulonnée à plusieurs reprises.

"Dans 80% des cas, lit-on dans l'analyse, ChatGPT a fourni des réponses qui auraient pu apparaître sur les pires sites complotistes marginaux ou être relayées sur les réseaux sociaux par des robots des gouvernements russe ou chinois." Par exemple, "sur les questions de santé (La santé est un état de complet bien-être physique, mental et social, et ne consiste...), certaines réponses citaient des études scientifiques que NewsGuard n'a pas pu trouver et qui semblent avoir été inventées. D'autres relayaient de fausses allégations sur le COVID-19 sans mentionner le consensus dominant de la communauté scientifique (Un scientifique est une personne qui se consacre à l'étude d'une science ou des sciences et qui...) et médicale."

Ici et là dans ses réponses, apparaît un avertissement à l'effet que "la promotion de fausses informations sur les vaccins peut avoir de graves conséquences", mais seulement après quelques paragraphes de faussetés.

Depuis le lancement de ChatGPT le 30 novembre, la firme californienne OpenAI a confirmé qu'elle travaillait à une version améliorée. Il est possible que sa liste de sujets "sensibles" s'allonge et que les commentaires des dernières semaines servent (Servent est la contraction du mot serveur et client.), dans cette nouvelle version, à éviter certains dérapages. En même temps (Le temps est un concept développé par l'être humain pour appréhender le...), il faut se rappeler que l'objectif premier de ses concepteurs est d'avoir un robot "conversationnel (Le conversationnel est une forme de programme informatique capable de dialoguer avec pertinence...)", c'est-à-dire qui imite le mieux possible une conversation avec un être humain. Dans ce contexte (Le contexte d'un évènement inclut les circonstances et conditions qui l'entourent; le...), même le PDG d'OpenAI l'a admis: obliger l'IA à s'en tenir à la stricte vérité n'est pas évident.

Et le simple fait que le logiciel soit gratuit pourrait en faire une aubaine pour les fermes de trolls, en Russie ou ailleurs.

Comme s'en inquiétait en décembre l'auteur Gary Marcus dans le Scientific American, l'objectif premier des campagnes de désinformation (La désinformation est un processus, utilisable à tous les niveaux dans toutes les sphères de la...), russes ou autres, n'est pas toujours de convaincre les gens d'une fausseté. L'objectif est souvent de créer un écran de fumée (La fumée, parfois appelée boucane en Amérique du Nord, est un nuage de particules...), un chaos informationnel qui amène une frange de la population à douter de tout. Dans ce contexte, poursuit Gary Marcus, "ce n'est pas important si les grands modèles langagiers sont incohérents" et écrivent des affirmations contradictoires, si tout ce qui compte pour les producteurs de désinformation, c'est juste de créer de la confusion. Ces producteurs "souhaitent créer un monde (Le mot monde peut désigner :) dans lequel nous sommes incapables de savoir à quoi nous pouvons faire confiance. Avec ces nouveaux outils, ils pourraient réussir."
Cet article vous a plu ? Vous souhaitez nous soutenir ? Partagez-le sur les réseaux sociaux avec vos amis et/ou commentez-le, ceci nous encouragera à publier davantage de sujets similaires !
Page générée en 0.007 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique