Les bloqueurs de pubs mettent en péril la gratuité de ce site.
Autorisez les pubs sur Techno-Science.net pour nous soutenir.
▶ Poursuivre quand même la lecture ◀
Sehen, aber nicht glauben: Die Auswirkungen von Deepfakes auf unsere Wahrnehmung der Realität 👀
Veröffentlicht von Adrien, Quelle:The Conversation unter Creative Commons-Lizenz Andere Sprachen: FR, EN, ES, PT
Von Stéphanie Gauttier & Sylvie Blanco - Grenoble École de Management (GEM)
Die durch künstliche Intelligenz erzeugten Manipulationen verzerren unsere Sicht auf die Realität und beeinflussen unser Verhalten als Verbraucher und Bürger.
Grobe Deepfake-Darstellung von Donald Trump, der von der Polizei festgenommen wird.
In Hongkong überwies ein Angestellter 25 Millionen Dollar, weil er glaubte, den Anweisungen der Geschäftsführer seines Unternehmens zu folgen, mit denen er angeblich per Videokonferenz gesprochen hatte. In Wirklichkeit hatte er nie einen echten Menschen vor sich.
Diese Bilder sind Deepfakes, also ultraelastische Inhalte, die nicht die Realität darstellen oder sie sogar verfälschen und somit unsere Sicht auf die Welt verzerren können.
Einer der ersten populären Deepfakes. Nein, der Papst hat nie öffentlich diese weiße Daunenjacke getragen. Bild Wikimedia
Heutzutage bedeutet Sehen nicht mehr Glauben: Bilder, Videos und andere manipulierte Inhalte können von echten Inhalten nicht mehr unterschieden werden. Dieses Phänomen stellt die Gesellschaft vor ernsthafte Herausforderungen.
Verbraucher manipulieren: Von Schönheitsidealen zur kulturellen Hegemonie
Die Bilder von Models, die in Werbekampagnen großer Marken verwendet werden, werden von KI-Systemen generiert. Sie vermitteln ein bestimmtes Schönheitsideal und ästhetische Normen, die in der realen Welt oft unerreichbar sind.
Über eine Ästhetik hinaus, die einfach die von KI generierten und veränderten Inhalte charakterisieren könnte, versuchen die durch Hypertrucages erstellten künstlichen Models und Influencer, sich in die reale Welt einzufügen, als wären sie echte Menschen. Incognito Influencer, ein virtueller Influencer, erschien 2023 auf den Bildern aller Fashion Weeks, obwohl ihn niemand dort getroffen hat. Aitana Lopez, ein künstliches Model, hat eigene Social-Media-Profile.
In diesen Fällen geht es nicht darum, gelegentlich ein "perfektes" Bild zu erzeugen, um ein Produkt zu verkaufen, sondern darum, eine virtuelle Persönlichkeit zu inszenieren, die Menschen in der physischen Welt beeinflusst.
Es gibt keine Grenzen dafür, was man diese Hypertrucage-Agenten tun lassen kann, da sie nicht existieren. In diesem Sinne können Hypertrucages unrealistische Lebensmodelle vermitteln, die das Unwohlsein derjenigen verstärken können, die ähnliche Lebensweisen anstreben.
In dieser Hinsicht betrachtet die Marketingforschung Hypertrucages als anders als traditionelle Werbemechanismen. Hypertrucage-Bilder können so inspirierend sein, dass Menschen direkt daran glauben, ohne sie zu sehr zu hinterfragen. Je reicher die Hypertrucages sind (z. B. durch die Vermittlung von Informationen über ein einfaches Foto hinaus, sondern durch Videoinhalte), desto eher sind Verbraucher bereit, die damit verbundenen Produkte zu kaufen.
Das bedeutet jedoch nicht, dass Marken keine Grenzen setzen sollten: Verbraucher, die den Hypertrucage nicht erkannt haben, aber später erfahren, dass sie getäuscht wurden, haben weniger Lust, Produkte dieser Marke zu kaufen.
Schließlich spiegeln und verstärken die KI-Tools, die zur Erzeugung von Hypertrucages verwendet werden, die Vorurteile unserer Gesellschaften. Vor acht Jahren diskriminierte eine KI, die eingeladen wurde, einen Schönheitswettbewerb zu beurteilen, Menschen mit dunkler Hautfarbe.
Noch heute zeigt die Bing-Suchmaschine fast ausschließlich kaukasische Babys mit blauen Augen, wenn man nach Bildern von "schönen Babys" sucht. Dies lässt vermuten, dass virtuelle Hypertrucage-Influencer nur bestimmte Ethnien und Schönheitsvorstellungen als ästhetisch und sozial "inspirierend" darstellen könnten.
Hypertrucages können das politische Leben erschüttern
Politiker können durch Hypertrucages modernen Parodien ausgesetzt werden. Im Jahr 2023 ließ Clad 3815 auf seinem Twitch-Kanal französische Politiker in Form von Hypertrucages für eine interaktive Sitzung auftreten, die der Unterhaltung diente.
Allerdings können KI-generierte Inhalte, wenn sie nicht als solche gekennzeichnet sind, manipulierend wirken, da sie den Anschein erwecken, die Realität zu zeigen, obwohl dies nicht der Fall ist.
Zum Beispiel veröffentlichte ein Mitglied der französischen Regierungspartei zum Neujahr 2024 einen Hypertrucage auf X, der Marine Le Pen zeigt, wie sie auf Russisch ein frohes neues Jahr wünscht, ohne darauf hinzuweisen, dass es sich um eine Montage handelte. Dies könnte die Wahrnehmung von Marine Le Pen beeinflussen und angesichts der Debatten über die Position ihrer Partei gegenüber Russland als unterhaltsam erscheinen.
Aber wir sind nicht alle gleich gegenüber diesen Manipulationen. Zum Beispiel werden Personen, die sich stärker für Politik interessieren, besser in der Lage sein, diese Hypertrucages zu erkennen als andere, was auf ihr allgemeines Wissen über politische Informationen, ihre Fähigkeit, diese zu analysieren, und ihre erhöhte Exposition gegenüber solchen Inhalten zurückzuführen sein könnte.
Generative künstliche Intelligenz: Auf dem Weg zu verantwortungsvollen Anwendungen
Wenn man optimistisch ist, könnte man denken, dass generative KI es ermöglicht, Bildungsinhalte zu erstellen, wie Videos historischer Persönlichkeiten, die Geschichte auf fesselnde Weise erzählen, oder historische Ereignisse nachzustellen.
Sie kann auch die Entstehung neuer Dienstleistungen ermöglichen. Einige erkunden die Idee, sie zu nutzen, um Menschen in der Trauerbewältigung zu unterstützen. Der Unterschied zwischen einem Hypertrucage und einer einfachen Nutzung generativer KI liegt im Ziel der Inhaltserstellung: Hypertrucages sind mit der Absicht verbunden, zu täuschen und zu manipulieren. Wenn verantwortungsvolle Anwendungen generativer KI möglich sind, ist es wichtig, diese zu fördern und mögliche Abweichungen zu regulieren.
In diesem Sinne wurde die Diskussion über die Regulierung von Hypertrucages bereits 2019 in der französischen Nationalversammlung angestoßen, und die Stakeholder übernehmen Verantwortung: Seit 2023 werden KI-generierte Bilder auf Google mit einem Wasserzeichen versehen, eine Technik, die das Unternehmen 2024 auf seine Videoinhalte, insbesondere die auf Gemini und über seine Chatbots erstellten, ausweitete. Im Jahr 2023 kündigte Twitch ein Verbot der Verbreitung von pornografischen Deepfakes an. Im Jahr 2024 erließ Kalifornien ein Gesetz gegen die Erzeugung von Hypertrucages im Zusammenhang mit Wahlen.
Dieser Artikel folgt auf die Veröffentlichung des Weißbuchs "Generative KI und Hypertrucages" für die Region Auvergne-Rhône-Alpes. Das Weißbuch wurde von P. Wieczorek und S. Blanco koordiniert. Es erhielt Beiträge von L. Bisognin, S. Blanco, T. Fournel, D. Gal-Regniez, S. Gauttier, S. Guicherd, A. Habrard, E. Heidsieck, E. Jouseau, S. Miguet, I. Tkachenko, K. Wang und P. Wieczorek.