Donnerstag, Mai 2, 2024
StartCloseUpTäuschend echt: So treibt Künstliche Intelligenz die Verbreitung von Lügenbildern voran

Täuschend echt: So treibt Künstliche Intelligenz die Verbreitung von Lügenbildern voran

Künstliche Intelligenz (KI) bringt nicht nur viele Vorteile mit sich, es drohen auch Gefahren mit dem erhöhten Einsatz der Technologie.

Die Entwicklungen bleiben nicht stehen. Bereits in der Vergangenheit wurde Bilder und Videos durch KI verändert. Man kann bereits erkennen, dass die Ergebnisse immer besser werden. Irgendwann sind Fakes überhaupt nicht mehr auszumachen. Was würde das bedeuten? Inwiefern tragen Programme wie ChatGPT zu der Verbreitung von Fake News bei? Und wie kann den Gefahren entgegengewirkt werden?

Fakes wirken immer echter

In vielen Fällen ist es immer noch möglich, Fake-Bilder oder -Videos zu entlarven. In Videos stimmen Schatten nicht überein oder das Gesagte passt nicht zu den Gesichtszügen. Auf Bildern können Fakes anhand kleiner Details wie Zähne, Hände oder Ohren erkannt werden. Doch vergleicht man die von Künstlicher Intelligenz veränderten Bilder von heute mit denen von vor ein paar Jahren, erkennt man bereits deutliche Unterschiede. So werden Fakes immer besser. Wenn die Technologie weiter so schnell voranschreitet, können Fälschungen schon bald gar nicht mehr enttarnt werden. Und das würde zu großen Problem führen.

Doch was ist überhaupt fake?

Können Bilder, die von KI-Tools wie DALL-E 2 erstellt worden sind, überhaupt als Fakes betitelt werden? Im Prinzip nicht, denn es sind neue Werke, die von Grund auf selbstständig generiert wurden. 

Hingegen ist der Chatbot ChatGPT definitiv dazu fähig, Fake News zu verbreiten. Insbesondere bei den älteren Versionen des KI-Programms kommt es noch häufig vor, dass falsche oder unvollständige Daten übermittelt werden. Schließlich beruhen die Texte, die das System erstellt, auf Informationen aus dem Internet. Und es ist kein Geheimnis, dass dort auch viel Unsinn kursiert. Wenn ChatGPT weiterhin solche Daten übernimmt, kommt es also dazu, dass Fake News immer weiter verbreitet werden.

Andererseits können gezielt falsche Artikel inklusive Bilder und Videos erstellt und veröffentlicht werden. Handelt ein solcher Beitrag beispielsweise von einer bekannten Person oder einem kritischen Thema, kommt es aller Wahrscheinlichkeit nach zu einer schnellen Verbreitung. Heute dauert es nur wenige Minuten, bis Themen weltweit auf Social Media und in den Medien allgemein Aufmerksamkeit gewinnen. Je öfter ein Artikel geteilt wird, desto mehr sieht es danach aus, als würden die Informationen der Wahrheit entsprechen. Und man kann schließlich nicht wissen, was wirklich wahr ist und was nicht. Das zeigt, dass Künstliche Intelligenz durchaus in der Lage ist, Fake News zu erstellen sowie zu verbreiten. Und DALL-E sowie ChatGPT können dabei durchaus ihren Beitrag leisten.

Bereits bestehende und weitere mögliche Maßnahmen

Neben der Entwicklung von verschiedenen KI-Tools, findet auch eine Entwicklung von Systemen statt, die KI-generierte Beiträge erkennen können. Beispiele dafür sind Originality AI und der AI Text Classifyer von OpenAI. Diese werden zumeist von Lehrern und Dozierenden genutzt, die die Verwendung von KI in den Arbeiten der Schüler und Studierenden nachweisen wollen. Jedoch ist es rechtlich festgelegt, dass eine Verwendung angegeben werden muss. Auch die neueste Version ChatGPT-5 wurde bereits ausgebessert und beruht fast ausschließlich auf aktuellen und korrekten Daten. Zusätzlich müssen Bilder, die von KI-Tools erstellt oder verändert werden, ebenfalls eine Kennzeichnung aufweisen. 

Eine weitere Maßnahme, die unbedingt ergriffen werden muss, ist das Aufstellen von Regularien. Vor Kurzem forderten Experten bereits eine Denk- und Entwicklungspause für den Bereich KI. Es ist wichtig, dass im Zuge dessen, Unternehmen für ihre KI-Erfindungen haften. Das betrifft nicht nur die Verbreitung von Fake News, sondern auch ethische sowie Datenschutz-Aspekte. 

Weiterhin müssen Programme wie ChatGPT immer wieder optimiert werden. Falsche und unvollständige Daten dürfen nicht in das Training der KI miteinbezogen werden. Genauso ist es wichtig, dass Quellen in Online-Artikeln vernünftig angegeben werden. Anhand dieser kann man nämlich nachvollziehen, woher die Informationen stammen.

Fazit

Die Entwicklung von KI ist kaum noch zu stoppen. Dass auch Fake News dadurch entstehen und verbreitet werden, ist kaum abzuwenden. KI-Tools sind in der Lage, vollständige Fake-Artikel zu erstellen und zu verbreiten. Zudem können veränderte Bilder und Videos kaum noch erkannt werden. Es wird nicht mehr lange dauern, bis man gar nicht mehr sicher sein kann, was real ist und was nicht. Daher ist es unabdinglich, dass Regularien geschaffen und die Systeme weiter ausgebessert werden. Schlussendlich ist es aber auch an der Gesellschaft, nicht alles zu glauben, was man sieht. 

Autor: 

Maximilian Schmidt ist CEO von CPI Technologies. Die Firma entwickelt u. a. eine NFT-basierte Digital Identity und ist spezialisiert auf Software-Entwicklung in den Bereichen Blockchain, Finanzen und KI sowie Marketing und Fundraising. 

Webseite

Aussagen des Autors und des Interviewpartners geben nicht unbedingt die Meinung der Redaktion und des Verlags wieder

Anzeigen

Neueste Beiträge

Das könnte dir auch gefallen!

Erhalte ab sofort alle wichtigen Nachrichten des Tages um 19 Uhr kostenlos per eMail in dein Postfach!

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung.