Mittwoch, Dezember 18, 2024
StartKI„Auch ChatGPT vertritt eigene Werte“

„Auch ChatGPT vertritt eigene Werte“

Von Paul van de Wiel 

Beeinflusst ChatGPT die Medien oder beeinflussen die Medien ChatGPT? Hat Künstliche Intellligenz (KI) das Potenzial, Medienarbeitsplätze zu vernichten? Diese und andere Fragen diskutierten der Moralphilosoph Prof. Dr. Klaus-Jürgen Grün, der Kommunikationsberater Dr. Matthias Wühle, Unternehmensberater Dr. Lothar Weniger, Linguist Harald Vajkonny, die Philosophiestudenten Leo Kissling und Jannis Graumann gemeinsam mit dem Publizisten und Herausgeber des AI-Magazins Stefan Kny. Die Diskussion fand im Rahmen der Task Force Künstliche Intelligenz (TFKI) im Ethikverband der Deutschen Wirtschaft statt.

Roboter-Journalismus funktioniert bereits heute sehr gut, etwa in den Bereichen Wetter, Fußball und Börse, weiß Kny aus eigener Erfahrung. KI wird also vor allem in Massenmedien eingesetzt und weniger bei Spezialthemen mit einem geringerem Interessenkreis. Die Nachrichtenagentur dpa setzt dabei KI eigenen Angaben zufolge nur unter menschlicher Aufsicht ein, wohingegen sich Reuters offener gibt: „Mit differenzierten Metadaten in über 45 Millionen vollständig lizenzierbaren Nachrichtenbeiträgen ist Material von Reuters eine unverzichtbare Quelle für Trainingsdaten, ganz gleich für welches Projekt“, heißt es auf der Reuters-Webseite, wo die Weiterentwicklung zu Large Language Models (LLM) oder Verlags-GPT-Varianten schon angedeutet zu sein scheinen.

„Bei der Kennzeichnungspflicht von KI-generierten Inhalten befinden wir uns in einer Grauzone“

Stefan Kny

Mindverse ist ein AI-Tool, das anhand von Online-Quellen einen Faktencheck von Behauptungen durchführen kann. Ähnliches gibt es auch zur Prüfung zur Echtheit von Fotos. Es gibt allerdings bis heute noch kein überzeugendes Tool, das KI-Texte identifizieren könnte.

Dabei besteht keine Kennzeichnungspflicht für KI-generierte Fotos. Kny berichtet, dass er über Midjourney ein Foto von Emmanuel Macron erstellen lassen hat, auf dem der inmitten von Personen abgebildet ist, neben denen er in Wahrheit gar nicht stand. Dieses fotorealistische Bild hätte man theoretisch frei nutzen können. Sicherer war aber die Umwandlung in eine Art Illustration – da ist die Gestaltungsfreiheit größer.

Auch bei KI-generierten Texten gibt es keine Kennzeichnungspflicht. Aktuell befinden wir uns in einer Grauzone, berichtet Kny. Allerdings kann man unter bestimmten Texten hin und wieder der Zusatz „Mit freundlicher Unterstützung von ChatGPT“ beobachten.

Grundregeln der Transparenz und der Kennzeichnungspflicht müssten einfach nur streng genug aufgestellt und auch nachverfolgt werden, ebenso wie es bei der Überprüfung der Doktorarbeiten der Fall ist, entgegnet Grün. Unter der Einhaltung dieser Voraussetzungen sollte der Nützlichkeit kein juristische Stolperfalle im Weg stehen. 

„Trifft ein Unternehmer eine KI-Entscheidung zu spät, kann er im Extremfall den Bestand des Unternehmens gefährden“

Lothar Weniger

Wenn ein Redakteur zum Beispiel bei ChatGPT eingibt: „Erstelle einen Beitrag auf Basis all meiner Beiträge der letzten fünf Jahre“, und er erhält einen Beitrag der in Ton und Duktus seinen eigenen Beiträgen gleicht, wird sich der Redakteur sicher ziemlich überflüssig vorkommen. Hierin sieht Kny eine ethische Herausforderung im Zusammenhang von ChatGPT. Weniger zufolge stellt dies kein ethisches, sondern eher ein unternehmerisches Problem dar: Denn wenn ein Unternehmer neue Technologie einsetzt, erzielt er dadurch Effizienzgewinne, die auch durch Freisetzung manueller Tätigkeiten erreicht wird, erklärt Weniger. Dies wird in der Regel an anderer Stelle kompensiert oder sogar überkompensiert, etwa wenn mehr Zeit und Ressourcen für wirklich kreative Prozesse bereitgestellt werden können. Trifft der Unternehmer solche Entscheidungen nicht oder zu spät, könnte er im Extremfall sogar den Bestand seines Unternehmens gefährden.

„Gefährliche Gemengelage an wahren, halbwahren und falschen Informationen“

Harald Vajkonny

Vajkonny hat die Erfahrung gemacht, dass man sich mit ChatGPT sehr lange und sehr kompetent über vergleichsweise schwierige Themen unterhalten kann, etwa über die Literatur von James Joyce. Dabei kommen Erkenntnisse zutage, die sich bei späterer Überprüfung durchaus als wahr erweisen. Allerdings kommt bei Chat-Unterhaltungen, die detaillierte Spezialfragen berühren, irgendwann der Punkt, an denen ChatGPT Unsinn schreibt. Nicht immer erkennt man diesen, da er bisweilen plausibel verargumentiert wird. Hier liegt Vajkonny zufolge die Hauptgefahr von ChatGPT-generierten Texten, da die Überprüfung am Ende fatalerweise deshalb nicht erfolgt, weil der Inhalt den Leser bis dahin überzeugt hat. Am Ende hat man eine gefährliche Gemengelage an wahren, halbwahren und falschen Informationen, die man nur schlecht auseinanderbekommt.

Das Problem dabei ist, dass ChatGPT irgendwann anfängt zu halluzinieren, wenn der verfügbare Informationsbestand erschöpft ist. Im Zeitverlauf des Chats nimmt die Qualität der Ergebnisse ab, ergänzt Kny. Dies ist Vajkonny zufolge besonders bei Fachgebieten der Fall, zu denen es vergleichsweise wenig Quellen gibt. Über sich selbst sagt ChatGPT auch aus, dass es kein Wahrheitsgenerator ist, sondern ein Sprachgenerator. ChatGPT generiert Inhalte, die stilistisch so klingen, als würden sie zum Inhalt passen, ohne jedoch den Wahrheitsgehalt zu überprüfen.

Nach demselben Muster erfolgt die Bildgeneration bei Midjourney, ergänzt Kny. Die Bilder werden wie ein Kristall um einen Kern herum aufgebaut, wobei die Zuordnung der Pixel nach der Wahrscheinlichkeit erfolgen, welche am wahrscheinlichsten dem Nachbarpixel folgen. Beim Menschen entsteht dadurch der irrtümliche Eindruck, die KI denke mit. Das ist aber nicht der Fall, betont Vajkonny.

„Der Banale-Content-Überdruss müsste echte Journalisten zu Stories inspirieren“

Jannis Graumann

Der klassische Journalismus kennt verschiedene Stilausprägungen. Die BILD wird Fakten zum Beispiel anders gewichten und interpretieren als die taz, erläutert Kissling. Gonzo-Journalismus, der auf Basis subjektiver Erfahrungen und Emotionen beruht und den Journalisten zum Protagonisten macht, stellt wiederum einen anderen Stil dar. Demnach müsste es auch möglich sein, ChatGPT mit den Werken Heinrich Heines zu füttern um dann aktuelle Ergebnisse im Heinrich-Heine-Stil zu erhalten, fragt Kissling. Kny zufolge ist das problemlos möglich. Er berichtet von einem Chatbot, der zur Bewältigung von Jugendproblemen konstruiert wurde. Als Input wurde eingegeben, dass er sich wie ein Freund verhalten soll. Die Verwendung von jugendsprachlichen Slang-Begriffen stellte zunächst eine ernste Hürde für den Bot dar. Nachdem er mit einer Liste mit 40 Begriffen erhalten hatte, fing er an, diese im Übermaß zu verwenden. Nach einer Nachjustierung war das Ergebnis dann jedoch überraschend gut, berichtet Kny.

Angesichts der Verwendung von KI in den Massenmedien mutmaßt Graumann, dass es irgendwann auf eine Art „Banalen-Content-Überdrusses“ hinauslaufen müsste. Die sollte echte Journalisten eigentlich inspirieren, in die Welt hinauszugehen, um einzigartigen Content zu erschaffen. Auch „User generated content“, also so, dass das Magazin als Input von Content-Hinweisen der Leserschaft gemacht wird, könnte so eine Gegenbewegung darstellen, wobei hier die Frage der Vergütung zu klären wäre. 

Die BILD-Zeitung hat schon früh mit User generated content angefangen, berichtet Kny; etwa bei Ereignissen wie Unfällen, bei denen die ersten Fotos gemacht und an die Zeitung geschickt haben. Solche Fotos wurden dann etwa mit 100,- Euro pauschal vergütet. Diese Grundidee ist ausbaubar, zum Beispiel beim Ukraine-Konflikt. Hier lassen sich zahlreiche Sichtweisen, z.B. aus Moskau und aus Kiew nebeneinander darstellen und der Leser kann sich dann eine jeweilige Perspektive aussuchen. Über Pay-per-view-Modelle lassen sich dann auch Vergütungen kanalisieren. Das Problem der Urheberschaft von Texten und deren Nennung als Quelle wäre auch mittels NFTs darstellbar, ergänzt Weniger. Dies funktioniere jedoch nur bei digitalen Publikationen, schränkt Kny ein. Man kann z.B. selbst ein Bild entwerfen und dieses dann selbst vermarkten. Midjourney verkauft Lizenzen zur kommerziellen Nutzung. Der Ersteller könnte aber juristisch dagegen vorgehen. An KI-generierten Bildern hat nicht der Ersteller die Copyrights, sondern Midjourney. Und Midjourney kann das Bild auch an jedermann weiterverkaufen.

„90 Prozent der Journalisten sind durch KI ersetzbar“

Lothar Weniger

90 Prozent der journalistischen Texte bestehen Weniger zufolge aus Versatzstücken von bereits bekannten Informationen. Wenn KI hier also tatsächlich großflächig zum Einsatz gelangt, wären im Prinzip 90 Prozent der Journalisten durch KI ersetzbar und wir müssten uns nur auf die 10 Prozent der verbliebenen Journalisten konzentrieren, die wirklich schöpferische Arbeit abliefern. Copyrights bei Texten werden in der Regel auch nur auf echte Autoren-Texte erteilt, nicht aber auf KI-generierte Texte. Durch den Schutz des geistigen Eigentums sollen Innovation und Kreativität bewahrt werden. 

Bei KI-generierten Texten ist der menschliche Einfluss in der Regel jedoch gar nicht mal so klein, entgegnet Kny. Manche feilen stundenlang am richtigen Prompt, nur um die Antwort weiter zu präzisieren. Daher ist der Anspruch auf ein Copyright gar nicht mal so weit hergeholt. Aus Sicht der Gerichte liegt das Problem jedoch bei der Beweisbarkeit.

Journalistische Texte kann man auch so nicht pauschal betrachten, meint Wühle. Zwischen reinen Online-Medien wie Wetter.de und der Zeit bestehen schon noch große qualitative Unterschiede. Entsprechend unterschiedlich fällt der Nutzen einer KI für die jeweilige Nutzergruppe aus. Wer also KI in Anwendung bringen möchte, sollte zunächst sein Aktionsfeld und damit auch den Grad seiner Verantwortlichkeit abstecken. Bezogen auf die Entscheidungsfindung seitens KI findet das auf diesen unteren journalistischen Ebenen bereits flächendeckend statt; das heißt, hier ist die Verantwortung längst durch einen menschlichen Entscheider an eine KI weiterdelegiert worden. Diese werden innerhalb eines gesteckten Rahmens getroffen. Die Frage ist nun, wie weit ein solcher vordefinierter Rahmen erweitert werden kann und wie groß das Entwicklungspotential ist.

Wenn Journalisten durch KI ersetzbar würden und sich dadurch der Mensch in seiner Würde verletzt fühlen würde, könnte man KI ja auch dahingegen programmieren, dass es niemals die Menschenwürde verletzen dürfe. Müsste sich dann die KI eigentlich nicht selbst abschaffen, fragt sich Grün. Natürlich wurden beim Aufkommen von ChatGPT sofort die Stimmen laut, dass es einschränkende Regularien geben müsse, damit das System nicht so schnell außer Kontrolle gerate, weiß Kny.

„Bestimmte Probleme können mit KI besser gelöst werden als mit Ethik“

Klaus-Jürgen Grün

Grün hegt den Verdacht, dass wir unsere ethisch-moralischen Vorurteile schnell der KI überstülpen, anstatt sie an die richtige Adresse zu richten. Viele unserer ethischen Selbstverständlichkeiten werden durch KI ad absurdum geführt. Dabei können bestimmte Probleme durch KI viel besser gelöst werden als durch Ethik. Dies zeigt sich an den Paradoxien. Man spricht KI das Recht ab – etwa beim Autonomen Fahren – bestimmte Entscheidungen, die auch überlebensnotwendig sein können, zu treffen. Wir sollten auch von der Ethik – in Bezug auf KI und generell – nicht verlangen, was wir nicht einlösen können.

Jeder, der etwas bei ChatGPT eingibt („promptet“), hat eine unterschiedliche Wertevorstellung, die er in das Tool hineinträgt – und das diese Werte in anderer Form wiedergibt. Diese Werte können positiv oder negativ sein, wendet Kny ein. Grün zufolge glauben jedoch viele, deswegen eine Ethik anrufen zu müssen, um zu verhindern, dass so etwas passiert. Das ist illusorisch. Im Gegenteil, es ist eine schöne Herausforderung an uns selbst, diese Werte, die durch KI offensichtlich werden, zu verinnerlichen, bekräftigt Grün.

„KI ist voll von Werten, da diese mit Sprache gefüttert werden“

Leo Kissling

Auch ChatGPT vertritt durchaus auch eigene Werte, und zwar die des „West-kalifornischen Unternehmertums“, wendet Kissling ein. Wertevorstellungen werden mit Sprache trainiert. Insofern steckt Ethik und Moral bereits in diesen Large Language Models (LLM) drin. KI ist keine objektive Maschine, sondern ist voll mit Werten, da sie mit Sprache gefüttert wurde.

Kny ergänzt dies mit Hinweis auf einer Studie, die zum Ergebnis gekommen ist, dass es durchaus einen Unterschied mache, ob man in der Kommunikation mit ChatGPT die Wörter „Bitte“ und „Danke“ verwendet. Früher konnte man auch mit alternativen Antworten ChatGPT davon abbringen, dass 1+1 gleich 2 sei. Heute geht das nicht mehr. 

„Auch ChatGPT vertritt eigene Werte“

Titelfoto: KI in den Medien (Präsenationsfolie)

Mehr lesen Sie im aktuellen AI:Mag auf readly.

Anzeigen
- Advertisment -spot_img

Neueste Beiträge

Das könnte dir auch gefallen!

Erhalte ab sofort alle wichtigen Nachrichten des Tages um 19 Uhr kostenlos per eMail in dein Postfach!

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung.