Ist ChatGPT die Lösung, wenn die Timeline drängt oder das Kreativzentrum einmal leer ist? „Ja, aber“, sagt die Münchner Kommunikationsagentur PR-COM und zeigt typische Einsatzfehler, die Mitarbeitende bei der Nutzung von Generativer KI besser vermeiden sollten.
Nie mehr an Formulierungen schleifen und einfach Software die Textarbeit erledigen lassen? Ja, die Verlockungen für den Einsatz von Generativer KI sind gerade in der Kommunikationsarbeit nicht von der Hand zu weisen. Aber wie immer lohnt sich ein genauer Blick auf das Potenzial und die Risiken, bevor man die Tools zum Einsatz bringt. Die Münchner Kommunikationsagentur PR-COM präsentiert die sechs größten Fehler beim Einsatz von Generativer KI.
1. Sorgfaltspflichten nicht beachten. Ganz egal, ob das Bauunternehmen einen Bagger einsetzt oder die Anwaltskanzlei einen Chatbot – jede Technologie im Arbeitskontext ist mit Sorgfaltspflichten verbunden. Diese Pflicht gilt im Besonderen für neue Technologien, deren Auswirkungen noch nicht absehbar sind. Verantwortliche sollten deshalb vor der Verwendung von Generativer KI die Nutzungsregeln und Verantwortlichkeiten definieren, mögliche Rechts- und Datenschutzkonflikte prüfen, die Nutzung in der Vertragsausgestaltung implementieren und den Dialog mit Stakeholdern suchen. All diese Aspekte sind entscheidend, um im Falle einer kritischen Situation den Nachweis erbringen zu können, dass sorgfältig mit der Technologie umgegangen worden ist.
2. Urheberrechte verletzen und plagiieren. Der Diebstahl geistigen Eigentums ist ein strafrechtlich relevanter Tatbestand. Wer Inhalte einer Generativen KI für berufliche oder kommerzielle Zwecke nutzt, muss deshalb prüfen, ob diese urheberrechtlichen Verstöße verursachen können. Das umfasst einerseits die Nutzungsbedingungen und Lizenzrechte von Generativen-KI-Modellen, denen man als Nutzer zwangsläufig zustimmt; zum anderen die erzeugten Inhalte, weil der KI-Anbieter die Haftung für den Content nicht übernimmt. Mit anderen Worten: Falls KI plagiierte Inhalte mit Urheberrechtsverletzungen erzeugt hat, haftet derjenige, der diese Informationen verbreitet – das gilt übrigens auch für Falschinformationen.
3. Content für bare Münze nehmen. Du bist, was du isst – diese Ernährungsweisheit gilt auch für Generative-KI-Modelle. Diese werden mit großen Datenmengen trainiert und genau davon hängt später die Qualität ihres Outputs ab. Je mehr inhaltliche Fehler, geklauten Content und Falschaussagen sich die KI im Training einverleibt hat, umso wahrscheinlicher finden sich diese problematischen Inhalte später in den Antworten wieder. Gerade die öffentlichen Modelle wie ChatGPT legen nicht transparent dar, mit welchen Trainingsdaten, Modellgrößen und Verfahren die KI trainiert wurde – hinzu kommen systembedingte Schwächen wie „Halluzinationen“ und „KI-Kannibalisierung“. Es ist also große Vorsicht geboten: Der ausgegebene Content sollte nur dann weiterverwendet werden, wenn er inhaltlich geprüft worden ist.
4. Schlechte Inhalte kommunizieren. Generative KI-Modelle erzeugen Inhalte anhand von analysierten Textmustern und Sprachstrukturen. Generative KI kann deshalb nicht zwischen wahr und falsch differenzieren, sondern lediglich Inhalte mit hoher Wahrscheinlichkeit einander zuordnen. Das bedeutet, dass der erzeugte Output weder korrekt noch originär sein muss. Es ist in der Unternehmenskommunikation und Medienarbeit also nicht nur einer Frage des guten Stils, den Output auf seine Kreativität, Angemessenheit und Qualität zu überprüfen, sondern sorgt auch für die Leserbindung und den Erhalt der Markenbotschaft.
5. Diskriminierende Inhalte publizieren. In den Trainingsdaten von Generativer KI finden sich immer wieder Informationen, die ethisch problematisch sind. Das reicht von diskriminierenden Inhalten bis zu Gewaltdarstellungen und -beschreibungen. Auch wenn Entwicklungsteams im Training versuchen, derartige Daten zu entfernen, so zeigt sich in diversen Nutzerversuchen ein kritisches Ergebnis. Stereotype und Diskriminierungen erscheinen ebenso im Output von ChatGPT wie Rassismus und ein Gender Bias. Die Inhalte sollten deshalb unbedingt auf diese ethischen Aspekte geprüft werden.
6. Langfristig strategielos agieren. Jeder Hype geht eines Tages vorbei und dann bleibt die Frage, welchen Mehrwert Generative KI für die eigene Öffentlichkeitsarbeit leisten kann. Anstatt also unreflektiert den Hype zu befeuern, ergibt es Sinn, vor dem KI-Einsatz einmal strategisch darüber nachzudenken. Passt Generative KI überhaupt zum eigenen Kommunikationsformat und Medium? Wie verändert sich dadurch das Verhältnis zu Partnern und Kunden? Welche Folgen hätte der Einsatz? Wer diese Fragen sinnvoll beantworten kann und Generative KI dann bewusst in seine Kommunikationsstrategie einbindet, hat damit ein Werkzeug zur Hand und kein Spielzeug mehr.
„Wie zu erwarten war, ist der Hype um Generative KI nach der Markteinführung von ChatGPT in den letzten Monaten wieder etwas abgeebbt“, bestätigt Alain Blaes, CEO von PR-COM. „Darin liegt jetzt die Chance, sich strategisch mit der Technologie auseinanderzusetzen und den Mehrwert für die eigenen Prozesse zu evaluieren. Das sollte die Basis für jeden Einsatz sein.“
Bild: Alain Blaes, Geschäftsführer von PR-COM (Quelle: PR-COM)
Quelle PR-COM GmbH