Joe Novak, Chief Innovation Officer Spitch: „Die Unternehmen sind gefordert, ein Gleichgewicht zwischen Innovation und der Ethik des Fortschritts zu finden.“
In der sich rasch entwickelnden Landschaft der Künstlichen Intelligenz (KI) wird die Unterscheidung zwischen „guter KI“ und „schlechter KI“ immer wichtiger – nicht nur in technologischer, sondern auch in ethischer und rechtlicher Hinsicht. Darauf weist die Spitch AG hin, einer der führenden europäischen Hersteller von Systemen für Conversational AI, also Sprach- und Textdialogsystemen auf KI-Basis.
Josef Novak, Co-Founder und Chief Innovation Officer bei Spitch, erklärt: „In dem Maße, in dem staatstragende Organe wie das EU-Parlament umfassende rechtliche Rahmenbedingungen für den KI-Einsatz verabschieden, wird es für Unternehmen immer wichtiger, bei der KI-Einführung den Datenschutz, die Sicherheit, die Einhaltung von Vorschriften und verantwortungsvolle Entwicklungspraktiken in den Vordergrund zu stellen.“ Nach Einschätzung des Chef-Innovators von Spitch ist die jüngste EU-Gesetzgebung zu KI, der EU AI Act, geeignet, „einen neuen globalen Standard für die verantwortungsvolle Einführung von KI zu setzen“.
Er wird deutlich: „Der EU AI Act fordert Unternehmen und Organisationen auf der ganzen Welt heraus, zwischen guter KI – bei der Datenschutz und Sicherheit im Vordergrund stehen – und schlechter KI – die sich auf die Ausbeutung von Daten konzentriert – zu unterscheiden.“ Es komme darauf an, „ein Gleichgewicht zwischen Innovation und der Ethik des Fortschritts zu finden“.
Gute und schlechte KI im Sinne des EU AI Act
Die Spitch AG ordnet die Konzepte der „guten“ und „schlechten“ KI aus regulatorischer und zukunftsorientierter pragmatischer Sicht wie nachfolgend beschrieben ein.
Die jüngste Verabschiedung des EU-KI-Gesetzes durch das Europäische Parlament ist ein wichtiger Meilenstein in den weltweiten Bemühungen, eine sichere und verantwortungsvolle Entwicklung von KI-Technologien zu gewährleisten. Ziel des Gesetzes ist es, die Rechte der Bürger, die Demokratie und die ökologische Nachhaltigkeit vor den Gefahren zu schützen, die von risikoreichen KI-Anwendungen ausgehen. Die Gesetzgebung legt Verpflichtungen fest, die auf den Risiko- und Auswirkungsgrad von KI-Systemen zugeschnitten sind, mit dem Ziel, Europa als globalen Vorreiter für verantwortungsvolle KI-Innovationen zu positionieren.
Das Gesetz gilt für Anbieter und Entwickler von KI-Systemen, die in der EU vermarktet oder genutzt werden, unabhängig davon, ob diese Anbieter oder Entwickler in der EU oder in einem anderen Land – etwa der Schweiz wie im Fall von Spitch – ansässig sind. Es verfolgt einen risikobasierten Ansatz für die Einstufung von KI-Systemen in vier Stufen, die der Sensibilität der betroffenen Daten und dem jeweiligen KI-Nutzungsfall bzw. der Anwendung entsprechen.
Die Gesetzgebung führt strenge Verbote für KI-Anwendungen ein, die als schädlich erachtet werden, wie zum Beispiel biometrische Kategorisierungssysteme, ungezieltes Scraping von Gesichtsbildern, Emotionserkennung am Arbeitsplatz und in der Schule, Social Scoring und prädiktive Polizeiarbeit, die ausschließlich auf Profiling basiert. Außerdem werden spezifische Bedingungen für den Einsatz biometrischer Identifizierung in der Strafverfolgung festgelegt und Transparenz und Genauigkeit für KI-Systeme mit hohem Risiko gefordert.
Rahmenwerke für KI gewinnen an Bedeutung
Während sich Unternehmen mit diesen neuen Herausforderungen auseinandersetzen, werden Frameworks wie etwa RAFT (Reliable, Accountable, Fair and Transparent) von der AI-Plattform Data Iku entwickelt, um einen umfassenden Unternehmens- sowie Forschungs- und Entwicklungs-Fahrplan für den verantwortungsvollen Aufbau von KI-Systemen zu erstellen, potenzielle Risiken zu adressieren und zukünftige regulatorische Entwicklungen vorausschauend zu berücksichtigen.
Das RAFT-Rahmenwerk unterstreicht die kritische Notwendigkeit für Unternehmen, die Rolle von Rechenschaftspflicht und Governance bei der Nutzung von KI-Systemen zu berücksichtigen, insbesondere im Zusammenhang mit der raschen Entwicklung und Einführung von generativer KI und großen Sprachmodellen (LLMs). Es wird betont, dass der Einsatz und die Steuerung von KI die soziotechnische Dynamik, rechtliche Erwägungen und aufkommende Probleme wie Datenschutz und Urheberrechtsverletzungen berücksichtigen müssen. Ziel dieses proaktiven Ansatzes ist es, den sich abzeichnenden Konsens über diese Technologie auf breiter Basis zu vereinheitlichen und Unternehmen und Forschungseinrichtungen einen vorausschauenden Ansatz zu bieten, mit dem sie sich vorbereiten können, auch wenn die Auswirkungen künftiger Gesetze noch ungewiss sind.
Generative KI birgt spezifische Risiken, wie Toxizität, Polarität, Diskriminierung, übermäßiges Vertrauen in KI, Desinformation, Datenschutz, Modellsicherheit und Urheberrechtsverletzungen. Diese Risiken können sich in verschiedenen Arten von KI-Technologie manifestieren und variieren je nach Anwendungsfall.
Der Mensch muss auch weiterhin das Sagen haben
Angesichts dieser Sachlage ist Spitch eigenen Angaben zufolge strikt darauf bedacht, sowohl die Notwendigkeit als auch die Auswirkungen von generativen KI-Tools zu berücksichtigen, wenn sie in bestehende Dienste eingebunden oder im eigenen Unternehmen genutzt werden. Bei der Integration dieser Tools in die eigenen Contact Center-Lösungen, etwa für das Qualitätsmanagement, liegt der Schwerpunkt auf der verantwortungsvollen Verbesserung des Kundenerlebnisses, der Reduzierung von Stress und der Rationalisierung von Kundeninteraktionen – nicht auf KI um der KI willen. „Wir vertreten die feste Überzeugung, dass der Mensch auch weiterhin das Sagen haben muss“, erklärt Joe Novak, und ergänzt: „Bei der verantwortungsbewussten Einführung von KI müssen Unternehmen die Zielgruppe für die Ergebnisse von KI-Modellen berücksichtigen – ob Geschäftskunden, Verbraucher oder Privatpersonen. Zudem ist strikt darauf zu achten, dass Schlüsselkriterien wie Zuverlässigkeit und Transparenz gefördert werden, denn das zeichnet gute KI aus.“
Bewertung der potenziellen Auswirkungen
Nach Ansicht des Chief Innovation Officers von Spitch sollten die potenziellen Risiken von KI-Systemen auf der Grundlage ihrer direkten und indirekten Auswirkungen auf Einzelpersonen und Gruppen bewertet werden. Dabei spielt es keine Rolle, ob diese Auswirkungen unmittelbar eintreten oder sich erst im Laufe der Zeit entfalten, meint Joe Novak. Er stellt für die Entwickler von KI-Systemen klipp und klar fest: „Wir müssen sicherstellen, dass unsere Lösungen weder absichtlich noch indirekt systematisch Daten ausspähen, Voreingenommenheit fördern, unnötig polarisieren oder Falschinformationen generieren. Das gilt sowohl für die Interaktion mit dem Einzelnen als auch im öffentlichen Raum. Es liegt an uns, in diesem Sinne gute KI zu entwickeln!“ Manche Auswirkungen würden möglicherweise erst im Laufe der Zeit ersichtlich und Firmen müssten ihre KI-Systeme dementsprechend anpassen.
Joe Novak erklärt für sein Unternehmen: „Bei Spitch haben wir uns verpflichtet, Datenschutz, Sicherheit, Compliance und verantwortungsvolle Entwicklungspraktiken zu priorisieren. Im Rahmen unserer Software für Conversational AI wollen wir die Leistungsfähigkeit der generativen KI nutzen und dabei gleichzeitig die mit schlechter KI verbundenen Risiken so weit wie möglich abschwächen. Hierzu werden wir uns an den aufkommenden globalen Standards für verantwortungsvolle KI-Innovationen orientieren.“
Bild:Josef Novak, Chief Innovation Officer bei Spitch / Quelle: Spitch
Quelle:Spitch AG