OpenAI steht vor einer Datenschutzkrise: ChatGPT fabriziert tödliche Lügen, europäische Regulierungsbehörden ziehen das Unternehmen zur Verantwortung
Der Chatbot von OpenAI, ChatGPT, steht in Europa erneut im Mittelpunkt von Datenschutzbeschwerden, nachdem er tödliche Lügen über einen Nutzer erfunden hatte. Die Beschwerde wurde von der Datenschutzorganisation Noyb eingereicht, unterstützt von einem Norweger, der schockiert war, als er erfuhr, dass ChatGPT eine falsche Geschichte erfunden hatte, in der behauptet wurde, er habe zwei Kinder ermordet und versucht, ein drittes zu töten.
Dieser Vorfall verdeutlicht die Risiken, die durch die Generierung ungenauer Informationen durch ChatGPT entstehen, und löst große Bedenken hinsichtlich des Datenschutzes und der Datenschutzverantwortung aus. Noyb argumentiert, dass die Aktionen von ChatGPT gegen die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union, insbesondere hinsichtlich der Richtigkeit und Berichtigung personenbezogener Daten.
„Erfundener Mordfall“ schockiert die örtliche Bevölkerung
Der betroffene Mann, Arve Hjalmar Holmen, war verblüfft, als er ein Gespräch mit ChatGPT begann und die KI nach einigen Informationen über sich selbst fragte. Anstatt genaue Angaben zu machen, erfand die KI eine völlig falsche Geschichte: Holmen sei wegen Mordes an zwei Söhnen und des versuchten Mordes an einem dritten verurteilt worden. Obwohl die Antwort der KI hinsichtlich Anzahl und Geschlecht seiner Kinder teilweise zutraf, war die erfundene Mordgeschichte zutiefst beunruhigend.
Noyb betont, dass die erfundene Mordbehauptung trotz der teilweisen Richtigkeit bestimmter Angaben – etwa des Geschlechts und des Familienwohnsitzes der Kinder – bei Holmen erhebliche emotionale Belastungen verursacht habe.
Datenschutz und Datengenauigkeit: Ein harter Test für die DSGVO
Das Rechtsteam von Noyb argumentiert, dass die DSGVO eindeutig die Richtigkeit personenbezogener Daten vorschreibt und dass Einzelpersonen das Recht haben, bei Ungenauigkeiten Korrekturen zu verlangen. Der kurze Haftungsausschluss von OpenAI, der darauf hinweist, dass die KI Fehler machen könnte, entbindet das Unternehmen nicht von der Verantwortung. OpenAI muss die Verantwortung für die Generierung falscher Informationen übernehmen.
Gemäß der DSGVO müssen Verantwortliche (in diesem Fall OpenAI) sicherstellen, dass alle von ihnen verarbeiteten personenbezogenen Daten korrekt sind und den Betroffenen ein klarer Mechanismus zur Fehlerkorrektur zur Verfügung steht. ChatGPT bietet derzeit jedoch keine Möglichkeit zur Korrektur falscher Informationen, was das Unternehmen potenziellen Strafen aussetzen könnte. Tatsächlich können DSGVO-Verstöße zu Geldstrafen von bis zu 41 TP3B des weltweiten Jahresumsatzes eines Unternehmens führen.
Europäische Regulierungsbehörden verschärfen rechtliche Verantwortlichkeit
Dieser Fall hat die Aufmerksamkeit europäischer Regulierungsbehörden auf sich gezogen, die zunehmend besorgt über KI-generierte Inhalte sind. Noyb hat in Norwegen Beschwerde eingereicht und die zuständigen Regulierungsbehörden aufgefordert, die Praktiken von OpenAI gründlich zu untersuchen. Weitere damit verbundene Fälle sind ebenfalls anhängig. Zum Beispiel: Polnische Datenschutzbehörde hat seit September 2023 noch keine formelle Antwort auf OpenAIs ChatGPT herausgegeben.
Während einige Länder einen vorsichtigeren Ansatz verfolgen und erklären, generative KI-Tools nicht überstürzt zu verbieten, könnten die Gefahren gefälschter Informationen die Regulierungsbehörden zu einem Kurswechsel veranlassen. OpenAI sah sich bereits in mehreren Ländern mit regulatorischen Maßnahmen konfrontiert, darunter auch in Italien. Dort wurde das Unternehmen vorübergehend gesperrt und 2023 wegen Nichteinhaltung der Datenschutzbestimmungen mit einer Geldstrafe von 15 Millionen Euro belegt.
Probleme bei der Herstellung künstlicher Intelligenz: Von der Ethik bis zu rechtlichen Herausforderungen
Dieser Fall unterstreicht einmal mehr die potenziellen Risiken, die von KI im Zusammenhang mit der Manipulation von Informationen ausgehen, insbesondere aus ethischer und rechtlicher Sicht. NoybDie Anwälte von argumentieren, dass sich KI-Unternehmen nicht einfach auf Haftungsausschlüsse verlassen können, um sich der Verantwortung zu entziehen. „Man kann nicht einfach einen Haftungsausschluss hinzufügen, in dem es heißt: ‚Wir könnten falsch liegen‘, und dann den entstandenen Schaden ignorieren“, sagten sie.
Mit der zunehmenden Verbreitung von KI-Tools wächst die Sorge, dass sie die Privatsphäre und den Ruf Einzelner schädigen könnten. KI-Unternehmen müssen mehr Verantwortung übernehmen – nicht nur, indem sie die Verbreitung falscher Informationen verhindern, sondern auch, indem sie sicherstellen, dass solche Informationen gar nicht erst gefälscht werden.
Zukünftige Regulierung und Verantwortung: Wie wird OpenAI mit Datenschutzherausforderungen umgehen?
Die neue Beschwerde von Noyb stellt nicht nur eine Herausforderung für OpenAI dar, sondern auch ein gemeinsames Problem, mit dem KI-Unternehmen weltweit konfrontiert sind: Wie können sie sicherstellen, dass ihre Technologie aufgrund gefälschter Informationen keine rechtlichen und ethischen Konsequenzen nach sich zieht? Da die europäischen Regulierungsbehörden ihre Kontrolle über KI-Tools verschärfen, wird die Reaktion von OpenAI auf diese Herausforderungen erhebliche Auswirkungen auf die Compliance des Unternehmens auf dem Weltmarkt haben.
Künftig könnten wir mit einer Zunahme von Datenschutzbeschwerden und regulatorischen Maßnahmen rechnen. KI-Unternehmen müssen daher Datenschutz und Nutzerrechte bei der Produktentwicklung priorisieren. Die Balance zwischen Innovation und Datenschutz entwickelt sich schnell zu einem kritischen Thema, dem sich KI-Unternehmen stellen müssen.