Datenschutzbeschwerde – ChatGPT verleumdet Mann als Kindermörder

Chatbots bergen erhebliche Risiken im Zusammenhang mit der DSGVO, wenn sie unbeabsichtigt falsche Informationen erzeugt. Ein Beispiel ist die Verleumdung von Personen, indem KI-Systeme sie fälschlicherweise sogar als Kindermörder darstellen. Solche „Halluzinationen“ können den Ruf von Individuen schwer schädigen und stellen eine Herausforderung für den Datenschutz dar

Künstliche Intelligenz (KI), insbesondere Chatbots wie ChatGPT, basieren auf fortschrittlichen Sprachmodellen, die Antworten generieren, indem sie die wahrscheinlichste Fortsetzung eines Textes vorhersagen. Dabei berücksichtigt das System den gesamten Kontext der Anfrage, einschließlich grammatikalischer Struktur und thematischer Kohärenz. Diese Herangehensweise kann jedoch zu plausibel klingenden, aber faktisch falschen Antworten führen – sogenannte „Halluzinationen“. Diese Fehlinformationen reichen von kleineren Fehlern bis hin zu schwerwiegenden falschen Behauptungen, die den Ruf von Personen oder Organisationen erheblich schädigen können.

Ein aktueller Vorfall

Ein Beispiel für solch eine Fehlinformation ist ein Vorfall, bei dem ChatGPT einen norwegischen Bürger fälschlicherweise als Mörder darstellte, der angeblich zwei seiner Kinder getötet haben soll. Der Vorfall wurde durch den österreichischen Datenschutzverein Noyb (None of Your Business) aufgegriffen, der bereits zuvor Beschwerden gegen OpenAI in ähnlicher Sache eingereicht hatte. Noyb fordert, dass Maßnahmen ergriffen werden, um diese fehlerhaften Informationen zu korrigieren und eine Kontrolle über die generierten Daten zu ermöglichen.

Das Problem der KI-Halluzinationen

Ein gravierendes Problem bei KI-Systemen wie ChatGPT ist die ungewollte Vermischung von realen und falschen Informationen. Im Fall des norwegischen Bürgers wurden korrekte Details wie der Heimatort und das Alter seiner Kinder mit falschen Aussagen über eine angebliche Verurteilung und lange Haftstrafe wegen Mordes kombiniert.
Ähnliche Fälle sind dokumentiert: Ein Journalist, der als Gerichtsreporter tätig war, wurde von ChatGPT ebenfalls fälschlicherweise als Straftäter dargestellt, weil das System ihn mit den von ihm berichteten Fällen verwechselte.
Solche Fehlinformationen entstehen häufig aufgrund der Art und Weise, wie KI-Modelle trainiert werden, ohne dass eine tatsächliche „Verifizierung“ der Fakten stattfindet. Das führt zu schwerwiegenden Konsequenzen, da Benutzer den generierten Text möglicherweise für wahr halten, was den Ruf von Individuen oder Organisationen nachhaltig schädigen kann.

Datenschutzrechtliche Anforderungen und die DSGVO

Die Datenschutz-Grundverordnung (DSGVO) fordert, dass personenbezogene Daten korrekt und aktuell sein müssen. Artikel 5 Absatz 1 Buchstabe d legt fest, dass unrichtige Daten korrigiert oder gelöscht werden müssen. OpenAI argumentiert, dass ein Hinweis auf mögliche Fehler ausreiche, um Haftungsansprüche zu vermeiden. Diese Position steht jedoch im Widerspruch zu den klaren Vorgaben der DSGVO, die keine Haftungsausschlüsse erlaubt. Ein Hinweis auf Fehler befreit das Unternehmen nicht von seiner Verantwortung.

Fehlende Transparenz und Korrekturmöglichkeiten

Ein weiteres Problem bei OpenAI ist die mangelnde Transparenz hinsichtlich der Datenverarbeitung. Laut Artikel 15 DSGVO haben Betroffene das Recht, Auskunft darüber zu erhalten, welche personenbezogenen Daten über sie verarbeitet werden. KI-Anbieter wie OpenAI geben jedoch keine detaillierten Informationen darüber preis, welche Trainingsdaten ihre Modelle verwenden. Dies erschwert es nicht nur, fehlerhafte Informationen zu identifizieren, sondern auch, die Herkunft und Verarbeitung von Daten nachzuvollziehen.

Außerdem ist es bei KI-Systemen wie ChatGPT technisch schwierig, falsche Informationen zu korrigieren oder zu löschen, da die Daten nicht in einer traditionellen Form gespeichert werden. Stattdessen „halluziniert“ die KI neue Antworten, basierend auf dem gelernten Modell, ohne dass die zugrunde liegenden Fehler erkannt oder behoben werden können. Dies bedeutet, dass betroffene Personen oft keine Möglichkeit haben, gegen fehlerhafte Aussagen vorzugehen oder diese zu berichtigen.

Verantwortung von OpenAI und Verstöße gegen die DSGVO

Die DSGVO stellt klare Anforderungen an Unternehmen, die personenbezogene Daten verarbeiten, um sicherzustellen, dass diese korrekt und aktuell sind. OpenAI verstößt gegen diese Vorgaben, indem es unrichtige Informationen generiert und den betroffenen Personen keine Möglichkeit zur Korrektur bietet. Die mangelnde Transparenz in Bezug auf die Datenverarbeitung und die Schwierigkeit, Fehler zu beheben, machen es umso schwieriger, die Verantwortlichkeit für fehlerhafte Daten nachzuvollziehen.

Forderungen und mögliche Lösungen

Aufgrund dieser Probleme hat Noyb eine zweite Beschwerde bei der norwegischen Datenschutzbehörde eingereicht. Der Verein fordert von OpenAI, Maßnahmen zu ergreifen, um die Generierung falscher Informationen zu verhindern und diese schnell zu korrigieren. Zudem fordert Noyb ein empfindliches Bußgeld, um zukünftige Verstöße zu verhindern und KI-Anbieter zur Einhaltung der DSGVO zu bewegen.

Die Notwendigkeit einer klaren Regulierung

Die wachsende Verbreitung von KI-Systemen erfordert eine präzise und umfassende Regulierung. Der AI-Act der Europäischen Union stellt einen wichtigen Schritt dar, um einheitliche Standards für den Einsatz von KI in der EU zu etablieren. Besonders risikobehaftete Anwendungen, wie der Einsatz von KI in sensiblen Bereichen wie der Justiz oder Medizin, müssen strengen Anforderungen unterliegen. Unternehmen, die solche Systeme einsetzen, müssen sicherstellen, dass ihre Technologien transparent und nachvollziehbar sind und dass sie keine Risiken für die Rechte und Freiheiten von Betroffenen darstellen.

Darüber hinaus müssen Unternehmen, die KI im Einklang mit der DSGVO und dem AI-Act einsetzen, fortlaufend ihre Algorithmen überwachen, um die hohen Anforderungen an Transparenz und Datensicherheit zu erfüllen. Eine klare Regulierung ist notwendig, um die Risiken durch fehlerhafte oder manipulative KI-Anwendungen zu minimieren und die Rechte der Betroffenen zu schützen.

Schulungspflicht für Mitarbeiter im Umgang mit KI

Der AI-Act der EU, der seit Juli 2023 in Kraft ist, verpflichtet Unternehmen gemäß Artikel 4, ihre Mitarbeiter im Umgang mit den Risiken von Künstlicher Intelligenz zu schulen. Dies umfasst die Sensibilisierung für mögliche Gefahren wie fehlerhaftes KI-Verhalten und Datenschutzprobleme. Die Schulungspflicht trägt zur sicheren und verantwortungsvollen Nutzung von KI bei. Unternehmen, die diese Vorgaben nicht einhalten, müssen mit Strafen rechnen.

 

Unser Angebot für Sie:

  • Kostenloses und unverbindliches Erstgespräch
  • Praxisnahe Datenschutz-Beratung speziell für KI-Anwendungen
  • Entwicklung individueller Datenschutzkonzepte
  • Beratung zur Umsetzung von IT-Sicherheitsstandards
  • Mitarbeiterschulungen zu KI und Datenschutz
  • Erstellung oder Prüfung Ihrer Datenschutzerklärung
  • Beratung zur Nutzung von Cloud-Systemen und digitalen Plattformen
  • Unterstützung bei Prüfungen durch Aufsichtsbehörden

 

Kontaktieren Sie uns noch heute!
Für eine unverbindliche Erstgespräch – wir bringen Ihr Unternehmen
datenschutzkonform in die Zukunft, auch im Umgang mit KI.

 

Matthias A. Walter, http://www.tec4net.com

EDV-Sachverständiger | Auditor für Datenschutz und IT-Sicherheit


Quellen und Links:

ChatGPT erfand einen falschen Kindermörder
https://noyb.eu/de/ai-hallucinations-chatgpt-created-fake-child-murderer

Anwalt fällt auf von ChatGPT erfundene Urteile herein
https://www.heise.de/news/ChatGPT-erfindet-Gerichtsurteile-US-Anwalt-faellt-darauf-herein-9068180.html

Studie von Forschern am Massachusetts Institute of Technology veröffentlicht in der Fachzeitschrift „Patterns“
https://www.cell.com/patterns/fulltext/S2666-3899(24)00103-X

DSGVO-Bußgeldern finden sie unter:
https://it-news-blog.com/?cat=370

tec4net Infoseite zur KI-Strategieberatung
https://www.tec4net.com/web/ki-strategieberatung


tec4net – Datenschutz und IT-Sicherheit praktikabel umsetzen
Wir beraten und auditieren DSGVO und BDSG sowie die Normen ISO/IEC 27001, TISAX, NIS-2 und PCI-DSS.

 

www.tec4net.comwww.it-news-blog.comwww.it-sachverstand.infowww.datenschutz-muenchen.comwww.it-sicherheit-muenchen.com