Italienische Datenschutzbehörde sperrt ChatGPT

Als erstes Land sperrt Italien den Chatbot ChatGPT von OpenAI. Grundlage für diese Entscheidung sind datenschutzrechtliche Bedenken sowie fehlender Jugendschutz.

Autor: Claudia Spiess


Liebe Leserin, lieber Leser,

jeden Tag strömt eine Flut von Informationen auf uns ein. Doch wie viele davon sind wirklich wahr? Wie viele sind zuverlässig und genau? Wir bei Mimikama arbeiten hart daran, diese Fragen zu beantworten und dir eine Informationsquelle zu bieten, der du vertrauen kannst.

Aber um erfolgreich zu sein, brauchen wir deine Hilfe. Du hast es in der Hand, eine Welt voller vertrauenswürdiger Informationen zu schaffen, indem du uns jetzt unterstützt. Jede Unterstützung, ob groß oder klein, ist ein wichtiger Beitrag zu unserer Mission.

Werde Teil einer Bewegung, die sich für die Wahrheit einsetzt. Deine Unterstützung ist ein starkes Signal für eine bessere Informationszukunft.

❤️ Herzlichen Dank

Du kannst uns entweder via PayPal oder mittels einer Banküberweisung unterstützen. Möchtest Du uns längerfristig unterstützen, dann kannst Du dies gerne mittels Steady oder Patreon tun.


Die italienische Datenschutzbehörde hat sich durchgesetzt: ChatGPT ist in Italien gesperrt, OpenAI, das Unternehmen hinter ChatGPT wurde angewiesen, das Angebot in Italien einzustellen, bis die Datenschutzbestimmungen erfüllt werden.

„Die italienische Datenschutzbehörde hat mit sofortiger Wirkung die vorläufige Einschränkung der Verarbeitung der Daten italienischer Nutzer gegen OpenAI, das US-Unternehmen, das die Plattform entwickelt und verwaltet, angeordnet. Gleichzeitig hat die Behörde eine Untersuchung eingeleitet.“

Pressemitteilung der GPDP / Ital. Datenschutzbehörde (Garante per la protezione dei dati personali) vom 31. März 2023

Fehlender Datenschutz, fehlender Jugendschutz

Begründet wird diese Entscheidung von der italienischen Datenschutzbehörde GPDP (Garante per la protezione dei dati personali) damit, dass bei der Verarbeitung der Eingaben von Nutzern „massiv“ personenbezogene Daten gesammelt würden, um den Algorithmus von ChatGPT zu „trainieren“. Laut der Datenschutzbehörde gebe es dafür keine Rechtsgrundlage. Außerdem seien die Nutzer nicht ausreichend informiert worden.

Ein weiterer schwerwiegender Punkt ist, dass sich ChatGPT laut eigenen Angaben von OpenAI an Personen über 13 Jahre richtet. Jedoch wird das Alter der Nutzer in keinster Art und Weise überprüft. Das hat zur Folge, dass Minderjährige womöglich „Antworten erhalten, die für ihren Entwicklungsstand und ihr Selbstbewusstsein völlig ungeeignet sind“.

Am 20. März sei es laut der Datenschutzbehörde zu einem Datenverlust gekommen. Unterhaltungen der Nutzer und Zahlungsinformationen der Abonnenten des kostenpflichtigen Dienstes waren betroffen.

Die italienische Datenschutzbehörde war zuvor auch gegen den Chatbot „Replika“ vorgegangen, weil es auch hier für Kinder und Jugendliche unter 13 Jahren keinen ausreichenden Schutz gab.

20 Tage Reaktionszeit

Die Datenschutzbehörde fordert nun von OpenAI, innerhalb von 20 Tagen zu reagieren:

„Wir haben OpenAI gebeten, die Verarbeitung personenbezogener Daten italienischer Nutzer mit sofortiger Wirkung auszusetzen. Wir haben unabhängig gehandelt. Jetzt hat das Unternehmen 20 Tage Zeit, um dem nachzukommen.“

Guido Scorza, Mitglied der Datenschutzbehörde

Innerhalb dieser Frist hat OpenAI nun die Möglichkeit, mitzuteilen, welche Maßnahmen ergriffen werden. Passiert dies nicht, droht eine Strafe von bis zu 20 Millionen Euro oder bis zu vier Prozent des globalen Jahresumsatzes. OpenAI könne laut einer Sprecherin der Behörde Widerspruch einlegen. Doch zuvor muss es der Anweisung der Datenschutzbehörde Folge leisten.

Quelle:

Pressemitteilung GPDP (Garante per la protezione dei dati personali), ORF, FAZ, futurezone.de

Schon gelesen?
ChatGPT – Wie Betrüger und Kriminelle Künstliche Intelligenz für Betrug, Falschinformation und Cybercrime nutzen
Betrug mit ChatGPT-Fake: Sensible Daten sind im Spiel
ChatGPT: Check, Recheck, Doublecheck! Glaube keinem Chatbot.


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Mehr von Mimikama