Künstliche Intelligenz: EU muss mit AI Act Verbraucher:innen vor Täuschung und Falschinformationen schützen

Europäischer AI Act muss Verbraucher:innen starke Rechte an die Hand geben und Risiken von KI-Systemen transparent machen. vzbv fordert Recht auf Korrektur und Löschung für Betroffene. Europäische Gesetze und europäische Werte müssen unabdingbar gelten. Unabhängige Wissenschaftler brauchen Zugang zu KI-Systemen, um Risiken bewerten zu können.

Ein Moment Ihrer Zeit für die Wahrheit.

In einer Welt voller Fehlinformationen und Fake News ist es unser Auftrag bei Mimikama.org, Ihnen zuverlässige und geprüfte Informationen zu liefern. Tag für Tag arbeiten wir daran, die Flut an Desinformation einzudämmen und Aufklärung zu betreiben. Doch dieser Einsatz für die Wahrheit benötigt nicht nur Hingabe, sondern auch Ressourcen. Heute wenden wir uns an Sie: Wenn Sie die Arbeit schätzen, die wir leisten, und glauben, dass eine gut informierte Gesellschaft für die Demokratie essentiell ist, bitten wir Sie, über eine kleine Unterstützung nachzudenken. Schon mit wenigen Euro können Sie einen Unterschied machen.

Stellen Sie sich vor, jeder, der diese Zeilen liest, würde sich mit einem kleinen Beitrag beteiligen – gemeinsam könnten wir unsere Unabhängigkeit sichern und weiterhin gegen Fehlinformationen ankämpfen.

So kannst Du unterstützen:

PayPal: Für schnelle und einfache Online-Zahlungen.
Steady oder Patreon: für regelmäßige Unterstützung.

Autor: Susanne Breuer

Bei den Verhandlungen zum AI Act in Brüssel zeichnet sich eine Einigung ab, die auch generative KI-Systeme wie ChatGPT berücksichtigt. Angebote wie ChatGPT machen eine verbraucherfreundliche Regulierung besonders dringlich. Der Verbraucherzentrale Bundesverband hat klare Forderungen zum Verbraucherschutz.

AI Act muss Künstliche Intelligenz mit starken Verbraucherrechten regeln

Der vzbv fordert: Der AI Act muss Verbraucher:innen mit starken Rechten gegenüber den Betreibern ausstatten. „Wir brauchen Transparenz sowie ein Recht auf Korrektur und Löschung, damit sich Betroffene zum Beispiel gegen KI-generierte Falschmeldungen oder Manipulationen wehren können“, sagt Ramona Pop, Vorstand des Verbraucherzentrale Bundesverbands (vzbv).

„Wir brauchen Transparenz sowie ein Recht auf Korrektur und Löschung, damit sich Betroffene zum Beispiel gegen KI-generierte Falschmeldungen oder Manipulationen wehren können“.

Ramona Pop, Vorstand des Verbraucherzentrale Bundesverbands (vzbv)

Verbraucherentscheidungen werden in Zukunft zunehmend durch KI-basierte Empfehlungssysteme wie ChatGPT beeinflusst. Um Risiken von generativer KI für Verbraucher:innen auszuschließen, muss der geplante europäische AI Act für starke Verbraucherrechte und die Möglichkeit einer unabhängigen Risikobewertung sorgen.

Künstliche Intelligenz mit Risiken für Verbraucher:innen

„Das Risiko, dass KI-Systeme zu falschen oder manipulativen Kaufempfehlungen, Bewertungen und Verbraucherinformationen führen, ist hoch. Künstliche Intelligenz ist nicht immer so intelligent, wie ihr Name verspricht“, so Pop. Die Folgen für Verbraucher:innen können gravierend sein. „Es muss sichergestellt werden, dass Verbraucher:innen angemessen vor Manipulation, Irreführung und Täuschung geschützt werden, etwa durch KI-gesteuerte Empfehlungssysteme. Unabhängige Wissenschaftlerinnen und Wissenschaftler müssen Zugang zu den Systemen erhalten, um deren Risiken und Funktionsweise bewerten zu können.“

„Künstliche Intelligenz ist nicht immer so intelligent, wie ihr Name verspricht.“

Ramona Pop, Vorstand des Verbraucherzentrale Bundesverbands (vzbv)

Verbraucherrechte gegenüber KI-Betreibern stärken

Verbraucher:innen müssen sich gegen KI-generierte Falschmeldungen zur Wehr setzen können. „Wir brauchen durchsetzbare individuelle Betroffenenrechte gegenüber den Betreibern von KI. Menschen müssen einen Anspruch auf Korrektur und Löschung erhalten, etwa wenn durch Systeme wie ChatGPT Rufschädigungen entstehen.“

Der vzbv fordert: Der AI Act muss sicherstellen, dass Künstliche Intelligenz-Anwendungen europäisches Recht einhalten und europäischen Werten entsprechen.

Hintergrund

Neue generative Künstliche Intelligenz (KI) wie ChatGPT ist bisher nicht speziell reguliert und wird ohne angemessene Folgenabschätzung durch unabhängige Dritte und ohne öffentliche Kontrolle oder besondere Aufsicht auf den Markt gebracht.

Seit April 2021 wird in Brüssel über einen Rechtsrahmen für KI, den Artificial Intelligence Act (AI Act), verhandelt. Dieser soll Regeln und Qualitätsstandards für Anbieter von KI-Systemen festlegen. Die breite Diskussion um ChatGPT hat auch die Debatte um die Regulierung von KI auf europäischer Ebene in den Fokus gerückt. ChatGPT zeigt, welche Risiken KI für Verbraucher:innen birgt.

Der Rat der Europäischen Union hat sich bereits am 6. Dezember 2022 auf eine Position geeinigt. Nun muss der Rat seine Position rund um grundlegende KI-Modelle wie ChatGPT anpassen. Das Europäische Parlament will sich bis Anfang Juni auf eine Position einigen. Danach beginnen die Trilogverhandlungen zwischen Rat, Parlament und Kommission über den AI Act.

Quelle:

vzbv
Schon gelesen? Soziale Medien verwirren uns, bis wir zum Kauf verleitet werden – eine Studie beleuchtet Versuchsreihen. Soziale Medien als Verwirrungswerkzeug: Die Manipulation zum Kauf
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.