OpenAI kämpft gegen Wahlmanipulation durch KI

Mit der zunehmenden Bedeutung von Künstlicher Intelligenz (KI) rückt auch deren Einfluss auf politische Prozesse in den Fokus.

Autor: Claudia Spiess

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Neue Maßnahmen für die Integrität von Wahlen

Die bevorstehenden US-Wahlen 2024 werfen ein Schlaglicht auf die potenziellen Gefahren des Missbrauchs von KI-Tools, insbesondere im Hinblick auf die Bild-KI DALL-E 3. Als einer der führenden Akteure in der KI-Entwicklung ergreift OpenAI nun entscheidende Maßnahmen, um solche Gefahren abzuwenden und die Integrität demokratischer Prozesse zu schützen.

Strengere Richtlinien und Wasserzeichen

Eine der wichtigsten Maßnahmen ist die Einführung eines unsichtbaren Wasserzeichens für Bilder, die mit DALL-E 3 erzeugt werden. Dieser Schritt basiert auf dem C2PA-Standard der Content Authenticity Initiative (CAI).

Ziel ist es, die Herkunft von KI-generierten Bildern zweifelsfrei nachzuweisen und damit irreführende „Deepfakes“ oder andere Formen der Bildmanipulation erkennbar zu machen.

Dieser Standard, an dem auch andere Technologie-Giganten wie Adobe, Sony, Canon und Leica beteiligt sind, stellt einen bedeutenden Fortschritt im Kampf gegen die Verbreitung gefälschter Inhalte dar. Er ergänzt die Bemühungen von OpenAI, die Nutzungsrichtlinien für ChatGPT und die API zu verschärfen, um Missbrauch zu verhindern.

Ein neues Werkzeug: Der Provenance Classifier

Zusätzlich zum Wasserzeichen führt OpenAI den Provenance Classifier ein, ein innovatives Werkzeug zur Erkennung von DALL-E generierten Bildern. Dieses Werkzeug wird zunächst ausgewählten Journalisten, Forschern und Plattformen zur Verfügung gestellt, um Feedback zu sammeln und die Effektivität zu erhöhen.

Diese vorsichtige Einführung spiegelt den Lernprozess wider, den OpenAI aus früheren Erfahrungen mit ähnlichen Tools wie dem kurzlebigen Textklassifikator gezogen hat.

Stärkere Verknüpfung mit Echtzeit-Nachrichten

Ein weiterer Schritt ist die verstärkte Integration von ChatGPT mit Echtzeit-Nachrichtenberichterstattung. Die Bereitstellung von Quellenangaben und Links soll den Wählern helfen, Informationen besser einzuordnen und ihre Glaubwürdigkeit zu beurteilen.

Diese Neuerung dient auch der Steigerung des Medienverkehrs, unterstützt durch Partnerschaften mit Unternehmen wie Axel Springer und Associated Press.

Politische Nutzung von ChatGPT eingeschränkt

Ein wesentliches Element der neuen Sicherheitsstrategie ist die Anpassung der Nutzungsrichtlinien für ChatGPT. OpenAI untersagt ausdrücklich die Nutzung seiner Technologie für politische Kampagnen und Lobbyarbeit.

Diese Einschränkung gilt solange, bis mehr über die möglichen Auswirkungen auf „persönliche Überzeugungen“ bekannt ist. Besonders hervorzuheben ist das Verbot von Chatbots, die sich als reale Personen oder Institutionen ausgeben, sowie von Technologien, die Menschen von der Teilnahme an demokratischen Prozessen abhalten könnten.

Der Weg in die Zukunft

Diese Maßnahmen zeigen, dass sich OpenAI der Verantwortung bewusst ist, die mit der Entwicklung und dem Einsatz von KI-Technologien einhergeht. Die Zusammenarbeit mit der National Association of Secretaries of State (NASS) und die Weiterleitung von wahlbezogenen Anfragen an „Can I Vote.org“ sind Beispiele für praktische Anwendungen, die zeigen, wie KI einen positiven Beitrag zur Förderung demokratischer Prozesse leisten kann.

In einer Welt, in der die Grenzen zwischen Realität und KI-generierten Inhalten zunehmend verschwimmen, sind solche Initiativen entscheidend, um die Integrität und Vertrauenswürdigkeit von Informationen zu gewährleisten.

Die Bemühungen von OpenAI, die Risiken der Wahlbeeinflussung durch KI zu minimieren, sind ein wichtiger Schritt auf dem Weg zu einer verantwortungsvollen Nutzung dieser mächtigen Technologie.

Quelle: the decoder

Für weitere Informationen abonnieren Sie den Mimikama-Newsletter. Melden Sie sich auch gerne für unsere Online-Vorträge und Workshops an.

Das könnte Sie auch interessieren:

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.