Die Verwendung von Kunstwerken für KI-Trainings stellt für viele Kunstschaffende einen massiven Eingriff in ihr Urheberrecht dar. KI-Modelle stehen nun vor einer Herausforderung. Das Tool „Nightshade“ wurde entwickelt, um Bilder-KI zu sabotieren, indem sie mit „vergifteten“ Daten gefüttert werden, und schützt so Künstler vor der unerlaubten Reproduktion ihres Stils und ihrer Werke.

Ein Schild für Urheber*innen in der digitalen Welt

Ben Zhao und sein Team von der University of Chicago sind die Architekten von Nightshade, einer Erweiterung des früheren Tools „Glaze“ – ein Tool, das es Künstlern ermöglicht, ihren eigenen persönlichen Stil zu „maskieren“ und damit zu schützen.

Die Verwendung zur „Vergiftung“ dieser Trainingsdaten könnte zukünftige Iterationen von bilderzeugenden KI-Modellen wie DALL-E, Midjourney und Stable Diffusion beeinträchtigen, indem einige ihrer Ergebnisse unbrauchbar gemacht werden. Vereinfacht ausgedrückt: Die KI, die normalerweise aus einem Textbefehl einen Hund generieren würde, liefert stattdessen das Bild einer Katze.

MIT Technology Review erhielt einen exklusiven Einblick in die Forschungsarbeit, die auf der Usenix Konferenz für Computersicherheit zur Peer-Review eingereicht wurde.

Unsichtbare Veränderungen, deutliche Wirkung

Nightshade und Glaze arbeiten mit subtilen Pixelmanipulationen, die für das menschliche Auge unsichtbar sind. Diese kleinen, aber signifikanten Veränderungen führen dazu, dass die KI-Modelle in den Bildern völlig andere Objekte „sehen“. Durch das Ausnutzen dieser KI-Schwäche „lernt“ das Modell beispielsweise, Handtaschen als Toaster zu interpretieren. Dieser Effekt verstärkt sich, wenn eine größere Anzahl von Bildern vergiftet wird, was dazu führen kann, dass die KI völlig außer Gefecht gesetzt wird.

Zhao gibt zu bedenken, dass die Technik der Datenvergiftung potenziell für schädliche Absichten zweckentfremdet werden könnte. Allerdings betont er, dass für einen tatsächlichen Schaden an umfangreicheren und fortschrittlicheren Modellen Angreifer eine enorme Menge von vergifteten Daten benötigen würden.

Lesen Sie auch >   Die Post in Österreich verkauft herrenlose Pakete um 1,99 Euro?

Ein Test der Effektivität

Die Wirksamkeit von Nightshade wurde bereits nachgewiesen. Ein Experiment mit der KI „Stable Diffusion“ zeigte, dass bereits 50 manipulierte Bilder ausreichen, um die generierten Bilder unbrauchbar zu machen. Eine Sammlung von 300 solcher Bilder stürzte das System ins Chaos und es konnte nicht mehr zwischen Katzen und Hunden unterscheiden.

Bildquelle: Shan et. al., 2023. - Vergleich mit vergifteten Bildern
Bildquelle: Shan et. al., 2023. – Vergleich mit vergifteten Bildern

Open-Source-Schutz für Kreative

Nightshade wird als Open-Source-Anwendung zur Verfügung stehen und in Glaze integriert sein. Auf diese Weise haben die Künstler die Wahl zwischen dem Schutz ihrer Werke und der Möglichkeit, die Datensätze aktiv zu vergiften und damit unbrauchbar zu machen.

Fazit: Ein Sprungbrett für künstlerische Sicherheit

Nightshade stellt einen Meilenstein im digitalen Urheberrechtsschutz dar. Während es tausender manipulierter Bilder bedarf, um größere KI-Modelle signifikant zu beeinflussen, legt dieses Tool den Grundstein für wirksame Abwehrmechanismen gegen KI-basierten Kunstdiebstahl. Es ist nicht nur ein Schutzschild für bereits existierende Werke, sondern auch eine Abschreckung gegen unautorisierte Nutzung in der Zukunft.

Interessiert an der Wahrheit und leidenschaftlich für Fakten? Melden Sie sich für den Mimikama-Newsletter an und entdecken Sie außerdem unser umfangreiches Medienbildungsangebot.

Quelle:

futurezone.at, MIT Technology Review

Das könnte auch interessieren:
Desinformations-Dilemma: Wenn Echtes als KI-Fälschung abgetan wird
Googles innovative Strategie gegen Fakebilder
Wie gefälschte Accounts und KI die Wahrnehmung des Gaza-Konflikts verzerren

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)