KI-Bilder: Wurde mein Foto zum Trainieren von Künstlichen Intelligenzen genutzt?

Bildgeneratoren, die mit wenigen Schlagwörtern in wenigen Minuten KI-Bilder zaubern, sind beliebt. Dies können sie, weil sie mit echten Fotos „trainiert“ werden – doch dies geschieht nicht immer mit Zustimmung der Urheber!

Autor: Ralf Nowotny

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Sie heißen Dall-E 2 oder Craiyon, die bekanntesten Bildgeneratioren, die nur einige Schlagwörter oder Beschreibungen benötigen, um KI-Bilder zu erzeugen, die oftmals skurril, manchmal aber auch erstaunlich akkurat sind. Doch wie jede künstliche Intelligenz, müssen auch diese trainiert werden, und dies mit Millionen von Fotos – vielleicht auch mit einem von deinen Bildern!

Interessante KI-Bilder

Es macht ziemlichen Spaß, mit den Bildgeneratoren KI-Bilder zu erzeugen, da auch die abgedrehtesten Beschreibungen Bilder hervorbringen. Hier beispielsweise hab ich mit Dall-E 2 einen Hasen erzeugt, der auf einem Dinosaurier reitet:

KI-Bilder eines auf einem Dinosaurier reitenden Häschens
KI-Bilder eines auf einem Dinosaurier reitenden Häschens, Quelle: Dall-E 2

Da meine beschränkte Fantasie nicht ausreicht, fragte ich meine Tochter nach einer Idee:

Eine Elfe, die im Weltraum einen Cheeseburger isst. Warum auch nicht?
Eine Elfe, die im Weltraum einen Cheeseburger isst. Warum auch nicht?, Quelle: Dall-E 2

Und Kollegin Janine wollte einen kleinen Darth Vader-Yoda:

Ein Darth Vader-Yoda
Ein Darth Vader-Yoda, Quelle: Dall-E 2

Nun werden diese Bilder von Yoda und den Elfen ja nicht aus dem Nichts erzeugt, sondern in diesem Fall echte Zeichnungen als Grundlage verwendet, die durch die künstliche Intelligenz aufgrund der Beschreibungen dementsprechend angepasst werden. Und da liegt aber auch das Problem: Viele Künstler wollen das vielleicht gar nicht!

Getty Images sagt „Nein“ zu KI-Bildern

Um KI-Bilder zu erzeugen, werden Millionen öffentlich zugängliche Bilder und Fotos genutzt, aber auch oftmals Fotos von Datenbanken, deren Inhalt kostenpflichtig ist. Dabei bewegen sich die Bildgeneratoren in einer rechtlichen Grauzone, da die Bilder und Fotos ja nur teilweise und oftmals verfremdet genutzt werden.

Getty Images möchte sich selbst keine Kopfschmerzen bereiten und lässt deshalb nur Bilder zu, die von Menschen angefertigt und bearbeitet wurden. Grund für diesen Schritt sind die offenen Urheberrechtsfragen im Zusammenhang mit KI-generierten Bildern. Der Yoda oben im Bild ist ja schon ein gewisser Zeichenstil – doch von wem stammt er, und stimmte der Künstler oder die Künstlerin überhaupt zu? Oder ist er wirklich komplett mit einer KI entstanden?

Have I been trained?

Mit einer Suchmaschine können Künstler (und natürlich auch alle anderen) überprüfen, ob ihre Fotos, Bilder, Zeichnungen etc. von Bildgeneratoren genutzt werden, um KI-Bilder zu erzeugen.

Dazu geht ihr einfach auf die Suchmaschine „Have I been trained“ (siehe HIER) und gebt dort Stichwörter ein oder ladet eure eigenen Werke hoch. Auf Twitter könnt ihr auch Fragen zu der Suchmaschine stellen:

Die Künstler Holly Herndon und Mathew Dryhurst entwickelten die Suchmaschine, die im 5,8 Milliarden Bilder umfassenden Dataset LAION, welches auch eigentlich urheberrechtlich geschützte Bilder enthält, nach Übereinstimmungen mit Schlagwörten, Fotos, Zeichnungen und so weiter.

Ein Autor der Seite 1E9 machte den Selbstversuch und entdeckte über die Suchmaschine tatsächlich gleich mehrere Fotos, die er frei nutzbar zur Verfügung stellte, aber auch Fotografien, die urheberrechtlich geschützt wurden und nie für eine andere Verwendung freigegeben wurden.

Auch eine Künstlerin von Ars Technika machte sich auf Bildersuche und fand auch Fotos von sich selbst. Gruselig ist jedoch die Herkunft der Fotos: Es waren Bilder aus ihrer Krankenakte, aufgenommen von einem Arzt, der bereits vor mehreren Jahren verstarb.

Ihr könnt Fotos löschen lassen!

Solltet ihr ein Foto von euch in der Suchmaschine finden und nicht damit einverstanden sein, dass sie für KI-Bilder verwendet werden, könnt ihr direkt bei LAION beantragen, dass sie gelöscht werden (siehe HIER).

Leider löscht LAION anscheinend nur Fotos, die auch mit einem entsprechenden Namenstag versehen sind – Bei anderen Werken wie z.B. Zeichnungen wird ein solcher Antrag auf Löschung wohl nicht funktionieren.

Fazit

Es ist also ein zweischneidiges Schwert: Einerseits ist es natürlich amüsant, KI-Bilder zu generieren. Andererseits werden dafür als Grundlage auch Fotos, Zeichnungen und digitale Werke von Künstlern verwendet, die dem eventuell gar nicht zustimmten und natürlich auch nicht dafür honoriert werden.

Quelle:

1E9
Auch interessant:
In Frankreich richtet sich die Höhe der Grundsteuer nach dem Mietwert des Grundstücks, nicht nach der Größe. Deshalb spürt die französische Steuerbehörde nun mittels einer KI-Software, die von Google mitentwickelt wurde, illegale Swimmingpools auf.
Frankreich: Mit einer KI auf der Jagd nach illegalen Swimmingpools
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.