In der heutigen digitalen Welt werden Bilder immer wichtiger, um Nachrichten und Informationen zu verbreiten. Allerdings haben sich auch Künstliche Intelligenzen (KI) in die Erstellung von Bildern eingemischt. Aber wie erkennt man, ob ein Bild KI-generiert ist, oder nicht?

Laut einem Bericht von AFP sind KIs in der Lage, Bilder zu generieren, die täuschend echt aussehen. Die Verwendung für harmlose Zwecke, wie die Illustration von trockenem Text mit kreativen Bildern, stellt dabei weniger ein Problem dar. Aber solche Bilder können für Desinformationskampagnen, aber auch für betrügerische Zwecke genutzt werden. Die Technologie hat sich so schnell entwickelt, dass es für das menschliche Auge schwierig geworden ist, gefälschte Bilder von echten zu unterscheiden. Das stellt insbesondere bei der Verbreitung von Nachrichten und Informationen ein Problem dar.

Es ist daher wichtig, sich bewusst zu machen, dass nicht jedes Bild, das man sieht, auch tatsächlich real ist. Es gibt jedoch einige Anhaltspunkte, die bei der Erkennung von KI-generierten Bildern helfen können. So können Fehler im Hintergrund, unnatürliche Schatten, wiederholende Muster, falsche Proportionen sowie fehlende Quellenangaben auf ein KI-generiertes Bild hinweisen, wie der Faktenfinder der Tagesschau festhält. Die 5 folgenden Tipps sollten Ihnen dabei helfen, gefälschte Bilder zu erkennen.

Anhaltspunkte zur Erkennung von KI-generierten Bildern

1. Fehler im Hintergrund

KI-Systeme sind in der Regel sehr gut darin, menschliche Gesichter und Körper zu generieren. Allerdings sind sie oft nicht so gut darin, den Hintergrund realistisch zu gestalten. Daher können Fehler im Hintergrund ein Anzeichen für ein KI-generiertes Bild sein.

Lesen Sie auch >   Tradwives: Der gefährliche Rückfall in traditionelle Rollenbilder

2. Unnatürlicher Schatten

Ein weiteres Anzeichen für ein KI-generiertes Bild kann ein unnatürlicher Schatten sein. KI-Systeme sind zwar in der Lage, Schatten zu generieren, aber sie können oft nicht die Feinheiten von Licht und Schatten berücksichtigen, die in der realen Welt vorkommen.

3. Wiederholende Muster

KI-Systeme werden oft mit großen Datenmengen trainiert. Daher kann es vorkommen, dass sie wiederholende Muster in Bildern generieren. Wenn Sie also ein Bild sehen, das ungewöhnlich viele wiederholende Muster aufweist, könnte es sich um ein KI-generiertes Bild handeln.

4. Falsche Proportionen

KI-Systeme können Schwierigkeiten haben, die Proportionen von Gegenständen in Bildern richtig zu berechnen. Wenn Sie also ein Bild sehen, bei dem die Proportionen der Gegenstände seltsam aussehen, könnte es sich um ein KI-generiertes Bild handeln.

5. Keine Quellenangabe

Wenn Sie ein Bild sehen, das keine Quellenangabe hat, könnte es sich um ein KI-generiertes Bild handeln. Da es schwierig ist, die Herkunft von KI-generierten Bildern zu verfolgen, ist es oft schwierig, eine Quellenangabe zu machen.

Fazit: KI-Systeme haben die Art und Weise verändert, wie wir Bilder betrachten. Es ist jedoch wichtig zu verstehen, dass KI-generierte Bilder auch für Desinformationskampagnen und betrügerische Zwecke genutzt werden können. Indem wir uns auf die oben genannten Anhaltspunkte konzentrieren, können wir lernen, gefälschte Bilder von echten zu unterscheiden und uns vor möglichen Bedrohungen zu schützen.


Quellen: AFP, tagesschau.de

Aktuelle Faktenchecks:
Popeye: Bild zeigt nicht den Mann, der als Inspirationsquelle diente
Bienensterben und seine Auswirkungen auf die Landwirtschaft und Umwelt
Wandmalerei von Amy Winehouse in Neapel ist nicht echt

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)