Es war ein Sonntag wie jeder andere, als ein Reddit-Nutzer namens „Ugleh“ ein Bild postete, das das Potenzial hatte, unsere Vorstellung von Kunst für immer zu verändern. – Das Bild eines Dorfes, das seine Betrachter durch das Spiralmuster in das Bild hineinzog.

Wenn Maschinen Kunst kreieren – Am Beispiel des Dorf-Bildes

Twitter

Mit dem Laden des Tweets akzeptieren Sie die Datenschutzerklärung von Twitter.
Mehr erfahren

Inhalt laden

Mit mehr als 8,7 Millionen Aufrufen auf Twitter und einer Flut von Lob in verschiedenen sozialen Netzwerken hat dieses Bild die Aufmerksamkeit von Experten und Laien gleichermaßen erregt. Doch was macht es so besonders? Es ist das Ergebnis einer Kombination aus Stable Diffusion und einer Leittechnik namens ControlNet. Dank dieser Technologie ist es möglich, Kunstwerke zu schaffen, die bisher nur in den Köpfen der kreativsten Künstler existierten.

Eine Frage der Perspektive

Doch nicht alle waren begeistert. Einige Kritiker, wie z. B. der Grafiker Trent, wiesen auf einige Unstimmigkeiten hin, die den menschlichen Einfluss in dem Kunstwerk vermissen lassen könnten.

„Das ist zwar nett, aber es gibt viele Entscheidungen, die ein Mensch nicht treffen würde. Viele der Schatten sind nicht korrekt, und es macht keinen Sinn, Schornsteine direkt über Fenstern zu platzieren. Beim Heranzoomen sieht man auch die verräterischen Rauschstrukturen der KI-Kunst.“

Aber liegt nicht vielleicht gerade in diesen Unzulänglichkeiten der Reiz von KI-generierter Kunst? Sie fordert uns heraus, über die traditionellen Normen der Kunst hinauszudenken und in eine neue Ära der künstlerischen Darstellung einzutreten.

ControlNet und Stable Diffusion – Die unsichtbaren Künstler

Doch was genau ist ControlNet? Es wurde von den Forschern Lvmin Zhang, Anyi Rao und Maneesh Agrawala entwickelt und bietet eine neue Perspektive für die Schaffung von Kunstwerken. ControlNet ist ein neuronales Netzmodell zur Steuerung von Stable Diffusion Modellen. Es ermöglicht die Kombination von Text und Bild, um Werke zu schaffen, bei denen die Grenzen zwischen Realität und Fantasie verschwimmen.

Die Grenzen von Kreativität

Während die einen das Potenzial von KI in der Kunst feiern, werfen andere ethische und rechtliche Fragen auf. Wer besitzt das Urheberrecht an einem Kunstwerk, das von einer Maschine geschaffen wurde? Und kann ein Algorithmus wirklich als Künstler betrachtet werden?

Eine neue Ära oder nur eine flüchtige Mode?

Ganz gleich, auf welcher Seite des Spektrums man steht, eines ist sicher: KI-generierte Kunst hat die Tür zu unbegrenzten Möglichkeiten geöffnet. Es liegt an uns, diese Möglichkeiten zu erforschen und zu entscheiden, wie wir sie in unsere Gesellschaft integrieren wollen. Doch so wie KI Kunstwerke hervorbringt, die unser Bewusstsein erweitern, gibt es auch andere, dunklere Anwendungen, die unsere Realität bedrohen: Deepfakes und Fake News.

Deepfakes: Ein Blick in den Abgrund der Täuschung

Deepfakes sind künstliche Videos oder Audiodateien, die mit Hilfe künstlicher Intelligenz erstellt werden, um Menschen zu zeigen, die Dinge tun oder sagen, die sie nie getan oder gesagt haben. Sie sind so überzeugend, dass sie oft nicht von echtem Material zu unterscheiden sind. Die Möglichkeiten, sie als Waffe in Informationskriegen, in der Politik und sogar für persönliche Angriffe einzusetzen, sind beunruhigend.

Fake News: Das Gift, das unsere Informationsquellen kontaminiert

Während Deepfakes oft spektakulär und schwer zu erkennen sind, sind Fake News subtiler, aber nicht weniger schädlich. Dabei handelt es sich um falsche Nachrichten, die häufig über soziale Medien und andere Plattformen verbreitet werden, um Meinungen zu manipulieren, Verwirrung zu stiften oder einfach nur Chaos anzurichten. Die Technologie hat uns in ein Zeitalter geführt, in dem die Wahrheit schwieriger zu finden ist als je zuvor.

Ein Wettlauf gegen die Zeit

Es gibt bereits zahlreiche Bemühungen, die Flut von Deepfakes und Fake News zu bekämpfen, von Technologien, die falsche Inhalte erkennen, bis hin zu Bildungsprogrammen, die Menschen helfen sollen, Fake News zu erkennen. Auch wir von Mimikama widmen uns der Entlarvung von Fake News und bieten solche Programme für Medienbildung an.

Die Technologie wird sich weiterentwickeln und mit ihr die Möglichkeiten und Herausforderungen. Es liegt an uns allen, informiert, wachsam und vorbereitet zu sein.

Schützen Sie sich in einer unsicheren Welt
Das Wissen um die Existenz und das Gefahrenpotenzial von Deepfakes und Fake News ist der erste Schritt, um sich zu schützen. Es ist wichtiger denn je, kritisch zu denken, Quellen zu überprüfen und den Mimikama-Newsletter zu abonnieren, um in Sachen Medienkompetenz auf dem Laufenden zu bleiben.

Das könnte auch interessieren:

Mysteriöses Licht vor Erdbeben in Marokko: Der Faktencheck
Trotz Bemühungen: Stehen wir im Zeitalter der Dummheit?
Wenn Fake News die Kontrolle auf der Welt übernehmen

Unsere virtuelle Faktencheck-Bewertungsskala: Bei der Überprüfung von Fakten, in der Kategorie der „Faktenchecks„, nutzen wir eine klare Bewertungsskala, um die Zuverlässigkeit der Informationen zu klassifizieren. Hier eine kurze Erläuterung unserer Kategorien:

  • Rot (Falsch/Irreführend): Markiert Informationen, die definitiv falsch oder irreführend sind.
  • Gelb (Vorsicht/Unbewiesen/Fehlender Kontext/Satire): Für Inhalte, deren Wahrheitsgehalt unklar ist, die mehr Kontext benötigen oder satirisch sind.
  • Grün (Wahr): Zeigt an, dass Informationen sorgfältig geprüft und als wahr bestätigt wurden.

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Mehr von Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)