Bei seiner jährlichen Pressekonferenz erlebte der russische Präsident Wladimir Putin eine unerwartete Wendung. Ein Student aus St. Petersburg nutzte künstliche Intelligenz (KI), um einen digitalen KI-Doppelgänger Putins Fragen stellen zu lassen. Diese ungewöhnliche Aktion zog nicht nur die Aufmerksamkeit des Präsidenten auf sich, sondern auch die des gesamten Publikums.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Putin reagiert auf Gerüchte um Körperdoubles

Angesprochen auf das Thema KI und Körperdoubles, reagierte Putin zunächst überrascht, verneinte dann aber die Nutzung von physischen Doppelgängern. Er betonte, dass er zwar die Möglichkeit in Betracht gezogen habe, sich letztendlich jedoch dagegen entschieden habe. Diese Aussage widerspricht früheren Gerüchten, Putin würde bei bestimmten Anlässen Doppelgänger einsetzen.

Putin begann zu lachen. „Ich sehe, dass du aussiehst wie ich und sogar mit meiner Stimme sprichst“, sagte er. „Aber ich habe darüber nachgedacht und entschieden, dass nur eine Person wie ich aussehen und mit meiner Stimme sprechen sollte.“

Auf das Video eines Kindes, das sich besorgt darüber äußerte, dass seine Großmutter durch ein Computerbild ersetzt werden könnte, antwortete der Staatschef ebenfalls. „Ich kann dir versichern, dass niemand deine Großmutter ersetzen wird. Das ist unmöglich“, so Putin.

Russlands Langzeitpräsident rief sein Land auf, mit eigener Technologie gegen „voreingenommene“ westliche Chatbots anzutreten. Es sei „unmöglich“, KI aufzuhalten, sagte Putin am Donnerstag. „Das bedeutet, dass wir auf diesem Gebiet führend sein müssen.“

Ein Ende der russischen Abhängigkeit von westlicher Technologie hatte Putin wiederholt gefordert. Er wies seine Regierung an, die Entwicklung von KI und Großrechnern zu fördern.

Die Gefahren von Deepfakes und KI-Doppelgängern

Obwohl das Video abrupt endete, bevor Putin seine Meinung zu den Gefahren der Künstlichen Intelligenz äußern konnte, hebt der Vorfall die wachsende Sorge um „Deepfakes“ hervor. Diese gefälschten Videos und Audios können berühmte Persönlichkeiten Dinge sagen oder tun lassen, die nie passiert sind. Die Verbreitung solcher Inhalte, besonders in sozialen Medien, fördert die Verbreitung von Desinformation.

Die Wirkung von Fälschungen – egal in welcher Qualität

Interessanterweise ist die Qualität der Fälschung nicht entscheidend für ihren Einfluss, selbst rudimentäre Fälschungen, sogenannte „Cheapfakes„, die Reputation von politischen und öffentlichen Figuren beeinträchtigen können. Die Leichtigkeit, mit der Videos und Stimmen durch KI-Technologie gefälscht werden können, stellt eine ernste Herausforderung für die Informationsauthentizität dar.

Fazit: Ein Weckruf zur Wachsamkeit

Dieser Vorfall mit Putins KI-Doppelgänger dient als Weckruf zur Wachsamkeit gegenüber den Risiken und der Macht von KI-generierten Inhalten. In einer Welt, in der die Grenzen zwischen Realität und Fiktion zunehmend verschwimmen, wird es immer wichtiger, Informationen kritisch zu hinterfragen und die Quelle zu prüfen.

Abonnieren Sie unseren Newsletter, um auf dem Laufenden zu bleiben. Erkunden Sie auch unser umfangreiches Medienbildungsangebot.

Das könnte Sie auch interessieren:
Deepfakes: Virtuelle Täuschungen in der digitalen Welt
Deepfake-Betrug mit Armin Assinger: Warnung vor dubiosen Investitionsplattformen
Deepfake-Betrug: Die unsichtbare Gefahr am Telefon

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Mehr von Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)