Künstliche Intelligenz (KI) und ihre Anwendungen sind aus der heutigen digitalen Welt nicht mehr wegzudenken. Plattformen wie ChatGPT und Midjourney haben das Potenzial, unser Leben zu bereichern und uns dabei zu helfen, Informationen effizient zu verarbeiten. Doch mit der wachsenden Bedeutung von KI-Systemen nehmen auch die damit verbundenen Risiken zu. Eine dieser Gefahren besteht darin, dass KI als Medium für Propaganda und Manipulation genutzt werden kann.

Und dies passiert gerade alles bereits JETZT

In den letzten Monaten berichteten wir u.a über Julian Assange geschwächt im Gefängnis?, Fake-Bild von Papst Franziskus verursacht Verwirrung oder Festnahme von Donald Trump, die es nie gab. Aber auch dies hier waren große Themen: Missbrauch von ChatGPT: KI-Modell zur Erstellung von Schadsoftware eingesetzt, oder Kriminelle nutzen KI, um die Entführung eines Kindes vorzutäuschen!

KI-Propaganda: Definition und Hintergrund

Propaganda bezieht sich auf Informationen, die oft irreführend oder manipulativ sind und gezielt eingesetzt werden, um die öffentliche Meinung zu beeinflussen oder bestimmte politische oder ideologische Ziele zu erreichen. Künstliche Intelligenz kann als Werkzeug zur Verbreitung von Propaganda dienen, indem sie dazu beiträgt, den Umfang, die Geschwindigkeit und die Anpassungsfähigkeit von Propagandainhalten zu erhöhen.

Formen von KI-Propaganda und ihre Auswirkungen

Die Deepfake-Technologie ist eine der bekanntesten Formen der KI-Propaganda. Sie ermöglicht es, realistische Bilder oder Videos von Personen zu erstellen, indem ihr Aussehen und ihre Stimme mithilfe von KI-Algorithmen manipuliert werden. Diese Technik kann eingesetzt werden, um Politiker oder Personen des öffentlichen Lebens in kompromittierenden Situationen darzustellen oder ihnen falsche Aussagen zu unterstellen. Deepfakes können politische Systeme destabilisieren und das Vertrauen in öffentliche Institutionen untergraben.

Ein weiteres Beispiel für KI-Propaganda sind massenhaft erzeugte Falschinformationen. KI-Systeme können große Mengen an gefälschten Nachrichtenartikeln oder Beiträgen in sozialen Medien erstellen, um bestimmte Themen oder Ideen zu fördern oder zu diskreditieren. Durch die gezielte Verbreitung dieser Inhalte kann die öffentliche Meinung in die gewünschte Richtung gelenkt werden.

Die Personalisierung von Propaganda ist ein weiteres wichtiges Element, das durch KI ermöglicht wird. KI-Algorithmen können dazu verwendet werden, Inhalte zu erstellen, die auf die individuellen Überzeugungen und Vorlieben der Nutzer zugeschnitten sind. Dadurch entsteht ein personalisiertes Propagandaerlebnis, das Nutzer in ihren Meinungsblasen gefangen hält und die Polarisierung der Gesellschaft fördert.

Einen erheblichen Einfluss auf die Verbreitung von Propaganda können auch automatisierte Social-Media-Bots haben. KI-gesteuerte Bots können Social-Media-Plattformen nutzen, um gezielt und effizient Falschinformationen und Propaganda zu verbreiten. Durch die automatisierte Erstellung und Verbreitung von Inhalten können Bots das öffentliche Diskursklima beeinflussen und Meinungen manipulieren.

Risiken und Folgen von KI-Propaganda

Die Auswirkungen von KI-Propaganda sind weitreichend und können zu einer Reihe ernsthafter Probleme führen. Eines dieser Probleme ist die Untergrabung demokratischer Prozesse. KI-Propaganda kann eingesetzt werden, um Wahlen und andere demokratische Prozesse zu beeinflussen, indem das Vertrauen der Öffentlichkeit in die Integrität politischer Institutionen und Akteure untergraben wird. Dies kann zu Instabilität führen und das Funktionieren von Demokratien beeinträchtigen.

KI-Propaganda kann auch zur Polarisierung der Gesellschaft beitragen. Indem sie dazu beiträgt, Menschen in Meinungsblasen einzusperren und ihnen personalisierte Inhalte zu präsentieren, kann sie gesellschaftliche Spaltungen und politische Polarisierung verschärfen. Dies erschwert den gesellschaftlichen Zusammenhalt und einen konstruktiven Dialog.

Die Anfälligkeit für ausländische Einflussnahme ist ein weiteres Risiko. KI-Propaganda kann von ausländischen Akteuren genutzt werden, um die öffentliche Meinung in einem anderen Land zu beeinflussen und politische oder soziale Unruhen zu schüren. Diese Art der Einflussnahme stellt eine ernsthafte Bedrohung für die nationale Sicherheit und Souveränität eines Landes dar.


  1. Kritisch denken: Hinterfragen Sie Informationen, die Sie online finden, und prüfen Sie, ob sie plausibel und logisch erscheinen. Gehen Sie Informationen, die extreme Emotionen oder Reaktionen hervorrufen, mit besonderer Vorsicht an.
  2. Informationsquellen überprüfen: Achten Sie darauf, wer hinter den Informationen steckt, die Sie konsumieren. Versuchen Sie, vertrauenswürdige und unabhängige Quellen zu identifizieren, um sich vor manipulativen Inhalten zu schützen.
  3. Diversifizierte Informationsquellen nutzen: Beziehen Sie Informationen aus verschiedenen Quellen und Perspektiven, um ein ausgewogenes Bild von aktuellen Themen und Ereignissen zu erhalten.
  4. Faktencheck-Tools verwenden: Nutzen Sie Faktencheck-Plattformen und -Tools, um die Glaubwürdigkeit von Informationen zu überprüfen und Falschinformationen aufzudecken.
  5. Soziale Medien bewusst konsumieren: Seien Sie sich der Algorithmen bewusst, die Ihnen personalisierte Inhalte präsentieren, und versuchen Sie, über Ihre eigene Meinungsblase hinauszublicken. Folgen Sie verschiedenen Meinungen und Perspektiven auf Social-Media-Plattformen.
  6. Deepfakes erkennen: Informieren Sie sich über Deepfake-Technologie und lernen Sie, mögliche Anzeichen für manipulierte Bilder oder Videos zu erkennen.
  7. Datenschutz beachten: Schützen Sie Ihre persönlichen Daten online, um die Wahrscheinlichkeit zu verringern, dass KI-Systeme Ihre Informationen nutzen, um gezielte Propaganda zu erstellen.
  8. Bildung und Aufklärung fördern: Teilen Sie Ihr Wissen über KI-Propaganda und deren Gefahren mit Freunden, Familie und Kollegen, um das Bewusstsein für dieses Problem zu erhöhen.
  9. Verantwortungsvolle Verbreitung von Informationen: Seien Sie vorsichtig, bevor Sie Informationen teilen, die potenziell irreführend oder manipulativ sein könnten. Überprüfen Sie die Glaubwürdigkeit der Informationen und teilen Sie nur Inhalte, die Sie für vertrauenswürdig halten.
  10. Unterstützung für Organisationen und Initiativen: Engagieren Sie sich für oder unterstützen Sie Organisationen und Initiativen, die sich für Medienkompetenz, Faktenprüfung und den Kampf gegen KI-Propaganda einsetzen.

Schutzmaßnahmen gegen KI-Propaganda

Es gibt eine Reihe von Maßnahmen, die Einzelpersonen und Organisationen ergreifen können, um sich vor den Gefahren der KI-Propaganda zu schützen. Zunächst ist es wichtig, die Medienkompetenz zu fördern. Eine gute Medienkompetenz hilft, Falschinformationen und Propaganda zu erkennen und kritisch zu hinterfragen. Bildungseinrichtungen und Organisationen sollten Aufklärungsarbeit leisten, um Menschen über die Gefahren von KI-Propaganda und die Bedeutung von Medienkompetenz zu informieren.

Die Nutzung vielfältiger Informationsquellen ist ein weiterer Schutzmechanismus. Nutzer sollten darauf achten, Informationen aus verschiedenen Quellen und Perspektiven zu beziehen, um ein ausgewogenes Bild von aktuellen Themen und Ereignissen zu erhalten. Dies kann dazu beitragen, die Auswirkungen von KI-Propaganda auf die öffentliche Meinung abzuschwächen.

Zum Schutz vor KI-Propaganda kann auch die Nutzung von Faktencheck-Tools und -Plattformen beitragen. Diese Tools ermöglichen es den Nutzern, die Glaubwürdigkeit von Informationen zu überprüfen und Falschinformationen aufzudecken. Die Nutzung solcher Ressourcen kann zu einem verantwortungsvolleren Umgang mit Informationen beitragen und die Verbreitung von Propaganda eindämmen.

Auch „Herr Anwalt“ auf TikTok äußert dazu seine Bedenken

@herranwalt Die grösste Gefahr heisst künstliche Intelligenz. Was ssgst du dszu? #1minutejura #lernenmittiktok #nachrichten ♬ Originalton – Herr Anwalt


Fazit: Künstliche Intelligenz bietet viele Chancen. Sie birgt aber auch Gefahren, wenn sie für Propaganda und Desinformation missbraucht wird. Die mit KI-Propaganda verbundenen Risiken können weitreichende Auswirkungen auf demokratische Prozesse, die Polarisierung der Gesellschaft und die Anfälligkeit für ausländische Einflussnahme haben. Es ist daher von entscheidender Bedeutung, dass sowohl Einzelpersonen als auch Organisationen Maßnahmen ergreifen, um sich vor diesen Gefahren zu schützen und die negativen Auswirkungen von KI-Propaganda abzuschwächen.

Auch Regierungen und politische Entscheidungsträger sollten Maßnahmen ergreifen, um den Missbrauch von KI-Technologien zu Propagandazwecken einzudämmen. Dies kann beispielsweise durch die Einführung von Gesetzen und Vorschriften geschehen, die den Einsatz von KI-Propaganda einschränken und die Verbreitung von Falschinformationen bekämpfen. Auch die Zusammenarbeit zwischen Regierungen, Technologieunternehmen und zivilgesellschaftlichen Organisationen ist entscheidend, um gemeinsam Strategien zur Bekämpfung von KI-Propaganda zu entwickeln.

Schließlich sollten Technologieunternehmen und KI-Entwickler bei der Gestaltung und Implementierung von KI-Systemen ethische Richtlinien und Verantwortlichkeiten berücksichtigen. Die Entwicklung von KI-Anwendungen sollte stets im Einklang mit ethischen Grundsätzen und Menschenrechtsstandards erfolgen, um sicherzustellen, dass sie zum Wohle der Gesellschaft eingesetzt werden und nicht zur Verbreitung von Propaganda und Fehlinformationen beitragen.

Alle Akteure, seien es Individuen, Organisationen, Regierungen oder Technologiefirmen, müssen ihre Rolle bei der Lösung der KI-Herausforderungen erkennen und Maßnahmen ergreifen, um die negativen Auswirkungen auf unsere Gesellschaft zu reduzieren. Nur durch gemeinsame Anstrengungen können wir sicherstellen, dass künstliche Intelligenz ihr Potenzial zum Wohle der Menschheit entfaltet und nicht als Werkzeug für Manipulation und Propaganda missbraucht wird.


Gerade wegen der zunehmenden Verbreitung von KI-Propaganda ist es wichtig, dass es Plattformen wie uns gibt, die sich aktiv mit dem Thema auseinandersetzen. Wir leisten seit über 10 Jahren einen wichtigen Beitrag zur Bekämpfung von Desinformation und Fake News im Internet, wir prüfen Inhalte und klären unsere Community über aktuelle Betrugsversuche und Manipulationstaktiken auf. Die Menschen hinter Mimikama haben ein tiefes Verständnis für kulturelle, soziale und emotionale Aspekte, die eine KI nicht in gleichem Maße erfassen kann.

Menschen sind in der Lage, subtile Nuancen und Kontextinformationen zu erkennen, die für eine KI schwer zu erfassen sind. Außerdem können Menschen aus Erfahrungen lernen und flexibel auf neue Situationen reagieren. Eine künstliche Intelligenz, auch eine fortgeschrittene, kann uns oder ähnliche Plattformen nicht vollständig ersetzen, da sie nicht in der Lage ist, menschliches Einfühlungsvermögen, Intuition und Urteilsvermögen zu reproduzieren. Diese menschlichen Fähigkeiten sind entscheidend, um zwischen absichtlicher Propaganda und unbeabsichtigten Fehlern zu unterscheiden und geeignete Maßnahmen gegen Desinformation und Manipulation zu ergreifen. Es bleibt also wichtig, dass menschliche Expertise weiterhin eine zentrale Rolle bei der Bewältigung der Herausforderungen durch KI-Propaganda spielen.


Lesen Sie auch:


Stiftung Neue Verantwortung (SNV): Die SNV ist eine unabhängige Denkfabrik, die sich mit den Auswirkungen der Digitalisierung und neuen Technologien auf Gesellschaft, Wirtschaft und Politik beschäftigt. Die Website (https://www.stiftung-nv.de) bietet Publikationen und Forschungsergebnisse zu Themen wie Künstliche Intelligenz und digitale Desinformation.

AlgorithmWatch: AlgorithmWatch (https://algorithmwatch.org) ist eine deutsche gemeinnützige Organisation, die sich mit den gesellschaftlichen Auswirkungen von Algorithmen und Künstlicher Intelligenz auseinandersetzt. Sie bieten Berichte, Analysen und Monitoring von algorithmischen Entscheidungssystemen.

Mediendienst Integration: Der Mediendienst Integration (https://mediendienst-integration.de) ist ein unabhängiges Informationsportal, das journalistische Hintergrundinformationen zu Themen wie Migration, Integration und Desinformation bereitstellt.

netzpolitik.org: netzpolitik.org (https://netzpolitik.org) ist ein deutschsprachiges Blog, das sich mit den politischen und sozialen Aspekten von Technologie, insbesondere im Bereich der digitalen Kommunikation, befasst. Sie berichten über Themen wie Überwachung, Datenschutz, Künstliche Intelligenz und Desinformation.

Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS): Das Fraunhofer IAIS (https://www.iais.fraunhofer.de) ist ein deutsches Forschungsinstitut, das sich auf Künstliche Intelligenz, maschinelles Lernen und Big Data konzentriert. Sie bieten Forschungsergebnisse und Publikationen zu verschiedenen Themen rund um KI und ihre gesellschaftlichen Auswirkungen.

OpenAI: OpenAI ist ein Forschungsinstitut für Künstliche Intelligenz, das sich der Entwicklung von KI-Technologien zum Nutzen der Menschheit verschrieben hat. Die OpenAI-Website (https://www.openai.com) bietet viele Ressourcen und Publikationen zum Thema Künstliche Intelligenz.

Pew Research Center: Das Pew Research Center (https://www.pewresearch.org) ist ein unparteiisches Fact-Tank, das Informations- und Forschungsberichte zu Themen wie Technologie, Gesellschaft, Politik und Medien veröffentlicht.

The Center for Humane Technology: Das Center for Humane Technology (https://www.humanetech.com) ist eine Organisation, die sich mit den sozialen Auswirkungen von Technologie, einschließlich KI, befasst. Sie bieten Ressourcen und Forschungsergebnisse zu Themen wie digitale Manipulation und Desinformation.

Data & Society: Data & Society (https://datasociety.net) ist ein Forschungsinstitut, das sich auf die sozialen und kulturellen Auswirkungen von Daten und Technologie konzentriert. Sie bieten Publikationen und Berichte zu Themen wie Desinformation und Propaganda.

First Draft: First Draft (https://firstdraftnews.org) ist eine Organisation, die sich dem Kampf gegen Desinformation und die Förderung von Wahrheit im digitalen Zeitalter widmet. Sie bieten Ressourcen, Trainings und Forschung zu Themen wie Falschinformationen, Propaganda und Medienkompetenz.

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)