Künstliche Intelligenz: Gefahren für Mediensystem und Demokratie?

Anwendungen mit generativer Künstlicher Intelligenz (KI) wie ChatGPT verbreiten sich rasant, verursachen aber auch erhebliche Sorgen in der Bevölkerung

Autor: Tom Wannenmacher

Umfrage des TÜV-Verbands: Sorgen in der Bevölkerung vor unkalkulierbaren Risiken, Fake-News-Schwemme und Arbeitsplatzverlusten. 84 Prozent fordern gesetzliche Vorgaben für KI-Anwendungen. Europa Vorreiter bei der Regulierung von KI: Federführende Ausschüsse des EU-Parlaments beraten Position zum „AI Act“.

Anwendungen mit generativer Künstlicher Intelligenz (KI) wie ChatGPT verbreiten sich rasant, verursachen aber auch erhebliche Sorgen in der Bevölkerung: Seit der Einführung im November haben schon 83 Prozent der Bundesbürger:innen von ChatPT gehört. Und fast jede:r Vierte hat ChatGPT bereits für berufliche oder private Zwecke genutzt (23 Prozent).

Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.021 Personen ab 16 Jahren ergeben. Vorreiter sind die Jüngeren: 43 Prozent der 16- bis 35-Jährigen haben ChatGPT mittlerweile genutzt. In der Altersgruppe der 36- bis 55-Jährigen sind es 20 Prozent und unter den 56- bis 75-Jährigen nur 7 Prozent. Männer nutzen die KI-Anwendung mit 27 Prozent etwas häufiger als Frauen mit 19 Prozent.

„Seit seiner Einführung zeigt ChatGPT eindrucksvoll, welches enorme Potenzial Künstliche Intelligenz hat“, sagte Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, bei Vorstellung der Studienergebnisse. „ChatGPT zeigt aber auch, welche Risiken mit dem Einsatz von Künstlicher Intelligenz verbunden sind.“

In der Bevölkerung sind die Sorgen weitverbreitet. 80 Prozent der Befragten stimmen der Aussage zu, dass beim Einsatz von KI derzeit nicht abschätzbare Risiken bestehen. Fast zwei von drei befürchten, dass die Technologie für Menschen nicht mehr beherrschbar ist (65 Prozent) oder dass sie ohne ihr Wissen manipuliert werden könnten (61 Prozent). Und 76 Prozent haben Bedenken, dass KI persönliche Daten nicht ausreichend schützt.

„Es muss sichergestellt werden, dass KI-Anwendungen Menschen nicht körperlich verletzen oder benachteiligen“, sagte Bühler. „Mit der geplanten KI-Verordnung besteht die Chance, einen Rechtsrahmen für die ethische und sichere Nutzung von Künstlicher Intelligenz in der EU zu schaffen.“

In der Studie befürworten 84 Prozent der Bundesbürger:innen gesetzliche Vorgaben für KI-Anwendungen.

Generative KI-Systeme wie ChatGPT, Midjourney, DALL-E oder DeepL werden für die Erstellung von Texten, Bildern, Videos oder anderer Inhalte verwendet. KI kommt darüber hinaus zunehmend in kritischen Bereichen wie automatisierten Fahrzeugen, bei medizinischen Diagnosen oder in der Robotik zum Einsatz. Und als automatisierte Entscheidungssysteme werden KI-Anwendungen beispielsweise bei der Personalauswahl oder für die Bewertung der Kreditwürdigkeit eingesetzt. Was die Chancen und Risiken der Technologie angeht, sind die Meinungen geteilt. Jede:r zweite (50 Prozent) ist der Ansicht, dass unter dem Strich die Chancen die Risiken übersteigen. 39 Prozent sind nicht dieser Meinung und 12 Prozent sind unentschlossen.

„Weitreichende Folgen wird Künstliche Intelligenz für den Arbeitsmarkt haben“, sagte Bühler.

87 Prozent der Befragten gehen davon aus, dass Künstliche Intelligenz die Arbeitswelt grundlegend verändern wird. Und fast die Hälfte glaubt, dass sehr viele Menschen als Folge des KI-Einsatzes ihren Job verlieren werden (48 Prozent). Allerdings machen sich derzeit nur 15 Prozent Sorgen, dass KI-Systeme ihre eigene berufliche Tätigkeit ersetzen werden. Viele erwarten sogar Vorteile. Jede:r zweite stimmt der Aussage zu, dass KI das Potenzial hat, ihn oder sie in ihrem Beruf zu unterstützen (50 Prozent). „Ein wahrscheinliches Szenario ist, dass KI-Anwendungen als digitale Assistenten die Beschäftigten bei der Bewältigung unterschiedlichster Aufgaben unterstützen werden“, sagte Bühler. Das gelte sowohl für Büroarbeiten als auch für die Planung und Durchführung manueller Tätigkeiten.

Gefahren für Mediensystem und Demokratie

Große Sorgen bereitet der Bevölkerung die Auswirkungen von ChatGPT und anderen generativen KI-Anwendungen für das Mediensystem und unser politisches System. Gut jede:r zweite ist der Meinung, dass die Technologie eine Gefahr für die Demokratie ist (51 Prozent).

Screenshot TÜV-Verband: "Sicherheit von Anwendungen mit generativer Künstlicher Intelligenz (KI) wie ChatGPT"
Screenshot TÜV-Verband: „Sicherheit von Anwendungen mit generativer Künstlicher Intelligenz (KI) wie ChatGPT“

„Die Bürger:innen befürchten eine Welle von Falschnachrichten, Propaganda und manipulierten Bildern, Texten und Videos“, sagte Bühler.

Laut Umfrage gehen 84 Prozent der Befragten davon aus, dass KI die Verbreitung von „Fake News“ massiv beschleunigen wird. 91 Prozent glauben, dass kaum noch erkennbar sein wird, ob Fotos oder Videos echt oder gefälscht sind. Und gut zwei von drei Befragten fürchten, dass KI die Verbreitung staatlicher Propaganda massiv beschleunigen wird (69 Prozent).

Screenshot TÜV-Verband: "Sicherheit von Anwendungen mit generativer Künstlicher Intelligenz (KI) wie ChatGPT"
Screenshot TÜV-Verband: „Sicherheit von Anwendungen mit generativer Künstlicher Intelligenz (KI) wie ChatGPT“

Bühler: „Mit Künstlicher Intelligenz erstellte Inhalte werden die demokratischen Gesellschaften vor enorme Herausforderungen stellen.“

Bevölkerung fordert Rechtsrahmen für Künstliche Intelligenz

Eindeutig sind die Ergebnisse der Umfrage auch bei der Frage nach gesetzlichen Vorgaben. 91 Prozent fordern, dass der Gesetzgeber einen rechtlichen Rahmen für den sicheren Einsatz von KI schaffen sollte. Dabei sollte sich die Regulierung und Nutzung von KI in der EU an europäischen Werten orientieren, sagen 83 Prozent. Nur 16 Prozent sind dagegen der Meinung, dass man KI derzeit nicht regulieren und die ethische Entwicklung den Tech-Unternehmen überlassen sollte.

Klare Vorstellungen haben die Befragten auch bei möglichen Vorgaben: 94 Prozent fordern eine Kennzeichnungspflicht für automatisiert bzw. mit KI-Unterstützung erzeugte Inhalte, 88 Prozent eine Kennzeichnung, dass KI in einem Produkt oder einer Anwendung „enthalten“ ist, und 86 Prozent fordern sogar eine verpflichtende Prüfung der Qualität und Sicherheit von KI-Systemen durch unabhängige Prüforganisationen.

Aus Sicht des TÜV-Verbands leitet sich daraus ein klarer Handlungsauftrag für die Politik ab.

„Mit dem AI Act ist die EU globaler Vorreiter bei der Gesetzgebung in den demokratisch organisierten Wirtschaftsblöcken“, sagte Bühler. „Mit einer intelligenten Regulierung können wir einen internationalen Standard für innovative und wertebasierte KI setzen.“

Der heute in den Ausschüssen des EU-Parlaments zu beratende Entwurf des AI Acts sieht vor, KI-Anwendungen in vier Risikoklassen einzuteilen. Die geplanten Regelungen reichen von einem Verbot für KI-Anwendungen mit einem „unannehmbaren Risiko“ wie zum Beispiel Social Scoring bis zu keinerlei Vorgaben für Anwendungen mit „minimalem Risiko“ wie Spamfiltern oder Games. KI-Systeme mit einem „begrenzten Risiko“ wie einfache Chatbots müssen bestimmte Transparenz- und Kennzeichnungspflichten erfüllen. Für KI-Anwendungen mit einem „hohem Risiko“, zum Beispiel in kritischen Infrastrukturen, Software im Personalwesen oder bestimmte KI-basierte Roboter, gelten strenge Sicherheitsanforderungen. Diese müssen neben Transparenzpflichten auch Anforderungen wie die Erklärbarkeit ihrer Ergebnisse oder Diskriminierungsfreiheit erfüllen.

Bühler: „Vor ihrer Markteinführung sollten alle Hochrisiko-KI-Systeme von einer unabhängigen Stelle überprüft werden. Nur so kann sichergestellt werden, dass die Anwendungen den Sicherheitsanforderungen entsprechen.“

Aus Sicht des TÜV-Verbands sollte bereits jetzt die praktische Umsetzung der KI-Vorgaben vorbereitet werden. Eine wichtige Grundlage dafür sind allgemeingültige Normen, Standards und Qualitätskriterien. Darüber hinaus müssen entsprechende Prüfverfahren entwickelt werden. Der TÜV-Verband engagiert sich seit längerem für die Einrichtung von interdisziplinären „AI Quality & Testing Hubs“ auf Länder- und Bundesebene. Die TÜV-Unternehmen bereiten sich derzeit auf die Prüfung von KI-Systemen vor und haben dafür das „TÜV AI Lab“ gegründet.

Ergebnisse der Befragung zum Download: Präsentation zur Pressekonferenz „Sicherheit von Anwendungen mit generativer Künstlicher Intelligenz (KI) wie ChatGPT“

Methodik-Hinweis: Grundlage der Angaben ist eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.021 Personen ab 16 Jahren. Die Umfrage wurde im April und Mai 2023 durchgeführt. Weitere Informationen unter www.tuev-verband.de/digitalisierung/kuenstliche-intelligenz

Passend zum Thema:

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.