Der Einsatz des generativen Chatbots ChatGPT von OpenAI bringt Vor- und Nachteile in Bezug auf die Verständlichkeit, aber auch Glaubwürdigkeit von Informationen. Laut einer neuen Studie der Universität Zürich sind mit Künstlicher Intelligenz (KI) generierte, korrekte Tweets leichter verständlich als jene, die von Menschen verfasst worden sind. Und: KI-Tweets mit Fake News sind wiederum schwerer als Falschinformation zu erkennen.

Überzeugende Fake News

Die Forscher wollten wissen, ob Personen zwischen Desinformation und korrekten Informationen in Form von Tweets unterscheiden können. Auch sollte ermittelt werden, ob die 697 Probanden erkennen, ob ein Tweet von einem realen Twitter-Nutzer verfasst oder von GPT-3 generiert wurde. Es ging um den Klimawandel, die Sicherheit von Impfstoffen, die Corona-Pandemie, die Theorie, die Erde sei eine Scheibe, und homöopathische Krebstherapien.

Einerseits konnte GPT-3 genaue und im Vergleich zu Tweets von realen Twitter-Nutzern leichter verständliche Informationen generieren. Die Experten konnten dem Tool aber auch ein beängstigendes Talent für die Erstellung äußerst überzeugender Fake News nachweisen. Beunruhigend sei, dass die Teilnehmer nicht in der Lage waren festzustellen, ob Tweets von GPT-3 erstellt wurden oder von realen Twitter-Nutzern geschrieben wurden.

Hohes Missbrauchspotenzial

„Die Studie zeigt, dass KI-gestützte Systeme für groß angelegte Desinformationskampagnen zu jedem erdenklichen Thema missbraucht werden könnten, was nicht nur die öffentliche Gesundheit, sondern auch die Integrität von Informationsökosystemen gefährden würde, die für funktionierende Demokratien unerlässlich sind“, warnen die Züricher Kommunikationswissenschaftler eindringlich in ihrer Untersuchung.

Die Forscher empfehlen strenge, evidenzbasierte und ethisch fundierte Vorschriften, um der potenziellen Bedrohung durch diese disruptiven Technologien zu begegnen. „Eine proaktive Regulierung ist entscheidend, um potenzielle Schäden durch KI-gesteuerte Desinformationskampagnen abzuwenden“, so Studienleiterin Nikola Biller-Andorno abschließend.

Lesen Sie auch: 100.000 ChatGPT-Konten gehackt: Deshalb sollten Sie keine sensiblen Daten in ChatGPT eingeben

Quelle:

Pressetext


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)