Macher von ChatGPT arbeiten an Erkennungstool

Das Tool der ChatGPT-Macher hat noch eine hohe Fehlerquote. In Zukunft soll ein Erkennungstool zwischen KI-generierten und von Menschen gemachten Inhalten unterscheiden können.

Autor: Nick L.

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Das Tool der ChatGPT-Macher hat noch eine hohe Fehlerquote. In Zukunft soll ein Erkennungstool zwischen KI-generierten und von Menschen gemachten Inhalten unterscheiden können.

Das Unternehmen Open AI, welches den Chat GPT veröffentlicht hat, versucht nun Folgen dieser Erfindung in den Griff zu bekommen. Denn Chat GPT soll die menschliche Sprache so gut nachahmen können, dass vielerlei Sorgen darüber entstanden sind, dass bei Schul- und Studienarbeiten geschummelt oder im großen Stil Desinformationskampagnen erstellt werden könnten.

Aus diesem Grund wurde ein kostenloses Tool namens AI Text Classifier herausgebracht. Dieses soll in der Lage sein, zwischen Texten, die von einer künstlichen Intelligenz generiert wurden und solchen die Menschen geschrieben haben, zu unterscheiden. Dazu gibt das Tool an, mit welcher Wahrscheinlichkeit der Text von einer KI stammt.

Nutzung leicht gemacht – aber noch unzuverlässig

Die Nutzung des AI Text Classifiers ist bewusst einfach gewählt. Man kopiert den gewünschten Text einfach in das gegebene Textfeld hinein und erfährt sofort das Ergebnis. Texte werden dann als „sehr unwahrscheinlich“, „unwahrscheinlich“, „unklar“, „möglicherweise“ oder „wahrscheinlich von einer KI verfasst“ eingestuft.

Noch funktioniert die Einschätzung des neuen Tools allerdings wenig zuverlässig. In Testläufen hat die Software – nach Angaben von Open AI in einem Blogeintrag – nur in 26% der Fälle, von einem Computer geschriebene Texte korrekt identifiziert. Zugleich seien aber auch neun Prozent der von Menschen formulierten Texte fälschlicherweise einer Maschine zugeordnet worden. Auch funktioniert die Einschätzung der neuen KI erst bei einer Textlänge ab 1000 Zeichen, was eine größere Einschränkung mit sich bringt.

Des Weiteren weist Open AI auch darauf hin, dass das Tool hauptsächlich auf englische Texte trainiert wurde. Das heißt dass bei nicht-englischsprachigen Texten die Fehlerwahrscheinlichkeit noch höher ist.

Aus diesen Gründen empfehle man vorerst, sich bei der Bewertung der Texte nicht hauptsächlich auf die Einschätzung des „Classifiers“ zu verlassen.

Auch Wasserzeichen denkbar

Des Weiteren ist bei der Entwicklungsfirma auch der Einsatz von einer Art digitalen Wasserzeichen für Chat GPT im Gespräch. Dieses würde so konzipiert, dass es für menschliche Augen nicht erkennbar wäre. Eine spezielle Überprüfungssoftware würde dann aber mit sehr großer Sicherheit signalisieren, ob es sich um einen KI-Text handelt oder nicht.

In Zukunft großer Nutzen

Wie Futurezone berichtet, haben Tools wie der Classifier in Zukunft wahrscheinlich einen großen Nutzen, auch wenn die Treffsicherheit momentan noch einige Mängel bereithält.

So könnten sie unter anderem von Professor:innen dafür genutzt werden, die Texte ihrer Studierenden zu überprüfen. Das ist deshalb sinnvoll, da laut aktuellen Berichten Studierende in Stanford den ChatGPT bereits verwenden. So kam es zu mehreren von der KI verfassten Abschlussarbeiten.

Das Österreichische Bildungsministerium will ChatGPT nicht verbieten. Stattdessen sollen sich Lehrer:innen und Schüler:innen kritisch damit auseinandersetzen. Vielleicht kann der AI Text Classifier dabei eine Hilfe sein.

Umstrittener Chatbot – Sorge bei der Konkurrenz

Der momentane Hype um Chat GPT sorgt für ernsthafte Sorgen bei der Konkurrenz. So sieht zum Beispiel der Google Konzern eine Gefahr für das eigene Geschäftsmodell, da zum Beispiel die Suchmaschinen in Zukunft nicht mehr in so einer Bandbreite genutzt werden könnten. Deshalb pausiert Google momentan die Entwicklung der Software, die wie ein Mensch schreiben und sprechen kann und schon seit Jahren in Planung ist. In einer internen E-Mail heiße es, dass eine Antwort auf ChatGPT Priorität habe, also dass man derzeit versuche, einen Bot auf dem Markt zu bringen, der ChatGPT in der Nutzung sehr ähnlich ist.

Weitere Informationen und Berichte zum Thema ChatGPT finden Sie HIER.

Quellen:

Futurezone, Der Standard
Lesen Sie auch unsere Faktenchecks:
Weichtiere: Insekten in Lebensmitteln?
Falschzitate von Bause und Özoğuz kursieren wieder
US-Regierung gab nicht zu, dass 5G COVID-19 verursacht!
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.