Traue niemals einem Chatbot! Bildungsministerium NY, Stack Overflow und ICML verbannen ChatGPT
Die International Conference on Machine Learning (ICML) hat vor kurzem ein Verbot für Autoren ausgesprochen, Arbeiten einzureichen, die von Sprachmodellen wie ChatGPT generierte Texte enthalten. Dies hat eine hitzige Debatte über die Rolle von KI-generierten Texten in der Wissenschaft ausgelöst und darüber, ob diese Tools nur Assistenten oder mehr sind.
Autor: Walter Feichtinger
ChatGPT ist eine Variante des GPT-3-Sprachmodells, das von OpenAI entwickelt wurde, und ist ein KI-Chatbot, der Fragen beantworten und Text erzeugen kann. Er bietet den Nutzern die Möglichkeit, einzigartige und nicht plagiierte Inhalte zu erstellen, was jedoch mit einem erhöhten Risiko verbunden ist, da KI-Sprachmodelle automatische Vervollständigungswerkzeuge sind, die keinen inhärenten Sinn für Sachlichkeit haben. Mit anderen Worten: Sie sind in der Lage, sachlich falsche Ergebnisse zu produzieren, was zum Verbot von KI-generierten Texten durch das ICML geführt hat.
Arbeiten, die Text enthalten, der von einem groß angelegten Sprachmodell [Large Language Model] wie ChatGPT generiert wurde, sind verboten, es sei denn, der produzierte Text wird als Teil der experimentellen Analyse der Arbeit präsentiert.
ICML: „Temporary policy: ChatGPT is banned„
Eines der Hauptprobleme ist, dass es schwierig sein kann, zwischen Texten zu unterscheiden, die vollständig von KI erstellt wurden, und solchen, die von KI „poliert“ oder „bearbeitet“ wurden. Dies hat dazu geführt, dass eine Reihe von Organisationen wie Stack Overflow und das Bildungsministerium von New York City die Verwendung von ChatGPT verboten haben.
Aufgrund von Bedenken hinsichtlich negativer Auswirkungen auf das Lernen der Schüler und der Sicherheit und Genauigkeit der Inhalte ist der Zugang zu ChatGPT in den Netzwerken und auf den Geräten der öffentlichen Schulen von New York City eingeschränkt.
Sprecherin des New Yorker Bildungsministerium, Jenna Lyle, gegenüber Chalkbeat
Der Einsatz von KI-Tools wie ChatGPT hat auch eine Reihe ethischer Fragen aufgeworfen, z. B. die Frage, wem die Ergebnisse solcher Systeme gehören und ob von KI generierte Texte und Bilder als neuartig oder als bloße Ableitungen bestehender Werke zu betrachten sind. Darüber hinaus befürchten viele, dass die Verfügbarkeit solcher Tools zu einer Voreingenommenheit gegenüber englischen Muttersprachlern führen wird, da KI-generierte Texte dazu verwendet werden können, denjenigen, die Englisch nicht als Muttersprache sprechen oder schreiben, „das Spielfeld zu ebnen“.
Da es keine absolut zuverlässige Methode gibt, um von KI generierten Text zu erkennen, setzt das ICML sein Verbot nicht proaktiv durch, indem es Beiträge durch eine Detektor-Software laufen lässt. Stattdessen verlässt es sich auf traditionelle soziale Mechanismen, um akademische Normen durchzusetzen. KI kann zum Polieren, Editieren oder Verfassen von Texten eingesetzt werden, aber es wird immer noch an den Menschen liegen, deren Wert zu beurteilen.
Letztendlich ist es wichtig, daran zu denken, dass der Einsatz von KI-Tools wie ChatGPT überwacht und mit Vorsicht verwendet werden sollte. Sie können zwar für Autoren und Forscher unglaublich nützlich sein, bergen aber auch eine Reihe von Risiken und ethischen Erwägungen, die nicht übersehen werden sollten.
Quellen:
ICML, Chalkbeat, Stackoverflow, t3n.de
Mehr zum Thema: ChatGPT: Check, Recheck, Doublecheck! Chatbot erfindet Fakten
Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.
Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum
INSERT_STEADY_CHECKOUT_HERE