Editier-Bots liefern sich einen unerbittlichen Kampf gegen Windmühlen auf Wikipedia und bekriegen sich, indem sie sich gegenseitig editieren.

„Wenngleich auf qualitativ unterschiedliche Art, verhalten sich und interagieren Bots auf Wikipedia so unvorhersehbar und ineffizient wie Menschen.“

Zu diesem Ergebnis kommen Forscher des Oxford Internet Institute (OII) und des Alan Turing Institute in einer aktuellen Studie.

Denn Editier-Bots, die eigentlich für eine bessere Qualität von Artikeln sorgen sollten, liefern sich demnach teils jahrelang sinnlose Editier-Kriege – teilweise, bis einer der Bots endlich abgedreht wird.

Krieg der dummen Bots

Editier-Kriege sind auf der Wikipedia wohlbekannt.

Normalerweise sieht es so aus, dass zwei Autoren aneinander geraten. Meist gibt es dann nach einigen Tagen eine Einigung oder einer – womöglich der Klügere – gibt nach.

„Die Kämpfe zwischen Bots können viel anhaltender sein“

meint Taha Yasseri, Forscher im Bereich Computational Social Science am OII, gegenüber „The Guardian“.

Denn sind Editier-Bots einfache und nicht sonderlich schlaue Programme, die stur auf ihrer Version von Richtigkeit beharren. Wenn zwei davon aufeinanderprallen, kann sich die Auseinandersetzung leicht über Jahre ziehen.

Der Studie zufolge gibt es zwar nur wenige Wikipedia-Artikel, bei denen Bots massenhaft gegenseitig ihre Änderungen rückgängig machen.

Doch das sind in unterschiedlichen Sprachen die gleichen, unter anderem über Estland, Weißrussland, die arabische Sprache, Niels Bohr sowie Arnold Schwarzenegger.

Bot-Kriege scheinen also oft sprachübergreifend zu sein. Im Gegensatz dazu liefern sich menschliche Autoren der Studie zufolge Editier-Schlachten meist zu regionalen Persönlichkeiten und Einrichtungen, die von Sprache zu Sprache unterschiedlich sind.

Allerdings sind Bot-Kriege nicht in allen Sprachen gleich intensiv; in der deutschen Wikipedia sind sie relativ schwach ausgeprägt.

Sinnvolles auf Abwegen

Die aktuelle Studie hat sich damit befasst, was Editier-Bots von 2001 bis 2010 in 13 verschiedenen Sprachversionen der Wikipedia gemacht haben.

Eigentlich hatte das Team Yasseri zufolge keine großen Erwartungen in die Aktivitäten der Editier-Bots.

„Wenn man drüber nachdenkt, sind sie reichlich langweilig“,

erklärt er.

Das Beispiel Wikipedia zeigt aber, dass auch einfache Bots auf unerwartete Art interagieren können, wenn sie aufeinander treffen. Eben dieses Problem könnte uns auch in völlig anderen Bereichen, wie beispielsweise selbstfahrenden Autos, blühen.

Quelle: pressetext

Unterstützen

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.