Oder: “wie eine künstliche Intelligenz zum Rassisten wird”. Das ganze ist kein Fake: Microsoft startete mit der künstlichen Intelliganz TAY ein Experiment. Tay tweetete auf Twitter, Tay unterhielt sich mit den Menschen und lernte aus den Situationen.
Und Tay passte sich selber an, was letztendlich auch dazu führte, dass Microsoft letztendlich Tay Gelerntes von sich gab. Problem dabei: das Gelernte war dann eher nicht im Sinne der Erfinder. Tay wurde beleidigend, rassistisch und frauenfeindlich. Und das innerhalb von 24 Stunden.
Tay – @TayandYou
Tay ist eine künstliche Intelligenz, welche von Microsoft vorgestellt wurde und sich auf Twitter, Groupme und Kik mit den Menschen unterhalten sollte. Tay hat zunächst ein gewisses Basiswissen an die Hand bekommen (nach Aussage von Microsoft “relevant public data”) und programmiert, improvisieren zu können. Und eben zu kombinieren und inhaltlich zusammenhängend zu antworten. Was aber in der Realität daraus wurde, lässt schaudern: Tay fehlte die Möglichkeit, Inhalte zu bewerte und sortieren zu können. So ließ sich Tay völlig gleichwertig von den verschiedensten Informationen beeinflussen, teilweise lag der Beeinflussung auch gezielt vor, da mehrere Accounts dazu aufriefen, Tay bewusst mit falschen Einschätzungen zu füttern. Das Resultat war ein rassistisch-frauenfeindlicher Beleidigungsbot:
„Tay“ went from „humans are super cool“ to full nazi in <24 hrs and I’m not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24. März 2016
Microsoft reagierte darauf und löschte Tays Kommentare zunächst, als jedoch Tays Interaktion immer heftiger wurde, zog man komplett die Bremse. Tay tweetet nicht mehr.
Bewertung
Ist Tay nun ein misslungenes Experiment? Nein, unserer Ansicht nach eher nicht. Auch Golem meint [1], dass es sich hierbei nicht um einen Fehlschlag handeln muss:
Ein Fehlschlag muss das Experiment mit Tay allerdings nicht unbedingt sein: Es ist sicher interessant zu beobachten, wie schnell eine unbedarfte KI beeinflussbar ist und sich – basierend auf eigenen, als sinnvoll erachteten Analysen – plötzlich rassistisch äußert.
Auch einige User sind der Ansicht, dass man hätte Tay auf keinen Fall löschen dürfen, sondern als ein Mahnmal hatte stehen lassen müssen, in dem die Gefahren künstlicher Intelligenz deutlich zu sehen sind:
Stop deleting the genocidal Tay tweets @Microsoft, let it serve as a reminder of the dangers of AI
— ON THE RUN BOOGYMAN (@DetInspector) 24. März 2016
Der Spiegel meint [2] an dieser Stelle, das Tay einfach noch nicht reif genug war.
In den Robotergesetzen des Science-Fiction-Autors Isaac Asimov steht: „Ein Roboter darf keinen Menschen verletzen.“ Tay war offenkundig noch nicht soweit.
An dieser Stelle ergänzen wir noch, dass wohl nicht nur Tay noch nicht reif genug für die Menschen war, offenkundig sind die Menschen auf noch nicht reif genug für Tay.
Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:
📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.
Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!
* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)