Weder Amazons virtueller Assistent Alexa noch der autonome Robo-Staubsauger Roomba von iRobot sind wahrscheinlich kitzelig oder empfinden Schmerzen, wenn sie eingeklemmt werden. Das ist die Meinung von 4- bis 11-Jährigen, die damit zeigen, dass sie schon frühzeitig in der Lage sind, sie von Menschen klar zu unterscheiden, obwohl die digitalen Helfer mit menschlich anmutender Intelligenz ausgestattet sind. Diese Erkenntnisse haben Forscher der Duke University in einer neuen Studie gewonnen.

Denken und Fühlen

Die Wissenschaftler haben Kinder gefragt, ob sie glauben, dass Alexa und Roomba die Fähigkeit haben, zu denken und zu fühlen, weil sie schließlich in die Kategorie „Künstliche Intelligenz“ (KI) gehören. Zudem sollten sie beurteilten, ob man mit ihnen auf eine besondere Art mitgehen sollte. Alexa bietet Sprachinteraktion, Musikwiedergabe, Streaming-Podcasts und Echtzeitinfos. Roomba hält mit ein bisschen KI den Fußboden staubfrei.

Die Kinder sprachen Alexa, nicht aber Roomba, mentale und emotionale Fähigkeiten zu, was die Forscher auf Alexas Sprachfähigkeit zurückführen.

„Auch wenn Alexa körperlos ist, denken kleine Kinder, dass sie Emotionen und Verstand hat.“

Teresa Flanagan vom Duke-Institut für Psychologie und Neurowissenschaften

127 Kinder interviewt

Flanagan und ihr Team haben 127 Kindern ein 20-minütiges Video gezeigt, in dem Alexas und Roombas Fähigkeiten zu sehen waren. Dann wurde danach gefragt, ob die in ihnen steckenden KIs den Unterschied zwischen Gut und Böse kennen und Gefühle haben und ob es in Ordnung sei, Technologie anzuschreien oder zu schlagen, wenn sie nicht funktioniert. Letzteres lehnten die Kinder als falsch ab.

„Die Älteren allerdings denken, dass Anschreien und Schlagen nichts Tolles sind, dass sie aber die Freiheit haben, es zu tun. In einer Zeit, in der KI wie ChatGPT Schlagzeilen macht, geben die Ergebnisse der Studie einen Einblick in die Beziehungen, die Kinder zu Technologien haben, und ob Ethik Kinder bei ihrem Umgang mit intelligenter Technologie leitet.“

Teresa Flanagan

Quelle:

Pressetext

Schon gelesen?
Erotische Grenzüberschreitungen mit dem Chatbot Replika
Kriminelle nutzen KI, um Entführung vorzutäuschen!
Fatale Fehler: ChatGPT keineswegs ohne Fehler


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)