Weder Amazons virtueller Assistent Alexa noch der autonome Robo-Staubsauger Roomba von iRobot sind wahrscheinlich kitzelig oder empfinden Schmerzen, wenn sie eingeklemmt werden. Das ist die Meinung von 4- bis 11-Jährigen, die damit zeigen, dass sie schon frühzeitig in der Lage sind, sie von Menschen klar zu unterscheiden, obwohl die digitalen Helfer mit menschlich anmutender Intelligenz ausgestattet sind. Diese Erkenntnisse haben Forscher der Duke University in einer neuen Studie gewonnen.

Denken und Fühlen

Die Wissenschaftler haben Kinder gefragt, ob sie glauben, dass Alexa und Roomba die Fähigkeit haben, zu denken und zu fühlen, weil sie schließlich in die Kategorie „Künstliche Intelligenz“ (KI) gehören. Zudem sollten sie beurteilten, ob man mit ihnen auf eine besondere Art mitgehen sollte. Alexa bietet Sprachinteraktion, Musikwiedergabe, Streaming-Podcasts und Echtzeitinfos. Roomba hält mit ein bisschen KI den Fußboden staubfrei.

Die Kinder sprachen Alexa, nicht aber Roomba, mentale und emotionale Fähigkeiten zu, was die Forscher auf Alexas Sprachfähigkeit zurückführen.

„Auch wenn Alexa körperlos ist, denken kleine Kinder, dass sie Emotionen und Verstand hat.“

Teresa Flanagan vom Duke-Institut für Psychologie und Neurowissenschaften

127 Kinder interviewt

Flanagan und ihr Team haben 127 Kindern ein 20-minütiges Video gezeigt, in dem Alexas und Roombas Fähigkeiten zu sehen waren. Dann wurde danach gefragt, ob die in ihnen steckenden KIs den Unterschied zwischen Gut und Böse kennen und Gefühle haben und ob es in Ordnung sei, Technologie anzuschreien oder zu schlagen, wenn sie nicht funktioniert. Letzteres lehnten die Kinder als falsch ab.

„Die Älteren allerdings denken, dass Anschreien und Schlagen nichts Tolles sind, dass sie aber die Freiheit haben, es zu tun. In einer Zeit, in der KI wie ChatGPT Schlagzeilen macht, geben die Ergebnisse der Studie einen Einblick in die Beziehungen, die Kinder zu Technologien haben, und ob Ethik Kinder bei ihrem Umgang mit intelligenter Technologie leitet.“

Teresa Flanagan

Quelle:

Pressetext

Schon gelesen?
Erotische Grenzüberschreitungen mit dem Chatbot Replika
Kriminelle nutzen KI, um Entführung vorzutäuschen!
Fatale Fehler: ChatGPT keineswegs ohne Fehler

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)