Die regelmäßige intensive Nutzung intelligenter persönlicher Assistenten wie Amazons „Alexa“, Googles „Assistant“ oder Apples „Siri“ über einen längeren Zeitraum können Stress erzeugen. Zu dem Schluss kommen Forscher der Ruhr-Universität Bochum (RUB) in ihrer neuen, im „Journal of the Academy of Marketing Science“ publizierten Studie.
Mensch-Technologie-Beziehung
RUB-Forscher Sascha Alavi hat mit Kollegen der Universität Neuchâtel Umfragen mit mehr als 1.000 Nutzern von intelligenten Sprachassistenten sowie qualitative Tiefen-Interviews mit elf Usern durchgeführt. Ergebnis: Viele von ihnen schreiben den intelligenten persönlichen Assistenten einen nahezu menschlichen Verstand zu.
„Unsere Studienergebnisse bestätigen also zunächst einen durchaus positiven Effekt der Mensch-Technologie-Beziehung“, so Alavi. Auf der anderen Seite konnte das Team erstmals auch beweisen, dass diese Zuschreibung menschlicher Eigenschaften auf die Technologie negative Effekte haben kann.
Erst Honeymoon, dann Problem
„Unserer Studie zufolge fühlen sich etwa 30 Prozent der Nutzer mitunter auch von den Systemen in ihrer Identität bedroht. Sie nehmen die Assistenten als rivalisierend wahr. Sie sorgen sich um ihre Unabhängigkeit, sehen ihre Privatsphäre in Gefahr“, erklärt Alavi. Diese schädigenden Effekte würden besonders dann häufig auftreten, wenn zwischen Mensch und Assistenzsystem bereits eine enge, lange Beziehung bestünde.
„In den ersten acht Monaten gibt es keine Probleme. Man könnte von einem ‚Honeymoon-Effekt‘ sprechen“, so Alavi. Danach setze die stressende Wirkung ein. „Bei etwa 20 Prozent der Konsumenten beeinträchtigt die intensive Nutzung von Artificial Intelligence Assistants über einen Zeitraum von acht Monaten ihr Wohlbefinden“, erklärt Alavi. Der Stress rühre vor allem von den Sorgen der Menschen, dass solche Technologien sie eines Tages ersetzen könnten.
Originalveröffentlichung: Ertugrul Uysal, Sascha Alavi, Valéry Bezençon: Trojan horse or useful helper? A relationship perspective on artificial intelligence assistants with humanlike features, in: Journal of the Academy of Marketing Science, 2022, DOI: 10.1007/s11747-022-00856-9
Quelle: pte
Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:
📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.
Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!
* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)

