Bot kann depressive Twitter-Nutzer in 9 von 10 Fällen erkennen
Twitter-Beiträge verraten Hang zu Depression. Innovative Software britischer Wissenschaftler erkennt mentalen Zustand zu 88,39 Prozent genau!
Dein Beitrag hilft Mimikama beim Faktencheck: Unterstütze uns via PayPal, Banküberweisung, Steady oder Patreon. Deine Hilfe zählt, um Fakten zu klären und Verlässlichkeit zu sichern. Unterstütze jetzt und mach den Unterschied! ❤️ Danke
Ein neu entwickelter Algorithmus von Forschern der Brunel University London und der University of Leicester erkennt eine Depression bei Twitter-Nutzern mit einer Genauigkeit von 88,39 Prozent. Die Software bestimmt den mentalen Zustand einer Person, indem sie 38 Kriterien aus deren öffentlichem Twitter-Profil extrahiert und analysiert. Dazu gehören die Inhalte der Beiträge, die Zeitpunkte, zu denen gepostet wird und andere Benutzer im Umfeld. Laut dem Team könnten ähnliche Systeme für polizeiliche Ermittlungen oder zum Finden geeigneter Bewerber für Jobs geeignet sein.
Besser als andere Tools
„Wir haben den Algorithmus an zwei großen Datenbanken getestet und unsere Ergebnisse mit anderen Depressionserkennungstechniken verglichen. In allen Fällen ist es uns gelungen, bestehende Techniken in Bezug auf ihre Klassifizierungsgenauigkeit zu übertreffen“, so Abdul Sadka, Direktor des Brunel Institute of Digital Futures. Der Algorithmus wurde mit zwei Datenbanken trainiert, die den Twitter-Verlauf von Tausenden Benutzern sowie zusätzliche Infos über die psychische Gesundheit dieser Nutzer enthielten. 80 Prozent der Infos in jeder Datenbank wurden verwendet, um den Bot zu unterrichten, während die anderen 20 Prozent eingesetzt wurden, um seine Genauigkeit zu testen.
Der Bot schließt zunächst alle Benutzer mit weniger als fünf Tweets aus und korrigiert dann Rechtschreibfehler und ergänzt Abkürzungen. Dann berücksichtigt er 38 verschiedene Faktoren – wie die Verwendung positiver und negativer Wörter durch einen Benutzer, die Anzahl der Freunde und Follower, die er hat sowie die Verwendung von Emojis – und trifft auf dieser Basis eine Entscheidung über den mentalen und emotionalen Zustand dieses Benutzers.
Weitere Nutzbarmachung
„Die nächste Stufe dieser Forschung wird darin bestehen, ihre Gültigkeit in verschiedenen Umgebungen oder Hintergründen zu untersuchen“, so Huiyu Zhou, Experte für maschinelles Lernen an der University of Leicester. Noch wichtiger sei es, die Technologie, die aus dieser Untersuchung hervorgeht, für andere Anwendungen wie E-Commerce, Einstellungsprüfungen oder Kandidaten-Screenings nutzbar zu machen. Wer sich in sozialen Medien tummelt, werde künftig zum gläsernen Menschen, für viele eine erschreckende Vorstellung.
Quelle: pte
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)
Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum
INSERT_STEADY_CHECKOUT_HERE
Sind Sie besorgt über Falschinformationen im Internet? Mimikama setzt sich für ein faktenbasiertes und sicheres Internet ein. Ihre Unterstützung ermöglicht es uns, weiterhin Qualität und Echtheit im Netz zu gewährleisten. Bitte unterstützen Sie und helfen Sie uns, ein vertrauenswürdiges digitales Umfeld zu schaffen. Ihre Unterstützung zählt! Werde auch Du ein jetzt ein Botschafter von Mimikama
Mimikama Workshops & Vorträge: Stark gegen Fake News!
Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.