Kunstmatige intelligentie moet Facebook emoticons voorspelbaar maken!

Autor: Janine Moorees

Een computermodel zou helpen, de emotionele reacties van mensen op Facebook-posts beter te kunnen voorspellen!

Onderzoekers van de Penn State’s College of Information Sciences and Technology hebben een computermodel ontwikkeld, dat gebruikt zou kunnen worden om emotionele reacties van mensen op Facebook-posts beter te kunnen voorspellen. Het zou gebruikers en bedrijven helpen om de steeds ingewikkeldere manier te begrijpen, waarmee mensen hun gevoelens op sociale media uiten..

image

Betrouwbare resultaten creëren

“We willen de reacties van de gebruikers achter deze clicks op Facebook-reacties begrijpen. Als we het probleem als ranking-probleem modelleren, kan een algoritme bij een Facebookpost de juiste volgorde onder zes emoticons in termen van stemmen voorspellen”, verklaart researcher Jason Zhang. Volgens de onderzoekers zijn de huidige modellen onbetrouwbaar. Het naakte tellen van de clicks zou ook niet voldoende bevestigen, dat sommige emoticons minder waarschijnlijk aangeklikt zullen worden.

De onderzoekers willen daarom een beter model ontwikkelen, dat de reacties zo nauwkeurig mogelijk voorspelt, zoals het nog voor 2016 was, toen er alleen maar een “vind ik leuk” was. Nu werken de onderzoekers met zes keuzemogelijkheden. De onderzoekers, die hun resultaten op de AAAI conference on Artificial Intelligence in New Orleans zullen presenteren, gebruiker daar een KI-techniek voor van het “gecontroleerde machine learning”. In de studie trainen ze het model aan de hand van vier Facebookpost-bestanden, waaronder openbare berichten van reguliere gebruikers van de “New York Times, de “Wall Street Journal” en de “Washington Post”. Ze toonden aan, dat hun model de bestaande oplossingen overtrof.


Zes emoticons begrijpen

Volgens de wetenschappers klikken gebruikers bijvoorbeeld het meeste op “vind ik leuk”, omdat het een positieve interactie is. Dat is ook de standaard emoticon op Facebook. “Als we wat op Facebook posten, neigen onze vrienden ertoe, op de positieve reacties te klikken. Normaal gesproken ‘hart’, ‘haha’ of gewoon een ‘vind ik leuk’, maar ze zullen zelden ‘woedend’ kiezen”, zei Zhang. “Dat veroorzaakt een zwaarwegende onbalans”.

Voor social media-managers en adverteerders, die elk jaar miljarden aam het kopen van Facebookadvertenties uitgeven, kan deze onbalans van invloed zijn op hun analyse van de manier waarop hun berichten daadwerkelijk op Facebook functioneren. Daarom willen de onderzoekers een werkend computermodel maken, dat zes emoticons correct kan berekenen in de context van een Facebookpost.

Vertaling: Petra, mimikama.nl

Bron

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.