Een computermodel zou helpen, de emotionele reacties van mensen op Facebook-posts beter te kunnen voorspellen!
Onderzoekers van de Penn State’s College of Information Sciences and Technology hebben een computermodel ontwikkeld, dat gebruikt zou kunnen worden om emotionele reacties van mensen op Facebook-posts beter te kunnen voorspellen. Het zou gebruikers en bedrijven helpen om de steeds ingewikkeldere manier te begrijpen, waarmee mensen hun gevoelens op sociale media uiten..
Betrouwbare resultaten creëren
“We willen de reacties van de gebruikers achter deze clicks op Facebook-reacties begrijpen. Als we het probleem als ranking-probleem modelleren, kan een algoritme bij een Facebookpost de juiste volgorde onder zes emoticons in termen van stemmen voorspellen”, verklaart researcher Jason Zhang. Volgens de onderzoekers zijn de huidige modellen onbetrouwbaar. Het naakte tellen van de clicks zou ook niet voldoende bevestigen, dat sommige emoticons minder waarschijnlijk aangeklikt zullen worden.
De onderzoekers willen daarom een beter model ontwikkelen, dat de reacties zo nauwkeurig mogelijk voorspelt, zoals het nog voor 2016 was, toen er alleen maar een “vind ik leuk” was. Nu werken de onderzoekers met zes keuzemogelijkheden. De onderzoekers, die hun resultaten op de AAAI conference on Artificial Intelligence in New Orleans zullen presenteren, gebruiker daar een KI-techniek voor van het “gecontroleerde machine learning”. In de studie trainen ze het model aan de hand van vier Facebookpost-bestanden, waaronder openbare berichten van reguliere gebruikers van de “New York Times, de “Wall Street Journal” en de “Washington Post”. Ze toonden aan, dat hun model de bestaande oplossingen overtrof.
Zes emoticons begrijpen
Volgens de wetenschappers klikken gebruikers bijvoorbeeld het meeste op “vind ik leuk”, omdat het een positieve interactie is. Dat is ook de standaard emoticon op Facebook. “Als we wat op Facebook posten, neigen onze vrienden ertoe, op de positieve reacties te klikken. Normaal gesproken ‘hart’, ‘haha’ of gewoon een ‘vind ik leuk’, maar ze zullen zelden ‘woedend’ kiezen”, zei Zhang. “Dat veroorzaakt een zwaarwegende onbalans”.
Voor social media-managers en adverteerders, die elk jaar miljarden aam het kopen van Facebookadvertenties uitgeven, kan deze onbalans van invloed zijn op hun analyse van de manier waarop hun berichten daadwerkelijk op Facebook functioneren. Daarom willen de onderzoekers een werkend computermodel maken, dat zes emoticons correct kan berekenen in de context van een Facebookpost.
Vertaling: Petra, mimikama.nl
Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:
📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.
Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!
* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)