Automatisierte Methode erzielt in ersten erfolgreichen Tests eine Trefferquote von 91,37 Prozent
Forscher der Mahasarakham University arbeiten an einer Methode, um betrügerische Facebook-Seiten zu erkennen. Damit können solche Seiten, die über gefälschte Profile, Gewinnspiele oder vorgespielte romantische Freundschaftsanfragen versuchen, Usern Geld oder sensible persönliche Daten abzuluchsen, bald mithilfe eines künstlichen neuronalen Netzes aufgespürt und aussortiert werden.
In ersten Tests lag die Trefferquote bei 91,37 Prozent.
Warnungen nicht ausreichend
„Auf Facebook kann es zu Betrugsfällen kommen, wenn Personen gefälschte Konten erstellen oder bestehende Accounts oder Seiten hacken, die du mit ‚Gefällt mir‘ markiert hast. Die Internetbetrüger versuchen dann über die gefälschten oder kompromittierten Konten auf hinterhältige Weise an dein Geld oder personenbezogene Informationen zu kommen“,
warnt das soziale Netzwerk alle seine Nutzer. Wenn man eine Nachricht erhalten sollte, bei der man einen Betrug vermutet, sollte man es tunlichst vermeiden, auf diese zu antworten und sie stattdessen an Facebook melden.
„Weil diese Warnungen offensichtlich nicht ausreichen, um die User vor den zunehmenden Betrügereien zu schützen, sind wir auf der Suche nach einer automatisierten Möglichkeit, um vertrauenswürdige und nicht vertrauenswürdige Seiten voneinander zu unterscheiden“,
zitiert „TechXplore“ Panida Songram, PhD-Studentin in der Divison of Computer Science der Mahasarakham University. Der Ansatz des maschinellen Lernens sei vielversprechend.
„Wir hoffen, dass unsere Methode zur Entwicklung effektiverer Anti-Betrugs-Tools beiträgt“,
so die Forscherin.
„Gute“ sowie „böse“ Seiten
Im Rahmen ihres Projekts haben Songram und ihr Team zunächst eine Vielzahl verschiedener Facebook-Seiten gesichtet und analysiert, um daraus eine Liste mit Eigenschaften und Indizien zu erstellen, die für Betrügereien charakteristisch sind.
Dazu gehören etwa die spezifischen Seiteninformationen, Angaben zu dort angebotenen Produkten und Services, Antworten von Usern und das Verhalten des zuständigen Seitenadministrators.
Die gesammelten Infos wurden dann in ein selbstlernendes neuronales Netzwerk eingespeist, um diesem Ansatzpunkte zu liefern, wie man „gute“ von „bösen“ Seiten unterschieden kann. Anhand von zehn zentralen gefundenen Unterscheidungskriterien konnte das eingesetzte vollautomatische Tool dabei 91,37 Prozent der analysierten Betrugsseiten richtig aufspüren.
„Das Ergebnis zeigt das Potenzial unserer Methode, die wir aber in den nächsten Monaten noch weiter verbessern wollen“,
meint Songram.
Artikelbild: Shutterstock / Von Digital abstract Art
Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:
📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.
Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!
* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)

