Nie mehr wichtige Faktenchecks verpassen!
Melden Sie sich für unseren WhatsApp-Channel, die Smartphone-App (für iOS und Android) oder unseren Newsletter an und erhalten Sie alle Faktenchecks und Updates sofort. Einfach anmelden, immer einen Schritt voraus!


Laut einer Studie nutzen Cyberkriminelle Emotionen aus, um schadhafte Links in Tweets zu verstecken, um diese dann zu verbreiten.

Ein Forschungsteam, bestehend aus den Internetsicherheitsexperten Amir Javed und Professor Pete Burnap der Universität von Cardiff, kamen in einer Studie zu dem Schluss, dass Cyberkriminelle auf Twitter oft angsteinflößende Inhalte und Sprache benutzen, um User*Innen auf bösartige Links zu führen und sie zum Download von schädlicher Software zu verleiten.

Bösartige Links in Tweets zu verstecken nennt man auch eine „Drive-by-Download-Attacke“. Bei dieser Methode wird bösartige URL in einem Tweet versteckt, um damit ein möglichst hohes Clickbait zu erreichen.

Das Spiel mit Emotionen

Laut der Studie werden Tweets mit negativen Emotionen eher geteilt als mit positiven. Cyberkriminelle staffieren Tweets mit bösartigen Links absichtlich mit angsteinflößenden Inhalten aus. Damit soll die Wahrscheinlichkeit erhöht werden, dass die Links retweetet werden und somit eine höhere Reichweite erhalten.

Um zu diesem Ergebnis zu kommen, werteten die Forscher 275.000 Tweets aus, die im Bereich von sieben Sport-Großevents gepostet wurden. Denn solche Events locken immer eine große Anzahl von User*Innen und somit auch Hacker*Innen an. Unter den Tweets waren 105.642 Nachrichten, die  Links zu bösartigen Websites beinhalteten.

Die Forscher fanden heraus, dass die schadhaften Tweets oft Wörter wie „töten“ oder „kämpfen“ benutzten. Twittermeldungen ohne bösartigen Links enthielten dafür öfters positiv konnotierte Wörter wie „Liebe“, „Team“ oder „Spaß“. Die negativ konnotierten, und öfters bösartig verlinkten Tweets, wurden allerdings um 114% häufiger geteilt.

Forscher Javed drückt es so aus: „Diese Ergebnisse deuten darauf hin, dass Cyberkriminelle sorgfältig Wörter auswählen, die sie in ihre Tweets einbauen, wobei ein Schlüsselwort eine emotionale Erregung mit negativen Emotionen wie Angst, Wut oder Traurigkeit auslösen könnte, das Menschen dazu bringen könnte, den Tweet zu teilen und auf den Link zu klicken.“

Das Forscherteam kommt daher zu dem Schluss, dass Cyberkriminelle absichtlich reißerische, auf Angst basierende Wörter benutzen, um User*Innen in die Falle zu locken. Der Inhalt der Tweets sei wirkungsvoller als die Anzahl der Follower*Innen der Accounts von Cyberkriminellen.

Doch Amir und Burnap sehen in der Entdeckung auch eine Chance. Mit den Erkenntnissen könne ein Filter kreiert werden, der solche Attacken potentiell frühzeitig erkennen und die Gefahr somit zukünftig minimieren könne.

[mk_ad]

Das könnte auch interessant sein:

Achtung: Identitätsklau auf Facebook

Aktuell warnen Facebook-Nutzer davor, dass man keine Freundschaftsanfrage von einem bereits bestehenden Profil annehmen soll, mit dem man bereits befreundet ist. Mehr Hier.


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)