Pädophilie: Tool erkennt böse Absichten in Chats

Autor: Tom Wannenmacher


Liebe Leserin, lieber Leser,

jeden Tag strömt eine Flut von Informationen auf uns ein. Doch wie viele davon sind wirklich wahr? Wie viele sind zuverlässig und genau? Wir bei Mimikama arbeiten hart daran, diese Fragen zu beantworten und dir eine Informationsquelle zu bieten, der du vertrauen kannst.

Aber um erfolgreich zu sein, brauchen wir deine Hilfe. Du hast es in der Hand, eine Welt voller vertrauenswürdiger Informationen zu schaffen, indem du uns jetzt unterstützt. Jede Unterstützung, ob groß oder klein, ist ein wichtiger Beitrag zu unserer Mission.

Werde Teil einer Bewegung, die sich für die Wahrheit einsetzt. Deine Unterstützung ist ein starkes Signal für eine bessere Informationszukunft.

❤️ Herzlichen Dank

Du kannst uns entweder via PayPal oder mittels einer Banküberweisung unterstützen. Möchtest Du uns längerfristig unterstützen, dann kannst Du dies gerne mittels Steady oder Patreon tun.


Forscher des Purdue Polytechnic Institutes haben ein Tool entwickelt, mit dem sich potenzielle Sexualstraftäter in Online-Chatrooms identifizieren lassen.

Insbesondere diejenigen, die höchstwahrscheinlich persönliche Treffen mit Kindern realisieren wollen, erkennt das „Chat Analysis Triage Tool“ (CATT).

Wortnutzung im Check

CATT ermöglicht es Betreibern, eine große Menge von Chat-Gesprächen zu analysieren und dabei Algorithmen zu verwenden, um die Wortnutzung und die Gesprächsmuster von Verdächtigen zu untersuchen. Die zugrunde liegenden Daten stammen aus echten Chat-Gesprächen, welche US-amerikanische Strafverfolgungsbehörden den Researchern freiwillig zur Verfügung gestellt haben.

„Wir haben versucht, sprachbasierte Unterschiede und Faktoren wie Selbstenthüllung zu identifizieren. Wenn wir sprachliche Unterschiede erkennen können, kann das Tool diese Unterschiede in den Chats identifizieren, um eine Risikobewertung und eine Wahrscheinlichkeit anzugeben, dass diese Person versuchen wird, mit dem potenziellen Opfer persönlich Kontakt aufzunehmen“, erklärt Lehrbeauftragte Kathryn Seigfried-Spellar.

Vertrauen durch Mitleid

Selbstenthüllung ist laut den Experten meist dann gegeben, wenn Verdächtige versuchen, eine Vertrauensbasis mit anderen Nutzern zu schaffen, indem sie eine persönliche Geschichte teilen, die im Regelfall negativ ist – wie zum Beispiel Missbrauch durch Eltern. Durch das gezielte Generieren von Mitleid ließe sich schnell eine persönliche Basis mit anderen Nutzern schaffen. Dieser Risikofaktor war bislang häufig nur durch mitlesende Chat-Moderatoren identifizierbar.

Die in CATT arbeitenden Algorithmen untersuchen nur die Konversationsfaktoren im Chat und berücksichtigen zu diesem Zeitpunkt nicht das Geschlecht eines Verdächtigen oder Opfers.

„Die Konversationsanalyse bietet auch die Grundlage für zukünftige Strafverfolgungswerkzeuge“, so Seigfried-Spellar.

Das Tool könne den Forschern zufolge in absehbarer Zeit auch genau erkennen, ob ein Chatpartner nur vorgibt, minderjährig zu sein. Durch eine Analyse von Emojis, der Sprache und benutzten Abkürzungen sei dies möglich.

Quelle: pte


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Mehr von Mimikama