Überwachungskameras: Algorithmus erkennt Emotionen in Gruppen!
Dein Beitrag hilft Mimikama beim Faktencheck: Unterstütze uns via PayPal, Banküberweisung, Steady oder Patreon. Deine Hilfe zählt, um Fakten zu klären und Verlässlichkeit zu sichern. Unterstütze jetzt und mach den Unterschied! ❤️ Danke
Dank Überwachungskameras breites Anwendungsspektrum – Datenschutzexperte sieht Probleme
Ein von der russischen Higher School of Economics entwickelter Algorithmus erkennt Emotionen in einer Menge – und das über simple Videoaufnahmen. Selbst bei niedriger Videoqualität lässt sich die Analyse einer Menschenmasse in einem hundertstel einer Sekunde durchführen.
Geringe Reaktionszeit
„Es kommt darauf an, wer dieses System im Einsatz hat. Wenn der Staat es zur Verfolgung von Straftaten, zur Abwehr von Gefahren oder zur Gewährung der öffentlichen Sicherheit anwendet, ist es erlaubt. In diesen Fällen ist man dem Staat jedoch datenschutzrechtlich ausgeliefert“,
kommentiert Heiko Maniero, Prokurist der Deutschen Gesellschaft für Datenschutz, die Technologie.
Der Algorithmus soll vor allem bei Überwachungskameras Verwendung finden. Eine mögliche Anwendung ist diejenige in Supermärkten. Hier soll man herausfinden können, wie die Stimmung von Kunden beim Einkauf ist. Vor allem aber soll die Innovation eine Sicherheitsmaßnahme sein. Bei Fußballspielen oder Massenprotesten sollen so Konflikte vermieden werden. Maniero ist skeptisch:
„Ich sehe keinen Sinn in dieser Maßnahme, das Zeitfenster ist einfach zu klein. Die Polizei könnte sowieso nichts machen. Die Masse kocht schließlich nicht über mehrere Stunden hoch, sondern kann plötzlich explodieren.“
Gesamtbild gewinnen
Laut den Forschern Alexander Tarasov und Andrey Savchenko braucht der Algorithmus nur fünf Megabyte an Speicherplatz und kann anhand von einem Bild seine Analyse durchführen. Die Genauigkeit der Anwendung liege bei 75,5 Prozent. Zuerst wird das Bild in ein neurales Netzwerk geladen.
Dann werden die Gesichtszüge in einem weiteren Netzwerk untersucht, das darauf programmiert wurde, bei niedriger Auflösung Emotionen zu erkennen. Am Ende wird ein Gesamtbild der Gruppenemotion festgestellt, das entweder negativ, positiv oder neutral ist.
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)
Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum
INSERT_STEADY_CHECKOUT_HERE
Sind Sie besorgt über Falschinformationen im Internet? Mimikama setzt sich für ein faktenbasiertes und sicheres Internet ein. Ihre Unterstützung ermöglicht es uns, weiterhin Qualität und Echtheit im Netz zu gewährleisten. Bitte unterstützen Sie und helfen Sie uns, ein vertrauenswürdiges digitales Umfeld zu schaffen. Ihre Unterstützung zählt! Werde auch Du ein jetzt ein Botschafter von Mimikama
Mimikama Workshops & Vorträge: Stark gegen Fake News!
Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.