„Alexa, hörst du gerade zu?“
Autor: Kathrin Helmreich
Lieber Leser, liebe Leserin, Mimikama ist dein Kompass in der Informationsflut. Aber um den Kurs zu halten, brauchen wir dich. Jeder Beitrag, ob groß oder klein, bringt uns näher an eine Welt der verlässlichen Informationen. Stell dir vor, du könntest einen Unterschied machen, und das kannst du! Unterstütze uns jetzt via PayPal, Banküberweisung, Steady oder Patreon. Deine Hilfe lässt uns weiterhin Fakten liefern, auf die du zählen kannst. Mach mit uns den ersten Schritt in eine vertrauenswürdigere Informationszukunft. ❤️ Dank dir kann es sein.
ISM-Professor Dr. Matthias Lederer über Chancen und Risiken Künstlicher Intelligenz
„Alexa, schalte den Weihnachtsbaum an!“ Smarte Mini-Lautsprecher mit Sprachsteuerung liegen absolut im Trend und sind beliebte Geschenke zu Weihnachten.
Auf Zuruf können die Assistenten unsere Lieblingsplaylist in Dauerschleife abspielen oder Festtagsschmuck zum Leuchten bringen. Trotzdem löst die Vorstellung, dass sie permanent zuhören und so an Nutzerdaten gelangen könnten, Unbehagen aus.
Prof. Dr. Matthias Lederer lehrt an der International School of Management (ISM) im Bereich Wirtschaftsinformatik und weiß, wie es um unsere Datensicherheit steht und warum wir Künstlicher Intelligenz mit Vorsicht begegnen.
„Aktuell müssen wir als Endkunden dem Versprechen, dass unsere Nutzerdaten nicht missbraucht werden, blind vertrauen. Denn ob Alexa wirklich weghört, wenn man das Mikrofon ausschaltet oder nicht – oder ob sie gerade dann erst mithört – kann nicht abschließend geklärt werden. Das wissen nur die Konzerne selbst“,
so Lederer. Aus seiner Sicht kommt die Diskussion viel zu spät.
„Nehmen wir ein typisches Meeting im Unternehmen, an dem vier Personen teilnehmen. Da kommen schnell mal zwölf Mikrofone zusammen, die alle potenziell Geschäftsgeheimnisse sammeln können. Jeder hat ein Smartphone und einen Laptop. Zusätzlich ist eine Videoanlage im Raum und eine Licht- und Temperatursteuerung, die sich mit Sprache steuern lassen.“
Amazon, Google und Apple sind sich über die Unsicherheit der Endkunden im Klaren und diskutieren ihre Verantwortung aktuell sehr öffentlich. Dabei gibt es bereits mögliche Lösungsansätze.
„Bei einem Kühlschrank haben wir objektive Energieklassen, beim Autoreifen messen wir Umweltverträglichkeit ebenfalls nach Klassen. Wo bleibt ein Sicherheitslabel für Künstliche Intelligenzen? Solch ein Ansatz könnte im Markt Transparenz liefern“,
ist sich der ISM-Experte sicher.
Hundertprozentige Gewissheit gibt es für Nutzer nicht. Da bleibt nur das Vertrauen in die Versprechen der Konzerne. Abgesehen von der Angst um unsere Daten stehen viele Menschen Künstlicher Intelligenz jedoch grundsätzlich erst einmal skeptisch gegenüber.
„Was uns am meisten ängstigt, so zeigen es Studien, ist die sogenannte Super-Intelligenz – ein System, das sich selbstständig völlig neues Wissen erschließt und dem Menschen einmal überlegen sein könnte“,
erklärt Lederer.
„Assistiert Künstliche Intelligenz in einem Krieg, finden wir dies moralisch bedenklich. Trifft sie autonome Entscheidungen sehen wir unser Wert- und Sicherheitsgefüge in essenzieller Gefahr. Langfristig brauchen wir daher einen ethischen Standard für den Einsatz Künstlicher Intelligenz.“
Die Angst, die auch Hollywoodstreifen wie „I-Robot“ und „Matrix“ verbreiten, ist Fiktion, weiß Lederer.
„In der Wirklichkeit lernen Systeme wie Säuglinge die Welt durch Ausprobieren und Abschauen kennen und nehmen uns hoffentlich so viele lästige Alltagsaufgaben ab. Ich finde es paradox, dass in der Presse und wissenschaftlichen Diskussionen bei Fachkongressen immer wieder ethische und angsteinflößende Themen angeschnitten werden.“
Weniger Angst haben, mehr Nutzen erkennen, lautet der Rat des ISM-Experten:
„In einer komplexen Welt ist es sinnvoll, wenn uns Künstliche Intelligenzen unterstützen. Ein Schuh, der Stürze von alten Menschen vorhersagen kann oder Roboter, die demente Personen unterhalten, sind nur der Anfang.“
Artikelbild: Shutterstock / Von Karsten Neglia
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)
Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum
INSERT_STEADY_CHECKOUT_HERE
Ihnen liegt es am Herzen, das Internet zu einem Ort der Wahrheit und Sicherheit zu machen? Fühlen Sie sich überwältigt von der Flut an Fehlinformationen? Mimikama steht für Vertrauen und Integrität im digitalen Raum. Gemeinsam können wir für ein transparentes und sicheres Netz sorgen. Schließen Sie sich uns an und unterstützen Sie Mimikama!. Werde auch Du ein jetzt ein Botschafter von Mimikama
Mimikama Workshops & Vorträge: Stark gegen Fake News!
Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.