Der EU AI Act: Fortschritt oder Fehlschlag?

In den Gängen von Brüssel, wo der Puls der europäischen Politik schlägt, befindet sich ein zentrales Thema im Fokus der Diskussion: die Regulierung der künstlichen Intelligenz. Das Europäische Parlament hat im Juni seine endgültige Position zur KI-Regulierung, auch bekannt als AI Act, vorgelegt. Dabei handelt es sich um einen entscheidenden Schritt, um Europa an die Spitze der sicheren und vertrauenswürdigen Nutzung von KI-Technologie zu stellen. Johannes Kröhnert, Leiter des Büros Brüssel des TÜV-Verbands, unterstreicht das Potenzial dieser Maßnahme, betont jedoch auch die Bereiche, in denen Verbesserungen erforderlich sind.

Risikoklassifizierung von KI-Systemen: ein hohes Maß an Unsicherheit

Die EU-Institutionen planen einen risikobasierten Ansatz zur Klassifizierung von KI-Systemen. Das ist eine fundierte Vorgehensweise, die aber in ihrer jetzigen Form zu kurz greift. Kröhnert weist darauf hin, dass nur KI-Systeme als hochriskant („high-risk“) eingestuft werden sollen, die in physischen Produkten integriert sind, die bereits einer verpflichtenden Prüfung durch unabhängige Stellen unterliegen. Hierbei handelt es sich hauptsächlich um Industrieprodukte wie Aufzüge oder Druckbehälter.

Eine Reihe von Produkten des alltäglichen Gebrauchs wie Spielzeug oder Smart-Home-Geräte, die KI-Systeme enthalten, fallen nicht unter diese Prüfpflicht. Es ist daher wahrscheinlich, dass eine Vielzahl von KI-basierten Verbraucherprodukten nicht als Hochrisikoprodukte eingestuft und somit von strengen Sicherheitsanforderungen ausgenommen werden.

Darüber hinaus sieht Kröhnert die Möglichkeit von Fehleinschätzungen, wenn es um die Klassifizierung von Stand-Alone-KI-Systemen geht – also KI-Systemen, die als reine Software für bestimmte Anwendungsbereiche auf den Markt kommen. Aktuell ist vorgesehen, dass die Anbieter die Risikobewertung selbst durchführen und am Ende auch selbst entscheiden, ob ihr Produkt als Hochrisikoprodukt einzustufen ist oder nicht.

Stärkung des Vertrauens durch unabhängige Überprüfungen

Kröhnert sieht eine Notwendigkeit, das Vertrauen der Menschen in KI-Technologie zu stärken, indem strengere und transparentere Prüfungen eingeführt werden. Die Eigenerklärung der Anbieter, die der EU-Gesetzgeber derzeit vorsieht, könnte bei Hochrisikosystemen nicht ausreichen. Kröhnert empfiehlt eine umfassende Nachweispflicht, die unabhängige Stellen mit einschließt.

Eine kürzlich durchgeführte repräsentative Umfrage des TÜV-Verbands ergab, dass 86 Prozent der Deutschen eine verpflichtende Prüfung der Qualität und Sicherheit von Systemen, die künstliche Intelligenz nutzen, befürworten. Eine solche Vorgehensweise könnte dazu beitragen, dass „KI Made in Europe“ zu einem echten Qualitätsstandard und einem globalen Wettbewerbsvorteil wird.

KI-Reallabore: ein Schritt in die richtige Richtung

Kröhnert lobt die Einrichtung von KI-Reallaboren („regulatory sandboxes“) als Möglichkeit zur Förderung der Entwicklung und Erprobung von KI-Systemen, insbesondere für KMUs. Allerdings warnt er davor, dass die Nutzung eines Reallabors allein keine Vermutung auf Konformität mit den KI-Regulierungsvorschriften auslösen sollte.

Es ist daher wichtig, dass Anbieter immer noch ein vollständiges Konformitätsbewertungsverfahren durchlaufen müssen, bevor sie ihr KI-System auf den Markt bringen. Kröhnert weist darauf hin, dass hierfür die Einbindung unabhängiger Stellen unerlässlich sein könnte.

Regulierung von künstlicher Intelligenz muss auch ChatGPT & Co. einschließen

Im Licht der jüngsten Entwicklungen und Fortschritte in der KI-Technologie betont Kröhnert die Notwendigkeit, auch generative KI-Systeme wie ChatGPT im AI Act zu regulieren. Diese Systeme müssen grundlegende Sicherheitsanforderungen erfüllen und es sollte geprüft werden, welche Basismodelle als hochkritisch einzustufen sind.

Nachbesserung des AI Act, im Hinblick auf die Bekämpfung von Betrug und Fake News, von großer Bedeutung.

Künstliche Intelligenz (KI) hat das Potenzial, sowohl zur Entstehung als auch zur Bekämpfung von Desinformation und Betrug beizutragen.

  1. Erstellung von Desinformation: KI kann genutzt werden, um überzeugende Desinformation oder Fake News zu erstellen. Zum Beispiel können Deepfake-Technologien, die auf KI basieren, realistische, aber völlig gefälschte Bilder oder Videos erstellen. Diese können dann verwendet werden, um Falschinformationen zu verbreiten oder Betrug zu begehen. Es gibt auch KI-gesteuerte Bots, die auf sozialen Medien falsche Nachrichten oder Propaganda verbreiten können.
  2. Verbreitung von Desinformation: KI kann auch bei der Verbreitung von Desinformation eine Rolle spielen. Algorithmische Newsfeeds in sozialen Medien können dazu führen, dass Menschen in Echokammern gefangen sind, in denen sie nur Informationen erhalten, die ihre bestehenden Ansichten bestätigen – auch wenn diese Ansichten auf Desinformation basieren.

Um diese Risiken zu mindern, könnte der AI Act klarere und strengere Regelungen für die Klassifizierung und Kontrolle von KI-Systemen enthalten, die zur Erstellung oder Verbreitung von Desinformation verwendet werden könnten. Dazu könnten unabhängige Überprüfungen und strenge Sanktionen für den Missbrauch von KI für solche Zwecke gehören.

Gleichzeitig kann KI auch ein wichtiges Werkzeug zur Bekämpfung von Desinformation und Betrug sein. KI kann zum Beispiel dazu genutzt werden, Falschinformationen zu erkennen und zu kennzeichnen oder verdächtige Aktivitäten zu identifizieren, die auf Betrug hinweisen könnten. Der AI Act könnte auch Regelungen enthalten, die die Nutzung von KI zu solchen positiven Zwecken fördern.

Es ist also nicht nur eine Frage der Nachbesserung, sondern auch der Erkennung des doppelten Potenzials von KI und der intelligenten Regulierung, um das Gute zu fördern und das Schlechte zu minimieren.

Fazit

Der AI Act markiert einen entscheidenden Schritt für Europa, um bei der vertrauenswürdigen und sicheren Nutzung künstlicher Intelligenz zum weltweiten Vorreiter zu werden. Dennoch gibt es noch Verbesserungspotential. Es ist notwendig, klare und eindeutige Klassifizierungskriterien aufzustellen, um die Wirksamkeit der verpflichtenden Anforderungen sicherzustellen. Darüber hinaus bedarf es verpflichtender, unabhängiger Prüfungen von Hochrisikosystemen, um das Vertrauen der Menschen in die Technologie zu stärken und potenzielle Interessenskonflikte der Anbieter zu vermeiden. Nur so kann die KI-Regulierung ambitioniert und zukunftssicher gestaltet werden.


Unterstütze uns dabei, unsere Online-Gemeinschaft sicherer zu machen! Lade das angehängte Sharepic herunter und verteile es auf deinem Facebook-Feed oder in deinen Storys. Je mehr Leute wir damit erreichen können, desto sicherer wird unsere digitale Welt. Denk immer daran: Zuerst denken, dann klicken!

MIMIKAMA
Sharepic: Dunkle Seite der KI

Lesen Sie auch: Blick auf den Tischtennis-Wettbewerb der KI: „Können Menschen jemals Roboter besiegen?“

Quelle:

Presseportal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)