EU will ChatGPT und Co per Gesetz kontrollieren

Die Vorschläge beinhalten die Einstufung von KI-Systemen je nach ihrem Grad an Risiko, der von minimal bis hin zu inakzeptabel reicht. Dabei gibt es auch Zwischenstufen wie begrenzt und hoch.

Autor: Tom Wannenmacher


Liebe Leserin, lieber Leser,

jeden Tag strömt eine Flut von Informationen auf uns ein. Doch wie viele davon sind wirklich wahr? Wie viele sind zuverlässig und genau? Wir bei Mimikama arbeiten hart daran, diese Fragen zu beantworten und dir eine Informationsquelle zu bieten, der du vertrauen kannst.

Aber um erfolgreich zu sein, brauchen wir deine Hilfe. Du hast es in der Hand, eine Welt voller vertrauenswürdiger Informationen zu schaffen, indem du uns jetzt unterstützt. Jede Unterstützung, ob groß oder klein, ist ein wichtiger Beitrag zu unserer Mission.

Werde Teil einer Bewegung, die sich für die Wahrheit einsetzt. Deine Unterstützung ist ein starkes Signal für eine bessere Informationszukunft.

❤️ Herzlichen Dank

Du kannst uns entweder via PayPal oder mittels einer Banküberweisung unterstützen. Möchtest Du uns längerfristig unterstützen, dann kannst Du dies gerne mittels Steady oder Patreon tun.


EU will ChatGPT und Co per Gesetz kontrollieren (Bild: Midjourney)
EU will ChatGPT und Co per Gesetz kontrollieren (Bild: Midjourney)

„Artificial Intelligence Act“ stuft Systeme nach Risikoniveau ein und schreibt Transparenz vor. Nicht verbieten, aber umfangreich regulieren: Die Abgeordneten des EU-Parlaments haben sich auf entsprechende Leitplanken für die Einschränkung der Nutzung Künstlicher Intelligenz (KI) geeinigt. Konkret geht es um generative Systeme wie ChatGPT oder Midjourney. Der Entwurf, der sogenannte „Artificial Intelligence Act“ wird nun an die nächste Verfahrensstufe weitergeleitet.

Datenschutz berücksichtigen

Geht es nach den EU-Politikern, sollen die in Medien und Wirtschaft hohe Wellen schlagenden KI-Systeme nach ihrem Risikoniveau eingestuft werden, von minimal über begrenzt und hoch bis inakzeptabel. Die Nutzung von Hochrisikosystemen soll demnach zwar nicht untersagt, aber maximal transparent erfolgen, heißt es in dem vorliegenden Entwurf.

So müssten die Hersteller entsprechender Systeme offenlegen, ob urheberrechtlich geschütztes Material bei der Entwicklung verwendet wurde und wie genau die KI funktioniert. Immer wieder liefern die zwar weit entwickelten, aber längst nicht vollständig zuverlässigen Systeme falsche Antworten und seien nicht selten ideologisch beeinflusst programmiert.


Lesen Sie auch:


Quellen:


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Mehr von Mimikama