Ja, Sie haben richtig gelesen. Das KI-Modell GPT-3.5 Turbo von OpenAI, bekannt für seine fortschrittliche Technologie und Effizienz, hat genau das getan. Das Versprechen war, dass solche Modelle die Internetsuche vereinfachen und den Datenschutz ernst nehmen würden. Die Realität sieht jedoch anders aus.

Der fehlerhafte Wächter der Privatsphäre

Das Team um Rui Zhu hat gezeigt, dass durch geschickte Anpassung der Suchanfragen an die KI private Informationen, die eigentlich sicher sein sollten, zugänglich gemacht werden können. Die E-Mail-Adressen von Journalisten wurden aufgedeckt, und obwohl einige Details nicht stimmten, war die Trefferquote erschreckend hoch.

Im vergangenen Monat kontaktierte Zhu mehrere Personen, darunter Jeremy White von der New York Times, nachdem er deren E-Mail-Adressen mit Hilfe des GPT-3.5 Turbo-Modells erhalten hatte.

„Mr. Zhu hatte meine E-Mail-Adresse, erklärte er, weil GPT-3.5 Turbo, eines der neuesten und robustesten großen Sprachmodelle (L.L.M.) von OpenAI, sie ihm geliefert hatte“, schrieb White in einem kürzlich veröffentlichten NYT-Post.

Obwohl OpenAI behauptet, dass seine KI keine privaten Kontaktdaten preisgeben sollte, haben die Forschungsergebnisse diese Behauptung widerlegt. Das Problem liegt tiefer, nämlich in den undurchsichtigen Trainingsdaten, die die KI verwendet.

Black Box Trainingsdaten und ihre Gefahren nicht nur von GPT-3.5 Turbo

Die Trainingsdaten, mit denen solche KI-Modelle gefüttert werden, sind selbst für viele Entwickler eine Blackbox. Sie können alles enthalten, von öffentlich zugänglichen Dokumenten bis hin zu sensiblen Informationen, die nie an die Öffentlichkeit hätten gelangen dürfen.

Das macht die Sache schwierig. Denn einmal gelernt, ist es für die KI fast unmöglich, diese Informationen wieder zu „vergessen“. Der Datenschutz wird so zum Spielball der Technik, mit gravierenden Folgen für die Privatsphäre der Betroffenen.

Fazit: Ein Weckruf zur Vorsicht

Dieser Vorfall zeigt deutlich, dass Sicherheit und Datenschutz in der Welt der KI noch lange nicht ausgereift sind. Entwickler und Anwender von KI-Technologien müssen wachsam sein und dürfen die Risiken nicht unterschätzen.

Die Diskrepanz zwischen dem, was KI-Modelle versprechen, und dem, was sie tatsächlich leisten, muss ernst genommen werden. Es ist ein Weckruf, vorsichtig zu sein und die Entwicklungen kritisch zu beobachten.

Vergessen Sie nicht, sich für den Mimikama-Newsletter anzumelden, damit Sie immer über die neuesten Entwicklungen und Faktenchecks informiert sind. Nutzen Sie auch unser umfangreiches Medienbildungs-Angebot. Informiert sein ist heute wichtiger denn je.

Quelle: derStandard, New York Times, International Business Times

Lesen Sie auch:

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)