Kann ein Kinderspielzeug von einem Tag auf den anderen gefährlich werden? Ähnlich verhält es sich mit der Künstlichen Intelligenz (KI), die anfangs als harmloser Spielgefährte der Technik galt und sich nun anschickt, die Welt zu erobern. Man fühlt sich unweigerlich an das Unbehagen erinnert, das sich einst bei der ersten Vorführung der Dampfmaschine einstellte.

Aber jetzt stehen wir vor dem Unbekannten, der Superintelligenz – einer KI, die so intelligent sein könnte, dass sie das menschliche Denken weit übertrifft. Die Schöpfer der KI, darunter auch OpenAI, haben erkannt, dass wir mit dem heutigen Stand der Technik kaum in der Lage sind, eine solche Superintelligenz zu kontrollieren. Deshalb startet OpenAI nun eine Initiative, um die Sicherheit der Künstlichen Intelligenz für die Menschheit zu gewährleisten.

Der Aufstieg der Superintelligenz

Es klingt wie aus einem Science-Fiction-Roman, aber die Realität könnte die Fiktion bald überholen.

„Superintelligenz wird die einflussreichste Technologie sein, die die Menschheit je erfunden hat, und könnte uns helfen, viele der weltweit wichtigsten Probleme zu lösen. Aber die immense Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen“, schrieben der OpenAI-Mitbegründer Ilya Sutskever und der Leiter der OpenAI-Abteilung für Zukunftsforschung, Jan Leike, in einem Blogbeitrag. „Derzeit haben wir keine Möglichkeit, eine potenziell superintelligente KI zu steuern oder zu kontrollieren und sie daran zu hindern, ihren eigenen Weg zu gehen.“

Microsoft betritt das Spiel

Microsoft, einer der Technologiegiganten unserer Zeit, hat es sich zur Aufgabe gemacht, dieses drohende Problem zu lösen. Microsoft hat angekündigt, in den nächsten vier Jahren 20 Prozent seiner Rechenleistung in die Entwicklung einer Lösung zu investieren. Das Unternehmen stellt auch ein neues Forschungsteam zusammen, das „Superalignment Team“, das sich ausschließlich mit der Lösung dieses Problems befassen wird.

Globale Debatte und Reaktion

Die möglichen Gefahren der Künstlichen Intelligenz werden derzeit in der Forschung und in der Öffentlichkeit intensiv diskutiert:

  • Die EU hat sich bereits auf einen Gesetzentwurf zur Regulierung von KI geeinigt, den „AI Act“.
  • In den USA wird nach dem Vorbild der EU über eine Einstufung von KI-Anwendungen in Risikoklassen diskutiert, von der die Auflagen für die Unternehmen abhängen.
  • Uno-Generalsekretär António Guterres sieht die Zukunft der künstlichen Intelligenz kritisch. Er schlägt vor, eine von den Uno-Staaten gemeinsam geführte Regulierungsbehörde einzusetzen.
  • Im März hatte eine Gruppe von KI-Branchenführern und -Experten einen offenen Brief unterzeichnet, in dem sie auf mögliche Risiken von KI für die Gesellschaft hinwiesen und eine sechsmonatige Pause bei der Entwicklung von Systemen forderten, die leistungsfähiger seien als OpenAIs GPT-4.
  • Im Mai hatten Hunderte Expertinnen und Experten vor künstlicher Intelligenz gewarnt: „Es sollte global priorisiert werden, das Risiko der Auslöschung durch KI zu verringern – auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft, wie etwa Pandemien und Nuklearkrieg“, lautet es übersetzt. Zu den Unterzeichnern zählen Sam Altman, CEO von OpenAI, Demis Hassabis, Chef von Google DeepMind, sowie die mit dem Turing Award ausgezeichneten KI-Forscher Geoffrey Hinton und Yoshua Bengio.

Fazit

Wir befinden uns an einem kritischen Punkt in der Geschichte der künstlichen Intelligenz. Die Entwicklung von KI-Systemen schreitet rasch voran, und die Frage der Kontrolle dieser Systeme wird immer drängender. Die jüngsten Bemühungen von Unternehmen wie OpenAI und Microsoft sind ein ermutigendes Zeichen dafür, dass die Industrie die potenziellen Risiken ernst nimmt und sich bemüht, wirksame Kontrollmaßnahmen zu entwickeln.

Die unbändige Kraft der Superintelligenz steht vor uns, und es ist an der Zeit, Verantwortung für sie zu übernehmen. Wie wir sie zähmen und formen, liegt in unseren Händen und wird darüber entscheiden, ob sie ein Werkzeug oder eine Bedrohung für die Menschheit wird.

Quelle: Der Spiegel, OPENAI

Lesen Sie auch: Wann man ChatGPT nutzen kann, und wann nicht! Ein Faktencheck


Unsere virtuelle Faktencheck-Bewertungsskala: Bei der Überprüfung von Fakten, in der Kategorie der „Faktenchecks„, nutzen wir eine klare Bewertungsskala, um die Zuverlässigkeit der Informationen zu klassifizieren. Hier eine kurze Erläuterung unserer Kategorien:

  • Rot (Falsch/Irreführend): Markiert Informationen, die definitiv falsch oder irreführend sind.
  • Gelb (Vorsicht/Unbewiesen/Fehlender Kontext/Satire): Für Inhalte, deren Wahrheitsgehalt unklar ist, die mehr Kontext benötigen oder satirisch sind.
  • Grün (Wahr): Zeigt an, dass Informationen sorgfältig geprüft und als wahr bestätigt wurden.

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)