Offener Brief gegen ungehemmte KI Gegenwind für ChatGPT & Co: Moratorium für KI-Entwicklung gefordert

Von Michael Eckstein Lesedauer: 4 min

Gerät das selbst geschaffene Monster außer Kontrolle? Erleben wir gerade die Geburt von Skynet aus Schwarzeneggers Terminator-Filmen? Laut dem offenen Brief „Pause Giant AI Experiments: An Open Letter“, in dem Experten einen KI-Entwicklungsstopp fordern, riskieren wir gerade den Verlust der Kontrolle über unsere Zivilisation. Tatsächlich ist die Büchse der Pandora längst geöffnet.

Gefahr für die menschliche Zivilisation: In einem offenen Brief warnen Tech-Größen und KI-Experten vor den Gefahren ungehemmter KI-Entwicklungen.
Gefahr für die menschliche Zivilisation: In einem offenen Brief warnen Tech-Größen und KI-Experten vor den Gefahren ungehemmter KI-Entwicklungen.
(Bild: frei lizenziert / Pixabay)

Was haben Elon Musk (Chef von Tesla, Twitter, Space-X), Steve Wozniak (Apple-Mitgründer), Yoshua Bengio (Gründer und wissenschaftlicher Direktor von Mila, Gewinner des Turing-Preises und Professor an der Universität von Montreal), Stuart Russell (Berkeley, Professor für Informatik, Direktor des Zentrums für intelligente Systeme und Mitautor des Standardlehrbuchs „Artificial Intelligence: a Modern Approach“), Sean O'Heigeartaigh (Executive Director, Cambridge Centre for the Study of Existential Risk) – und etliche weitere hochrangige Vertreter des Bildungswesens und der Techindustrie gemeinsam?

Richtig: Sie warnen vor möglicherweise unkalkulierbaren Folgen durch allgemeine Künstliche Intelligenz – und fordern in einem offenen Brief ein sofortiges Moratorium für die weitere Entwicklung von KI. Diese soll zunächst für mindestens sechs Monate gelten. Mittlerweile haben weit über tausend Menschen den Brief digital unterzeichnet.

KI-Black-Boxen, die keiner mehr kontrollieren kann

Die Unterzeichner befürchten, dass die KI schnell so gut wird in der eigenen Optimierung, dass sie „niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“. Weltweit sei der Wettlauf in der KI-Entwicklung bereits jetzt außer Kontrolle geraten. Das passt zu dem vor gut einer Woche ausgestrahlten ABC-News-Interview, in dem der OpenAI-Gründer vor seiner eigenen Schöpfung ChatGPT warnte.

Zweifellos kann KI in einem klar abgegrenzten Rahmen viele Aufgaben viel besser erledigen, als Menschen je dazu in der Lage wären. Man denke nur an das Auswerten riesiger Datenmengen etwa in der medizinischen Befundung oder bei „Predictive Maintenance“-Anwendungen für das Maschinenmanagement. Doch es stecken eben auch enorme Risiken in der KI-Technologie.

„Insbesondere Demokratien sind gefährdet“

So befürchten die Briefautoren, dass „KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen können“. Umfangreiche Forschungsarbeiten würden dies belegen und von führenden KI-Labors anerkannt werden. Fortgeschrittene KI könne einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde bewirken und sollte mit entsprechender Sorgfalt und entsprechenden Ressourcen geplant und verwaltet werden. „Leider findet eine solche Planung und Verwaltung nicht statt.“

Explizit weisen die Kritiker darauf hin, dass die neue Technik Propaganda und Hasskommentare in einem noch nie dagewesenen Ausmaß verbreiten könne. Sie befürchten negative Auswirkungen auf die Arbeitswelt und sorgen sich, dass auch hochwertige Arbeitsplätze wegfallen könnten: „Sollen wir alle Jobs automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“ Solche Entscheidungen sollten nicht an nicht gewählte Technikführer delegiert werden dürfen.

Erst einmal klare Regeln für KI-Entwicklung schaffen

Daher fordern die Initiatoren des KI-Entwicklungsstopps, dass erst einmal ein ethischer Rahmen mit klaren Grenzen geschaffen wird, die in der KI-Entwicklung nicht überschritten werden dürften. Leistungsfähige KI-Systeme sollen nur dann entwickelt werden dürfen, wenn ihre „Wirkung positiv und die Risiken überschaubar“ seien. Das mindestens sechsmonatige Moratorium bezieht sich explizit auf das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind. In diesem halben Jahr sollen laufende Entwicklungen von externen Experten überprüft werden, außerdem sollen Entwickler gemeinsam Sicherheitsprotokolle entwerfen und implementieren.

Diese Protokolle sollten gewährleisten, dass Systeme, die sich an sie halten, zweifelsfrei sicher sind. Dies bedeute keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr vom gefährlichen Wettlauf zu immer größeren, letztlich unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten. „Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.“

Parallel dazu müssten die KI-Entwickler mit den politischen Entscheidungsträgern zusammenarbeiten, „um die Entwicklung robuster KI-Governance-Systeme drastisch zu beschleunigen“. Diese sollten zumindest Folgendes umfassen: neue und fähige Regulierungsbehörden, die sich speziell mit KI befassen; die Überwachung und Verfolgung hochleistungsfähiger KI-Systeme und großer Pools von Rechenkapazitäten; Herkunfts- und Wasserzeichensysteme, die dabei helfen, echte von synthetischen Daten zu unterscheiden und Modelllecks zu verfolgen; ein robustes Prüfungs- und Zertifizierungssystem; die Haftung für durch KI verursachte Schäden; eine solide öffentliche Finanzierung der technischen KI-Sicherheitsforschung; und gut ausgestattete Institutionen zur Bewältigung der dramatischen wirtschaftlichen und politischen Verwerfungen, die KI verursachen wird – „insbesondere für die Demokratie“.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Problem: Weltweit harmonisierte Regeln, die auch kontrolliert werden

Das Problem an dieser Forderung nach mehr Kontrolle ist offensichtlich: Erstens müsste eine solche Regelung weltweit für alle Akteure gelten, und zweitens müsste die Einhaltung auch überwacht und dokumentiert werden. Wie soll das funktionieren? Und wer soll das machen? Chinas Xi wird sicher keine US-amerikanischen KI-Kontrolleure ins Land lassen – und umgekehrt. Es zeigt sich immer deutlicher, dass die technologische Entwicklung regulativen Instanzen mittlerweile Lichtjahre enteilt ist.

Den bislang ungehemmten KI-Hype jetzt noch einzubremsen, ist quasi aussichtslos. Die Situation ist vergleichbar mit der Federfüllung eines Kissens, die man erst in alle Winde verstreut und dann versucht, alle Federn wieder einzusammeln. Praktisch im Wochenrhythmus poppen weltweit neue KI-Anwendungen auf, Unternehmen überbieten sich mit ihren Ankündigungen.

Jetzt Pause einlegen – hat auch bei anderen Risikotechnologien geklappt

Trotzdem solle man nicht aufgeben: Bei anderen Technologien mit potenziell katastrophalen Auswirkungen auf die Gesellschaft habe die Gesellschaft auch stets eine Pause eingelegt – etwa beim Klonen von Menschen, bei der Veränderung der menschlichen Keimbahn, bei der Funktionserweiterungsforschung und bei der Eugenik. Die Autoren plädieren dafür: „Das können wir auch hier tun!“

Die Menschheit könne mit KI eine blühende Zukunft erleben – „nachdem es uns gelungen ist, leistungsfähige KI-Systeme zu schaffen, können wir nun einen ‚KI-Sommer‘ genießen, in dem wir die Früchte ernten, diese Systeme zum klaren Nutzen aller entwickeln und der Gesellschaft die Chance geben, sich anzupassen.“ (me)

(ID:49314717)