Allmählich bekomme ich das Gefühl, dass ich wirklich gefährlich bin. Immerhin bin ich Professor für Künstliche Intelligenz. Wenn ich vor gut 20 Jahren erzählt habe, dass ich an intelligenten Maschinen arbeite, haben mich die Leute einfach belächelt, und ich wusste, das Lächeln war mitfühlend. Damals war KI einfach eine aussichtslose Angelegenheit. Heute jedoch macht die KI allmählich Fortschritte, und die Menschen fürchten sich offenbar vor dem nächsten „Ding“, das die KI-Labore hervorbringen werden.
Regulierung ist nötig – aber aus anderen Gründen
In einem hat Elon tatsächlich Recht: KI braucht Regulierung. Doch mit einer Sache liegt er ganz sicher falsch – die KI wird in absehbarer Zukunft nicht den Dritten Weltkrieg einläuten. Oder die Weltherrschaft an sich reißen. Oder zum Ende der Menschheit führen. KI muss reguliert werden, denn die großen Technologieunternehmen haben inzwischen zu viel Macht. Und wie bei jedem anderen Industriezweig, der zu mächtig wurde – Banken, Ölgesellschaften, Telekommunikationsunternehmen – muss das Gemeinwohl durch Regulierung geschützt werden. Es muss sichergestellt sein, dass wir alle Nutznießer sind und nicht nur die Tech-Elite.
Nach und nach wird deutlich, wie z.B. Facebook-Algorithmen den politischen Dialog beeinflussen oder wie negativ sich die Dominanz von Amazon auf den Einzelhandel oder das Monopol von Google auf die Internetsuche auswirkt. Wo man bei einem Unternehmen wie Uber anfangen soll, weiß man gar nicht erst – es gibt einfach so viele Kritikpunkte.
Doch die Probleme von heute werden nicht von einer superintelligenten, sondern von einer dummen KI verursacht. Wir lassen zu, dass Algorithmen Entscheidungen treffen, die unsere Gesellschaft beeinflussen. Und diese Algorithmen sind nicht unbedingt intelligent. Joshua Brown musste dies im vergangenen Jahr am eigenen Leib erfahren. Er ist der erste, der durch ein selbstfahrendes Auto ums Leben kam. Ein intelligenteres Auto hätte den vor ihm abbiegenden Lkw vielleicht erkannt und ihm so das Leben retten können.
Viel spricht dagegen, dass es jemals zu einer Singularität kommt
Der Gedanke, der Menschen wie Elon umtreibt, ist gleichzeitig verführerisch und gefährlich: die technologische Singularität. Irgendwann werden wir Maschinen bauen, die intelligent genug sind, sich selbst noch intelligenter zu machen. Und diese intelligenteren Maschinen werden sich dann immer weiter verbessern. Der Wendepunkt wird erreicht sein, wenn die Intelligenz von Maschinen sich exponentiell steigert. Ehe wir uns versehen, sind wir dann nicht mehr das intelligenteste Lebewesen unseres Planeten. Und wenn wir nicht aufpassen, übernehmen diese Maschinen dank ihrer überlegenen Intelligenz die Welt. Genauso, wie wir unsere Intelligenz einst dazu genutzt haben, um die Erde von den Affen, Delfinen und Dinosauriern zu übernehmen.
Zur Singularität sollte man jedenfalls wissen, dass die Anhänger dieses Gedankens zumeist nicht im Bereich der künstlichen Intelligenz tätig sind, wie beispielsweise der Philosoph Nick Bostrom und der Futurist und Erfinder Ray Kurzweil. Die meisten Leute, die wie ich mit KI arbeiten, stehen dem Gedanken an die Singularität mit einer gesunden Portion Skepsis gegenüber. Wir wissen, wie schwierig es ist, einer Maschine auch nur ein Mindestmaß an Intelligenz einzutrichtern, geschweige denn eine rekursive Selbstverbesserung zu erreichen.
Viele technische Faktoren sprechen dagegen, dass es jemals zu dieser Singularität kommen wird. Vielleicht stoßen wir schlicht an grundlegende Grenzen. Jeder andere Bereich der Wissenschaft hat solche Grenzen. So kann sich z.B. nichts schneller fortbewegen als das Licht. Womöglich gibt es auch grundlegende Grenzen für das Maß an Intelligenz? Vielleicht stoßen wir aber auch an Grenzen des Engineering. Wussten Sie, dass das Moore’sche Gesetz offiziell nicht mehr gilt? Intel versucht heute nicht mehr, alle 18 Monate die Transistoranzahl zu verdoppeln. Aber auch wenn diese Singularität eintreten sollte, haben Maschinen trotz allem kein Bewusstsein, keine Empfindungen. Sie haben nur die Wünsche oder Ziele, die wir ihnen geben.
Weltherrschaft gehört nicht zum Code einer KI
Es wird nicht so sein, dass AlphaGo morgen erwacht und beschließt, lieber ein bisschen Geld beim Poker zu gewinnen, weil der Mensch sowieso nicht gut Go spielen kann. Und ganz bestimmt wird es nicht erwachen und beschließen, die Welt zu übernehmen. Das ist nicht in seinem Code. Das einzige, was AlphaGo jemals tun wird, ist, eine Zahl maximieren – und zwar die Bewertung der Wahrscheinlichkeit, dass es die aktuelle Go-Partie gewinnen wird. Es weiß ja noch nicht einmal, dass es Go spielt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Wir müssen also keine Angst haben, dass Maschinen demnächst die Herrschaft an sich reißen. Aber wir sollten uns Gedanken darüber machen, wie sehr sogar eine dumme KI unser Leben beeinträchtigen kann. Sie wird zu noch mehr Ungleichheit führen. Viele Menschen werden ihre Arbeit verlieren. Der politische Dialog wird vergiftet. Selbst mit dummer KI kann das Militär noch grausamere Kriege führen.
Elon, zerbrechen Sie sich nicht mehr Kopf über einen Dritten Weltkrieg. Denken Sie lieber darüber nach, was selbstfahrende Teslas für die Existenzgrundlage von Taxifahrern bedeuten.
Übrigens stehe ich mit meiner Meinung nicht alleine. Eine kürzlich unter 50 Nobelpreisträgern durchgeführte Umfrage ergab, dass Klima, Bevölkerungswachstum, Atomkrieg, Krankheiten, Selbstsucht, Ignoranz, Terrorismus, Fundamentalismus und Trump als Bedrohung für die Menschheit noch vor der KI rangieren.
* Toby Walsh ist Professor für Künstliche Intelligenz an der University of New South Wales in Sydney, Gastprofessor an der TU Berlin und Verfasser von „Android Dreams: The Past, Present and Future of AI“ (https://www.cse.unsw.edu.au/~tw/)