Künstliche Intelligenz: Ist der Scheitelpunkt der Hype-Kurve bald erreicht?

Autor / Redakteur: Karin Johanna Quack / Nico Litzel

Wie jede fortgeschrittene Technik ist die Künstliche Intelligenz (KI) für Außenstehende schwer durchschaubarbar. Aber deswegen ist sie noch kein Hexenwerk – und auch keine eierlegende Wollmilchsau. Selbstlernende Systeme können die Genauigkeit von Analysen und Vorhersagen enorm steigern, haben aber durchaus ihre Grenzen. Zu diesem Fazit kam eine Expertenrunde, zu der Teradata anlässlich der TDWI-Konferenz in München eingeladen hatte.

Anbieter zum Thema

Welche Chancen bietet die Künstliche Intelligenz? Wo liegen ihre Grenzen? Darüber diskutierten Experten auf der TDWI.
Welche Chancen bietet die Künstliche Intelligenz? Wo liegen ihre Grenzen? Darüber diskutierten Experten auf der TDWI.
(Bild: © klss777 - stock.adobe.com)

Was ist Intelligenz? Darüber streiten sich die Gelehrten seit Jahrhunderten. Sicher existiert sie unabhängig von Bildung, von Gefühlen und von Bewusstsein. Aber gibt es andererseits eine rein rationale, vorhersehbare und damit nicht im eigentlichen Sinn kreative Intelligenz? Auf solche Fragen weiß die Wissenschaft keine Antwort.

„Wir haben keine mathematische Theorie für die Intelligenz“, konstatiert der Hirnforscher und Data-Science-Experte Danko Nicolić, Professor an der Universität Zagreb, Mitarbeiter am Max-Planck-Institut für Hirnforschung und anderen wissenschaftlichen Instituten sowie Berater und Data Scientist bei Teradata.

Bildergalerie
Bildergalerie mit 5 Bildern

Good old-fashioned Artificial Intelligence

Die Künstliche Intelligenz, wie wir sie kennen, lief bislang in zwei Phasen ab: In der ersten, die ihre erste Blütezeit am Ende des vergangenen Jahrhunderts erlebte, wurden die Regeln für die „intelligente“ Verarbeitung der Daten direkt in den Computer programmiert. Nicolić nutzt dafür den Begriff „GOFAI“ (Good old-fashioned Artificial Intelligence).

In der zweiten Phase, die erst vor wenigen Jahren publik wurde, bekommt der Computer nur einige Grundregeln mit – und dazu die Möglichkeit, eine große Zahl von Mustern zu vergleichen und daraus eigene Schlüsse zu ziehen. „Allerdings gibt es keine reinen selbstlernenden Systeme“, stellt der Wissenschaftler klar. Es gehe immer nur darum, selbstlernende Systeme mit GOFAI zu kombinieren.

Gesucht: Small Data – Big Applicability

Das Manko der selbstlernenden Systeme ist, dass sie ungeheure Datenmengen brauchen, um überhaupt etwas lernen zu können. Damit sind sie für bestimmte Aufgaben unbrauchbar. Wenn zum Beispiel eine Predictive Maintenance nur dann möglich ist, wenn der zu vermeidende „Fall eines Falls“ bereits viele Male eingetreten ist, führt sich das Prinzip ad absurdum.

Hinzu komme, dass Deep Learning schlecht skaliere, ergänzt Nicolić. Um nur etwas bessere Resultate zu erhalten, benötige man signifikant mehr Daten, was das Bemühen um Verbesserungen über kurz oder lang unwirtschaftlich mache. Es gebe viele Bereiche, auf denen „intelligente“ Maschinen den Menschen definitiv überlegen seien, zum Beispiel bei der Erkennung von Karzinomen auf MRT-Bildern. Anderswo sei das umgekehrt: „Ein Kind braucht nur ein einziges Auto, um das Prinzip zu erkennen.“

„Wir haben heute meist Big Data und Small Applicability“, resümiert Nicolić: „Aber wir brauchen das Gegenteil. Wir brauchen eine Small Data AI.“ Tatsächlich gilt die Suche nach einer Methode, mit der sich aus kleinen Datenmengen selbstlernende Systeme erzeugen lassen, als Megatrend im Analytics-Bereich. Wie das konkret aussehen soll, ist noch Betriebsgeheimnis. Es heißt aber, dass Google hier sehr aktiv sei.

Deep Learning ist ein „Ähnlichkeitserkenner“

Mit der konkreten Umsetzung der AI im Unternehmen beschäftigt sich Dieter Jakob, bei Teradata als Solution Architect für die Themen Künstliche Intelligenz und Internet of Things tätig. Künstliche Intelligenz diene den Unternehmen dazu, in jeder Situation möglichst schnell die richtige Entscheidung zu treffen, sagt er, also die Entscheidungsfindung quasi zu automatisieren. Eine Klassifikation der KI-Werkzeuge nach dieser Maßgabe fand der Lösungsarchitekt im BITKOM-Leitfaden „Künstliche Intelligenz verstehen als Automation des Entscheidens“ [PDF].

Wie Jakob betont, basieren die Neuronalen Netze, die neben den Daten die Basis der selbstlernenden Systeme bilden, auf bloßer Ähnlichkeitserkennung. Deep Learning sei de facto außerstande, zu abstrahieren und Erkenntnisse auf einen anderen Kontext zu übertragen. Soviel zum Thema: KI verdrängt die menschliche Intelligenz!

Drei Arten von KI-Projekten

Unternehmen, die in das Thema Deep Learning einsteigen wollen, sollten das mit hoher Frustrationstoleranz tun, rät Jakob: „Innovation bedeutet Risiko. Sie müssen unbedingt eine Exit-Strategie definieren: Wann gehen Sie raus und wie gehen Sie raus?“ Auch beim Deployment folge ein Innovationsprojekt anderen Regeln als ein gewöhnliches IT-Vorhaben.

Laut Frank Säuberlich, Director Data Science & Data Innovation bei der Teradata Deutschland GmbH, muss jedes KI-Projekt mit einer Business-Fragestellung beginnen. Jedenfalls handhabt er das so mit seinen Kunden. Aus Sicht des Analytics- und KI-Experten gibt es drei verschiedene Arten von Projekten, die das Etikett „Künstliche Intelligenz“ tragen:

  • Da sind zum einen klassische Analytics-Projekte aus Anwendungsbereichen wie Predictive Maintenance oder Churn Prediction, die kürzlich quasi ein Rebranding erfahren haben. Die Vorhersagemodelle sind dank verbesserter Technik deutlich präziser geworden, auch wenn sich die Algorithmen nicht so stark verändert haben.
  • Dann gibt es Mischformen, die auf bestehenden Anwendungen basieren, aber durch neue Daten, zum Beispiel aus Bild- oder Audiodaten, sowie Deep-Learning-Algorithmen einen Qualitätssprung gemacht haben.
  • Wirklich neue Anwendungen wie Chatbots, selbstfahrende Autos, Sprach- und Geschichtserkennung sind bislang eher selten.

Doch egal, für welche Form sich der Kunde entscheidet: „Wir raten ihm, nicht nur einen Business-Zweck zu verfolgen, sondern den anvisierten Wert auch frühzeitig zu quantifizieren“, verrät Säuberlich. Es gelte, darüber nachzudenken, was das Projekt am Ende für die Anwender bedeute: „Wie will das Unternehmen mit den Ergebnissen umgehen? Das ist die entscheidende Frage. Hier zeigt sich, ob es für den Einsatz überhaupt bereit ist.“

Renaissance der Datenmodellierung

An dieser Stelle stieg auch Chief Operating Officer Oliver Ratzesberger in die Diskussion ein. Die Verantwortlichen müssen sich seiner Ansicht nach ernsthaft fragen:

  • Wollen wir die Antworten auf diese Fragen wirklich wissen?
  • Was werden wir anders machen, wenn wir sie wissen?
  • Und welche Daten fehlen uns eigentlich noch, um aussagekräftige Antworten zu bekommen?

In den vergangenen Jahren habe niemand mehr etwas von Datenmodellierung und Governance hören wollen, erinnert sich Ratzesberger: „Alles sollte agil und spontan sein.“ Aber jetzt erlebe die Branche gerade so etwas wie eine Renaissance der Datenmodellierung. Artificial Intelligence benötige definitiv hochwertige Daten und konsistente Modelle, die auch im nächsten Jahr noch Bestand hätten. In die Unternehmensdaten müsse also wieder mehr Struktur hineinkommen.

Der KI mangelt es an Intuition

Dass dieser Kampf auf globaler Ebene längst verloren ist, machte abschließend Christoph Holz deutlich: „Wir sammeln mehr Daten als wir übertragen können, wir übertragen mehr, als wir speichern können, wir speichern mehr, als wir verarbeiten können. Man könnte also sagen: Unser relatives Weltwissen sinkt ständig.“ So der Hochschullehrer, Autor und Berater auf unterschiedlichen Gebieten der fortgeschrittenen Technik.

Aber das müsse keineswegs das Ende der Welt bedeuten, stellte Holz klar. Und was die Angst der Menschen vor der Künstlichen Intelligenz angehe, so sei die doch bislang zumindest irrational: KI-Systeme könnten Vieles, aber eines nicht, nämlich typisch menschliche Leistungen wie das Erkennen von Verhaltensmustern oder gar Intuition imitieren.

(ID:45389725)