Wie KI als intellektueller Leistungsverstärker die Fähigkeiten des Menschen erweitert
Anbieter zum Thema
Der Mensch verfügt über Erfahrung und handelt intuitiv. KI kann auf der Grundlage großer Datenmengen Handlungsvorschläge liefern oder für den Menschen unmögliche Aufgaben übernehmen.

Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) zählt zu den wichtigsten Forschungszentren für KI weltweit mit mehr als eintausend Mitarbeitern aus mehr als 65 Nationen. Sie arbeiten zurzeit in rund 250 Forschungsprojekten, nahezu jeder Lebens- und Arbeitsbereich ist Gegenstand der Innovationsforschung.
Die Wechselwirkung zwischen den Ergebnissen aus Wissenschaft und Forschung und der Praxiserfahrung von Herstellern von KI-Lösungen führt zu konkreten Anwendungen für den realen Einsatz, zum Beispiel in der Automatisierung, Energie, Pharmazie und im Gesundheitswesen.
Gesundheitswesen: Mit KI schneller im Wettlauf gegen die Zeit
KI kann beispielsweise in der Patientenbehandlung Zeitvorteile bei Prävention, Diagnose und Therapie ermöglichen. Die Heilungschancen steigen mit dem Grad der Befundung wie sie zum Beispiel Röntgenbilder, CTA, MRT oder Ultraschall liefern können. Zur Ergänzung der Diagnosen des medizinischen Personals sind KI-Anwendungen notwendig, um die riesige Datenmengen in kurzer Zeit zu strukturieren und zu analysieren. Sie können Ergebnisse für die Beurteilung durch Ärzte in Sekunden liefern. KI-Systeme können dazu Daten aus Quellen wie bildgebende Verfahren, der Genomik und Proteomik verknüpfen und die Prävention sowie Therapie wesentlich unterstützen. Die Schnelligkeit unter Einhaltung einer Null-Fehlerquote ist bei epidemischen und metastasierenden Erkrankungen entscheidend für Diagnose, Therapie und Gesundung des Patienten.
Energiewirtschaft: Predictive Maintenance für punktgenaue Wartung
Die von KI unterstützte Produktion und Energieversorgung ermöglicht reibungslose Prozesse und die frühzeitige Abwehr von Störungen durch präventive Diagnosesysteme. KI-basierte Predictive-Maintenance-Strategien für Energieversorgung und Industrieautomation optimieren die Instandhaltung von Anlagen, erlauben die Fernsteuerung in Echtzeit und passen Wartungspläne den realen Gegebenheiten an. Machine und Deep Learning helfen durch Planungsalgorithmen, Abweichungen früh zu erkennen und Anomalien wie Unwuchten, Fluchtungsfehler oder Risse im Material von Turbinen und Kompressoren anzuzeigen. Dank der Datenanalyse der KI-Systeme werden Dysfunktionalitäten bereits in der Entstehung erkannt, noch bevor sie sich negativ auswirken. Sie tragen zur Vermeidung von Produktionsausfällen und potenziellen Gefahren in punkto Sicherheit von Systemen, Betrieb, Versorgung und Umwelt bei.
Skalierbare Rechenleistung für ML, DL, Inferencing
Damit KI-Lösungen, die auf Deep Learning, Machine Learning und Inferencing aufsetzen und ihre Rolle als systemkritische Anwendungen in jeder Branche erfüllen können, sind leistungsstarke Hard- und Software-Komponenten unabdingbar. Die Systeme müssen große Datenmengen in kurzer Zeit analysieren. Die Rechenleistung, die für Parallel Processing notwendig ist, steuern Multicore-CPUs, Video Processing Units (VPUs), Graphics Processing Units (GPUs) oder Field Programmable Gate Arrays (FPGAs) bei, die neuronale Netze mit Rechenleistungen im Bereich von Tera-Operations pro Sekunde berechnen.
Das von dem IIoT Software Framework SUSiEtec unterstützte Intel OpenVino Video Processing API ermöglicht hierzu, einmal erstellte neuronale Netzwerk-Modelle zu skalieren und wahlweise auf Intel Multicore CPUs, GPUs, VPUs und FPGAs auszuführen, und somit exponentielle Leistungssteigerungen zu ermöglichen. Bestehende trainierte neurale Netzwerk-Modelle können mit geringem Aufwand auch auf Intel OpenVino konvertiert werden. Neben Intel- und NXP-basierenden Plattformen für das Inferencing setzt Kontron seit Juli 2019 als NVIDIA Preferred Partner auch NVIDIA-GPUs für das Deep Learning (Training) ein.
NVIDIA-GPUs sind Teil des aktuell leistungsfähigsten Kontron Rackmount-Server KISS V3 4U SKX-AI. Der skalierbare Server ist mit zwei starken Prozessoren der Intel-Xeon-SP-Serie ausgestattet, die mit zwölf DIMM-DDR4-2666-Modulen und bis zu 768 GB RAM mit ECC-Unterstützung erweitert werden können. Bis zu drei doppeltbreite Highend-GPU-Karten NVIDIA TESLA V100 sorgen für eine extrem hohe GPU-Leistung. GPUs führen genau die Matrix-Mathematik durch, die neben dem Rendern auch für das Simulieren künstlicher Neuronen notwendig ist. Die NVIDIA-GPUs unterstützen dabei die Intel-Xeon-Prozessoren bei dem Trainieren neuronaler Netze. Für die Softwareentwicklung können Anwender das leistungsstarke CUDA-Toolkit von NVIDIA nutzen.
KI-Entwicklung mit oder ohne Cloud
Der konkrete Anwendungsfall entscheidet darüber, ob KI-Lösungen und -Prozesse zum Teil oder in Gänze in die Cloud verlagert werden. Das IIoT-Software-Framework SUSiEtec von Kontron Technologies, vormals S&T Technologies, einem Schwesterunternehmen von Kontron innerhalb der S&T Gruppe, hat dabei eine zentrale Bedeutung. Es ermöglicht, die jeweilige IoT-Architektur hybrid und skalierbar zu realisieren. SUSiEtec ist für den Einsatz mit Kontron-Hardware optimiert, lässt sich aber nahtlos mit Produkten von Drittanbietern einsetzen und in die vorhandene Infrastruktur der Kunden integrieren. SUSiEtec ist ein herstellerunabhängiges Software- und Dienstleistungsangebot, das alle Puzzleteile einer Cloud-Lösung zusammenfügt und zu einem anwenderspezifischen Gesamtpaket verbindet.
In bestimmten Szenarien ist es nicht funktional, KI-Lösungen in die Public Cloud zu verlagern. Wenn die Reaktionszeiten bei Millisekunden liegen müssen, sind Latenzzeiten und Bandbreitenbeschränkungen der Cloud nicht akzeptabel. Dann sind leistungsstarke Edge Computer oder eine Embedded Cloud, wie sie sich mit dem High Performance Server KISS 4U V3 SKX am Netzwerkrand aufbauen lässt, notwendig. In diesem Fall hat SUSiEtec die Aufgabe, Daten lokal vorzuverarbeiten, zu filtern und danach in die Cloud weiterzuleiten.
Lösungen für Machine und Deep Learning
Rechenpower, ob lokal oder aus der Cloud bezogen, ist bei Machine und Deep Learning immer notwendig. Meist vorgefertigte neuronale Netze werden dabei für automatisierte Erkennungsfunktionen trainiert. Der komplette Prozess für Deep Learning besteht aus vier Phasen:
- Samples sammeln,
- Trainingsphase,
- gelerntes Netz transformieren,
- Integration des trainierten Netzes in ein Produkt.
Bei KI-Anwendungen, die in kurzer Zeit oder gar in Echtzeit Ergebnisse liefern müssen, wird ein Edge-Computer benötigt, der im Netzwerk eng an die Applikation angebunden ist. Für das Training von neuronalen Netzwerken ist es oft sinnvoll, die großen Serverkapazitäten in der Cloud zu nutzen. Es gibt aber auch viele Fälle, in denen das Trainingsmaterial lokal verbleiben muss und ein Edge Trainingsserver genutzt wird.
Ein Beispiel ist Visual Inspection. Dabei werden Aufnahmen einer Kamera, die entweder über USB oder via Netzwerk angeschlossen ist, direkt auf dem Edge Device von einem trainierten neuronalen Netz im Inference-Prozess analysiert und ausgewertet. Neben Visual Inspection sind auch KI-Anwendungen in der Texterkennung und -Wiedergabe sowie der Audio- und Verhaltensmuster-Erkennung möglich. Über die Audioerkennung lassen sich etwa ungewöhnliche Vibrationen identifizieren, die auf ein fehlerhaftes Maschinenteil hindeuten. So könnten zum Beispiel Achsen von Zügen im Vorbeifahren geprüft werden. Firewalls in IT-Netzwerken können lernen, was einem normalen Verhalten im Netzwerk entspricht und bei ungewöhnlichen Aktivitäten Alarm schlagen und erste Schutz- und Abwehrmaßnahmen einleiten.
Ausblick und Aufgaben der KI
Welche Aufgaben die KI haben wird, resümiert Prof. Dr. Andreas Dengel, Standortleiter des DFKI in Kaiserslautern: „Der Mensch verfügt über Erfahrung und handelt mit Intuition. KI kann auf der Grundlage großer Datenmengen Handlungsvorschläge liefern oder für den Menschen unmögliche Aufgaben übernehmen. Die große Chance dieser Symbiose für die Arbeit besteht darin, dass KI als intellektueller Leistungsverstärker agiert und so die Fähigkeiten des Menschen ergänzt und erweitert. Dabei ist es wichtig, die Entscheidungswege transparent und nachvollziehbar zu gestalten und dafür auch internationale Standards zu definieren.“ (Quelle)
Diesen Beitrag lesen Sie auch in der Fachzeitschrift ELEKTRONIKPRAXIS Ausgabe 10/2020 (Download PDF)
:quality(80)/images.vogel.de/vogelonline/bdb/1581600/1581695/original.jpg)
Wie Edge Computer Anwendungen für KI massentauglich machen
:quality(80)/images.vogel.de/vogelonline/bdb/1653500/1653590/original.jpg)
MCU, MPU oder FPGA: Was ist das Beste für KI an der Edge?
* Stefan Eberhardt ... verantwortet das Business Development für Artificial Intelligence bei Kontron Technologies, einem Unternehmen der S&T AG.
Artikelfiles und Artikellinks
Link: Mehr bei Kontron
(ID:46498740)