KI und ML bieten völlig neue Möglichkeiten für die Lösung von Problemen

Interview mit Markus Levy, Director AI and Machine Learning Technologies, NXP Semiconductors

„Mittel- und langfristig möchten wir in viele unserer Komponenten in einem gewissen Grad eine Engine für die KI-Beschleunigung integrieren. Wir untersuchen sogar die Integration kostengünstiger, spezieller Hardware-Blöcke in die Low-End-MCUs“, so Markus Levy

 

Frage: Sind „KI“ und „Machine Learning“ Buzzwords oder ist der Hype um KI/ML real?

Markus Levy: Sicherlich gibt es einen Hype um die Buzzwords KI und/oder ML, aber diese Konzepte sind realer als der Hype um das IoT vor fünf Jahren. Das soll nicht heißen, dass das IoT keine Bedeutung hat; schließlich hat es zur Entwicklung so vieler interessanter neuer Anwendungsbereiche geführt. Das IoT stellt jedoch mehr oder weniger eine Weiterentwicklung des Embedded-Konzepts dar. KI/ML hingegen stellen ein „Marktsegment“ dar, das einen völlig neuen Ansatz für die Lösung von Problemen bietet. Denken Sie daran, dass es bereits seit vielen Jahrzehnten einen Ansatz für das Machine Learning gibt, der auf neuralen Netzwerken und klassischen Algorithmen basiert. Vor den aktuellen Fortschritten, die im Bereich Machine-Learning-Frameworks erzielt wurden, wusste jedoch niemand, wie das Training fundierter neuraler Netzwerke in der Praxis aussehen könnte. Außerdem konnte keine gängige Hardware verwendet werden. Daher wurde Machine Learning vergleichsweise selten als Lösungsansatz in Betracht gezogen. Heute ist der Umfang der Forschung in diesem Bereich explosionsartig gewachsen. Gleichzeitig ist die Verfügbarkeit von Open-Source- und proprietären Optionen für das Trainieren, Optimieren und Bereitstellen von Machine-Learning-Modellen gestiegen. Heute investieren mehr Unternehmen Ressourcen und Geld in die KI/ML-Entwicklung, und das ist nur die Spitze des Eisbergs. Wie bei allen innovativen Technologien, bei denen Menschen Geld „wittern“, wird es auch hier Gewinner und Verlierer geben.


Frage: Wie wird sich Ihrer Meinung nach die KI in Standardtechnologien verbreiten?

Markus Levy: Zunächst sollte angemerkt werden, dass KI und ML zunächst soweit vereinfacht werden müssen, dass ein Python-Skript oder ein Pulldown-Modell genügen, um Modelle zu trainieren und Inferenz-Engines zu entwickeln und bereitzustellen. Entwickler sollten nicht mehr mit der Erstellung komplexer mathematischer Algorithmen belastet werden. Erst dann können KI und ML in allen oder vielen Anwendungsbereichen eingesetzt und zu einer Standardtechnologie werden. Die Programmierung für KI/ML wird häufig als Software 2.0 bezeichnet. Es geht nicht um die Verwendung herkömmlicher Programmiermethoden, sondern um die Nutzung vorhandener neuraler Netzwerke und Frameworks und klassischer ML-Bibliotheken. Daher liegt der Schwerpunkt eher auf der Ermittlung von Gewichtungen und Parametern (in der Regel als Trainingsmodelle bezeichnet).

Was die besonderen Vorteile der KI angeht, dann gilt grundsätzlich, dass in diesem Bereich Daten Gold sind. Anders ausgedrückt, sind KI und ML mehr oder weniger nutzlos, wenn der Anwendungsentwickler keine Daten sammeln und anschließend kategorisieren kann, um die Modelle zu trainieren. Wenn der Anwendungsentwickler das Modell trainieren kann, können die Vorteile der KI für eine große Zahl von Anwendungen in den Bereichen Bilderkennung, Spracherkennung und Entdeckung von Anomalien genutzt werden.


Frage: Wo steht NXP in Bezug auf eine führende Position im Bereich KI/ML?

Markus Levy: NXP wird als führend im Bereich KI betrachtet, da wir die KI-Anwendungen direkt aus der Software-Perspektive und ergänzend aus der Hardware-Perspektive betrachten. Anders ausgedrückt, müssen Sie zunächst ein skalierbares Portfolio von Hardware-Plattformen bereitstellen, die Entwicklern Optionen in Bezug auf Leistung und Preis bieten. Erst anschließend können Sie KI erfolgreich bereitstellen. Der Fähigkeit, einen ML-Algorithmus auf einer Low-End-MCU oder auf einem High-End-Anwendungsprozessor auszuführen, liegen die akzeptable Inferenzlatenz und der Arbeitsspeicherbedarf als Kriterien zugrunde. Software ist die zweite Komponente, die für eine KI-Bereitstellung benötigt wird. Hier hat sich NXP für einen Pfad entschieden, der eine Reihe von Open-Source-Optionen bereitstellt. Wir bezeichnen dies als die eIQ™-Umgebung für die Entwicklung von Machine-Learning-Software. Es ist mittlerweile offensichtlich, dass proprietäre Lösungen für die Machine-Learning-Bereitstellung nach wie vor tragfähige Ansätze bieten. Sie müssen jedoch mit den schnellen Fortschritten Schritt halten können, die zurzeit im Bereich Open Source stattfinden. Daher besteht unsere Mission darin, Open-Source-Optionen wie TensorFlow Lite, GLOW, Arm® NN und andere zu unterstützen und gerätespezifische Optimierungen wie erforderlich anzuwenden, um wettbewerbsfähigere Ergebnisse zu erzielen.


Frage: Welche Anwendungen werden in der NXP-Umgebung für die Unterstützung von KI/ML abgedeckt?

Markus Levy: Wie bereits erwähnt konzentrieren wir uns auf Bilderkennung, Spracherkennung und Anomalieentdeckung. Dies ist natürlich ein sehr breites Spektrum. Wenn Sie es aus einer übergeordneten Perspektive betrachten, befinden sich die meisten Anwendungen am Edge. Die Bilderkennung kann in Anwendungen wie Gesichtserkennung und Objektentdeckung unterteilt werden. Sie kann sich sogar mit dem Bereich der Anomalieentdeckung überschneiden. Die Spracherkennung umfasst die Schlüsselworterkennung für Anwendungen wie Alexa™ und eine natürliche Sprachverarbeitung in begrenzter Form (begrenzt aufgrund der Einschränkungen für die Arbeitsspeicherkapazität auf Edge-Geräten). Und die Anomalieentdeckung umfasst Anwendungen wie prädiktive Wartung und Überwachung über eine große Zahl verschiedener Sensoren, um normale und anormale Situationen zu entdecken.




Verwandter Artikel: 
AI-ML and Thor96 Single Board Computers: Specially Built for AI, IoT, Visual Display and More



Frage: Welche Features machen NXP-Chips so einzigartig geeignet für KI/ML-Anwendungen?

Markus Levy: Ein skalierbares Portfolio ist grundsätzlich gut für diese KI-Anwendungen geeignet. Letzten Endes geht es darum, wie viel Leistung (oder welche Inferenzzeit) erforderlich ist und wie viel Arbeitsspeicher verfügbar ist. Die Anwender möchten mehr Leistung und die neuesten ML-Beschleuniger. Am Ende entscheiden jedoch stets die Kosten. Daher stellen NXP-Produkte mit integrierten DSPs eine herausragende Wahl für Sprach- und Bilderkennungsanwendungen dar. Der integrierte DSP wird für die Schlüsselworterkennung verwendet und ermöglicht den Geräten, bis zur Erkennung des jeweiligen Schlüsselworts im Energiesparmodus zu bleiben. Am anderen Ende des Spektrums bietet NXP die i.MX 8- und Layerscape-Prozessoren mit integrierten GPUs, Multicore-CPU-Kernen und DSP-Beschleunigern an. Mit diesen Prozessoren können Anwendung heterogene Berechnungen und mehrere Machine-Learning-Algorithmen parallel ausführen. Geräte der nächsten Generation werden dedizierte Machine-Learning-Beschleuniger enthalten, was noch nie dagewesene Leistungsstufen ermöglichen wird.


Frage: Was ist unter der eIQ-Unterstützung für Machine Learning von NXP zu verstehen?

Markus Levy: Grundsätzlich ist eIQ eine Sammlung von Open-Source-Technologien für die Bereitstellung von Machine-Learning-Anwendungen. Zu diesen Technologien gehören Laufzeit-Engines wie TensorFlow und TensorFlow Lite, Netzwerk-Parser, dedizierte Inferenz-Engines wie Arm NN und die Unterstützung für Bibliotheken wie OpenCV. All diese Technologien sind aus Quellen wie Github verfügbar. NXP eIQ vereinfacht jedoch ihre Verwendung, stellt detaillierte Dokumentationen bereit und integriert sie in unsere Entwicklungsumgebungen (MCUXpresso für Mikrocontroller und Yocto/Linux® für i.MX-Anwendungsprozessoren).


Frage: Was ist als Nächstes für NXP-Hardware geplant, was die Unterstützung von KI/ML-Anwendungen betrifft?

Markus Levy: Die mittel- und langfristigen Ziele bestehen in der Integration einer Form von KI-Hardwarebeschleunigung in viele unserer Geräte und der Entwicklung spezialisierter Hardware-Blöcke für Lowest-End-MCUs.




In Kürze verfügbar – KI- und ML-basierte Einzelplatinenrechner mit NXP i.MX 8-Anwendungsprozessoren
AI-ML-Platine mit NXP i.MX 8X SoC und die Thor96-Platine mit NXP i.MX 8M SoC.
Nehmen Sie Kontakt mit Arrow auf, um Ihre Platinen zu reservieren.



PDF herunterladen

Ähnliche Beiträge

Neue Beiträge

Leider ergab Ihre Suche kein Ergebnis

Aktuelles über Elektronikkomponenten­

Wir haben unsere Datenschutzbestimmungen aktualisiert. Bitte nehmen Sie sich einen Moment Zeit, diese Änderungen zu überprüfen. Mit einem Klick auf "Ich stimme zu", stimmen Sie den Datenschutz- und Nutzungsbedingungen von Arrow Electronics zu.

Wir verwenden Cookies, um den Anwendernutzen zu vergrößern und unsere Webseite zu optimieren. Mehr über Cookies und wie man sie abschaltet finden Sie hier. Cookies und tracking Technologien können für Marketingzwecke verwendet werden.
Durch Klicken von „RICHTLINIEN AKZEPTIEREN“ stimmen Sie der Verwendung von Cookies auf Ihrem Endgerät und der Verwendung von tracking Technologien zu. Klicken Sie auf „MEHR INFORMATIONEN“ unten für mehr Informationen und Anleitungen wie man Cookies und tracking Technologien abschaltet. Das Akzeptieren von Cookies und tracking Technologien ist zwar freiwillig, das Blockieren kann aber eine korrekte Ausführung unserer Website verhindern, und bestimmte Werbung könnte für Sie weniger relevant sein.
Ihr Datenschutz ist uns wichtig. Lesen Sie mehr über unsere Datenschutzrichtlinien hier.