OpTC

Optimization and Toolchain for Embedding AI


Methoden der Künstlichen Intelligenz (KI) haben in den letzten Jahren einen rasanten Weg von der Forschung bis zur produktiven Anwendung genommen. Typische KI-Modelle (z. B. tiefe neuronale Netze) haben einen hohen Speicherbedarf und Rechenaufwand sowohl beim Training als auch bei der Vorhersage im Betrieb. Dem stehen die typischerweise begrenzten Ressourcen eingebetteter Steuerungen in automobilen oder industriellen Anwendungen gegenüber. Um diesen Einschränkungen gerecht zu werden, müssen KI-Modelle auf verschiedenen Ebenen angepasst werden, damit sie für eine bestimmte eingebettete Ziel-Hardware geeignet sind, beispielsweise durch Architektur- und Merkmalsauswahl, Ausdünnung (engl. Pruning) und andere Komprimierungstechniken. Derzeit wird die Anpassung eines Modells an die Zielhardware durch iterative, manuelle Änderungen nach dem „Trial-and-Error“-Prinzip erreicht: Das Modell wird entworfen, trainiert und unter Anwendung verschiedener Optimierungstechniken für die Ziel-Hardware übersetzt. Anschließend wird die Einhaltung der Hardware-Beschränkungen überprüft, und der Zyklus wird gegebenenfalls wiederholt. Dieser Ansatz ist zeitaufwendig und fehleranfällig.

Daher zielt dieses vom Schaeffler Hub for Advanced Research an der Friedrich-Alexander-Universität Erlangen-Nürnberg (SHARE at FAU) geförderte Projekt darauf ab, Richtlinien für die Hardware-Auswahl und eine systematische Werkzeugkette für die Optimierung und Einbettung von KI zu erstellen, um den derzeitigen Aufwand für die Portierung von maschinellen Lernmodellen auf automobile und industrielle Geräte zu reduzieren.

Publikationen