Foto: unsplash.com
Kontinuierliche Zusammenarbeit: L3S und Infineon Technologies
Hardwareplattformen für Fahrerassistenzsysteme
Mehr Komfort und Sicherheit im Straßenverkehr – das ist das Ziel von Fahrerassistenzsystemen. Gegenwärtig haben derartige Systeme hauptsächlich eine unterstützende Funktion, etwa als Abstands- oder Spurhalteassistenten (partielle Automatisierung). Systeme der nächsten Generationen (bedingte bis volle Automatisierung) sollen jedoch die eigentliche Kontrolle des Fahrzeugs übernehmen. Zahlreiche Sensoren müssen ausgewertet werden (Ultraschall, Laser, Radar, Kameras). Um das Fahrzeug sicher durch den Verkehr zu steuern, muss das Steuerungssystem anhand dieser Sensordaten die Verkehrssituation und deren Teilnehmer, also andere Fahrzeuge, Fußgänger, aber auch Fahrbahnmarkierungen und Verkehrszeichen, zuverlässig erkennen und korrekt interpretieren.
Convolutional Neural Networks (CNNs) sind für die Bilderkennung bestens geeignet. Diese Algorithmen aus dem Bereich der künstlichen Intelligenz erreichen bei bestimmten Aufgaben sogar bessere Erkennungsraten als der Mensch. Allerdings wird die gute Qualität der Ergebnisse mit einem sehr hohen Rechenaufwand erkauft. Moderne CNNs, wie z.B. GoogLeNet, benötigen Milliarden von Operationen pro Eingabebild. Um die Erkennungsrate weiter zu steigern, geht der Trend zu immer leistungsfähigeren Netzen. Die hohe Parallelität der Netzstruktur kann genutzt werden, um eine Echtzeitverarbeitung zu ermöglichen (das Ergebnis muss in maximal 30 ms berechnet werden, wenn ein Bild pro halben Meter bei 60 km/h verarbeitet werden soll): Das Netz wird in viele kleine Teilaufgaben aufgeteilt, die oft unabhängig voneinander berechnet werden können. Dies ermöglicht eine parallele und schnellere Ausführung auf mehreren Recheneinheiten. Insbesondere moderne Grafikprozessoren (GPUs) sind für CNNs in den Fokus gerückt, da hier zahlreiche Rechenkerne zur Verfügung stehen. Aufgrund ihres hohen Energiebedarfs sind solche Lösungen jedoch nicht für den Einsatz in Fahrzeugen geeignet. Mobile GPUs, wie sie zum Beispiel in Mobiltelefonen eingesetzt werden, sind energieeffizienter, aber auch weniger leistungsfähig. Dedizierte Lösungen, sogenannte KI-Beschleuniger, wie sie Intel mit dem Movidius Neural Compute Stick anbietet, sind zwar für Algorithmen der künstlichen Intelligenz optimiert, zeigen aber Schwächen bei Algorithmen aus anderen Bereichen und damit nur eine begrenzte Flexibilität.
Im Projekt CHORUS forschen Prof. Dr.-Ing. Guillermo Payá Vayá und sein Team zusammen mit der Firma Dream Chip Technologies aus Garbsen an einer effektiven und gleichzeitig flexiblen Lösung: Sie entwickeln eine neue, massiv parallele und programmierbare Prozessorarchitektur, die konzeptionell einer GPU ähnelt, da viele Recheneinheiten Teile der eigentlichen Aufgabe parallel verarbeiten können. Zusätzlich untersuchen die Wissenschaftler das vertikale Vektorkonzept zur parallelen Datenverarbeitung. Es bietet bei einer kleineren Hardware eine enorm flexible Verarbeitung von Bilddaten, die in GPUs erst durch weitere Operationen erkauft werden müsste. Mit zusätzlichen intelligenten Speichersystemen und einer für die Zieltechnologie optimierten Architektur soll damit eine schnelle, energieeffiziente und flexible Plattform für die Bildverarbeitung im Automotive-Bereich entstehen.
Kontakt
Prof. Dr.-Ing. Guillermo Payá Vayá
L3S-Mitglied Guillermo Payá vayá ist Juniorprofessor am Institut für Mikroelektronische Systeme. Seine Forschungstätigkeit umfasst ultrastromsparende Prozessoren sowie Architekturen für das Hochleistungsrechnen.