Synthetisch generierte Daten trainieren Künstliche Intelligenz

Autonomes Fahren: Maschinen lernen, zuverlässige Entscheidungen zu treffen

Dass Sensoren die Fahrzeugumgebung wahrnehmen, dient schon heute mehr und mehr dem sicheren Autofahren. Das oberste Ziel beim autonomen Fahren ist daher, die Fähigkeiten der Künstlichen Intelligenz derart zu optimieren, dass diese selbstständig richtige Entscheidungen treffen kann.

Autofahren ist kognitiv eine Herausforderung – vor allem in der Stadt. Je mehr Informationen aufgenommen, verarbeitet und aktiv umgesetzt werden müssen, umso anstrengender empfinden wir die Fahrt. Sollen technische Systeme diese anspruchsvolle Aufgabe übernehmen, wie beispielsweise beim autonomen Fahren, dann müssen sie sich an menschlichen Fähigkeiten orientieren, also Dinge in der Umgebung wahrnehmen und daraufhin selbstständig Lösungen und Strategien entwickeln. Um dies zu erreichen, greifen technische kognitive Systeme auf bestimmte Verfahren der Künstlichen Intelligenz (KI) zurück wie maschinelles Lernen, Neuronale Netze und Deep Learning. Vor allem, was die Sicherheit angeht, besteht die Mammutaufgabe darin, alle notwendigen Informationen aus der Umgebung in Echtzeit zu generieren, diese möglichst schnell zu verarbeiten, richtig einzuschätzen und darauf zu reagieren. Wir können daher davon ausgehen, dass wir teilweise selbstständig fahrende Autos zunächst in weniger komplizierten Verkehrssituationen sehen werden, beispielsweise auf Autobahnen.

 

Ereignisse wahrnehmen, verstehen und angepasst handeln

Eine der grundlegenden Voraussetzungen für autonomes Fahren in der Zukunft ist die maschinelle Wahrnehmung der Fahrzeugumgebung. Diese Aufgabe übernehmen Kameras und Sensoren, indem sie die Umgebung in Echtzeit scannen. Die daraus generierten Daten nutzt die Künstliche Intelligenz, um beispielsweise ein Objekt am Fahrbahnrand als parkendes Auto, als Fahrradfahrerin oder Fußgänger zu identifizieren und darauf aufbauend eine Entscheidung für eine Fahranweisung zu treffen.

Um aus umfangreichen Datenmengen die nötigen Muster und Objekte ableiten zu können, arbeitet man mit Deep Learning – ein Verfahren, das künstliche Neuronale Netze mit zahlreichen Zwischenschichten inmitten von Eingabe- und Ausgabeschicht nutzt, um umfangreiche innere Strukturen zu bilden bzw. zu verknüpfen. Je mehr Schichten entstehen, umso komplexere Sachverhalte lassen sich abbilden. Zudem erlauben Deep-Learning-Algorithmen Rückkopplungs- und Korrekturschleifen. Dadurch erhalten die Informationsverknüpfungen bestimmte Gewichtungen, welche das technische System in die Lage versetzen, seine Fähigkeiten selbstständig und ohne menschliche Unterstützung zu verbessern und Entscheidungen zu treffen.

 

Training im Vorfeld basiert auf modellbasierten Daten

Dabei lernt der Algorithmus aus jeder richtigen oder falschen Entscheidung – er muss also im Vorfeld trainiert werden. Um für diese Abläufe eine möglichst effiziente Lösung zum Trainieren der Künstlichen Intelligenz zu erreichen, führt das Fraunhofer IGD zwei Ansätze zusammen: Auf der einen Seite nutzen die Forscherinnen und Forscher selbst entwickelte Modelle mit synthetisch generierten Trainingsdaten direkt aus dem CAD-System oder modellbasierte Daten eines Simulators.

Auf der anderen Seite erfasst das Team die »Objekte« in einem erweiterten Maß, was nicht nur die Wiedergabe der Bildposition ermöglicht, sondern auch die Verortung in der Umgebung, also die Entfernung und die Blickrichtung des Objekts. Dies erlaubt es, z. B. Trajektorien der anderen Verkehrsteilnehmer abzuschätzen. Solche Bahnkurven nutzbar machen zu können, ist notwendig, wenn man die Pfade des autonom fahrenden Autos planen möchte.

 

Kurze Trainingszeiten durch modellbasierte Daten

Der Ansatz mit modellbasierten Daten als Input bietet dabei deutliche Vorteile im Vergleich zum Training mit realen Daten, die über Kameras beim Fahren auf Straßen generiert werden. Die für modellbasierte Daten benötigten Algorithmen lassen sich sehr viel schneller generieren, und die vielen unterschiedlichen zu trainierenden Szenen lassen sich ohne großen zeitlichen und finanziellen Aufwand verändern. Dieser Lösungsansatz befindet sich zwar derzeit noch in der Entwicklung, weist aber schon auf eine sehr effiziente Möglichkeit auf dem Weg zu einer autonomen Pfadplanung hin.

 

Einsatz neuartiger Sensorik

Sämtliche Lösungen werden auf einer neuartigen Sensorik erprobt und ertüchtigt, ähnlich einer neuromorphen Hardwareplattform. Hier nutzen die Forscherinnen und Forscher des IGD Informationen aus ereignisbasierten Bildverarbeitungssensoren der Firma Prophesee Metavision For Machines. Die sogenannten »Event«- Kameras dienen als bioinspirierte Alternative zu den gängigen Videosensoren, welche gerade für ressourcenlimitierte und mobile Plattformen beträchtliche Herausforderungen mit sich bringen, was Energiebedarf, Latenz, Dynamik und Bildfrequenz angeht.

 

Vorteile von ereignisbasiertem Sehen

Im Vergleich zu konventionellen bildbasierten Systemen arbeiten die Pixel bei ereignisbasierten Sensoren unabhängig voneinander. Ein Pixel aktiviert sich nur dann, wenn es eine Veränderung der Szene erkennt, beispielsweise eine Bewegung oder ein »Event«. Dadurch erzeugen diese Sensoren trotz einer 3D-Abbildung der Umgebung in Echtzeit im Durchschnitt bis zu tausendmal weniger Daten als herkömmliche bildbasierte Sensoren. Eventbasierte Sensoren verringern nicht nur die Anforderungen an die Datenverarbeitung, sondern verbessern zudem den sogenannten Dynamikbereich. Bei extremen Lichtverhältnissen werden also dank eines Intervalls größer 120 dB sowohl sehr helle als auch sehr dunkle »Objekte« erfasst – z. B. eine dunkel gekleidete Person im Gegenlicht von Scheinwerfern. Positiv sind darüber hinaus der niedrige Energiebedarf und die hohe Zeitauflösung der ereignisbasierten Sensoren. Aufgrund ihrer Pixelunabhängigkeit und Gesamtarchitektur wird mit nur 3 nW pro Ereignis und 26 mW auf Sensorebene ein neues Niveau der Energieeffizienz erreicht. Und die Zeitauflösung erreicht mehr als 10 000 Einzelbilder (Frames) pro Sekunde.

 

Automotive-Branche

Im gesamten Automotive-Sektor entwickeln wir visuell-interaktive Lösungen der nächsten Generation für alle Phasen des automobilen Produktlebenszyklus - vom Entwurfsprozess und Design Reviews über technische Simulation bis hin zur Qualitätskontrolle in der Produktion. Auf diese Weise verändern wir mit Ihnen die Mobilität der Zukunft.