Das HUD blendet Informationen zu Fahrzeug und Verkehr, Warnhinweise oder Navigationsangaben auf der Windschutzscheibe ein. Indem wichtige Informationen unmittelbar im Sichtfeld des Fahrers erscheinen, leistet es einen großen Beitrag zu mehr Sicherheit und Komfort. In Verbindung mit Augmented Reality (AR) wird dieser Effekt beim AR HUD verstärkt: Durch virtuelle Hinweise direkt in der Fahrsituation vor dem Fahrzeug entsteht eine augmentierte Realität – Hinweise und aktuelles Geschehen im realen Umfeld verschmelzen zu einem Gesamtbild. Die vorausschauenden und präzisen Anzeigen ermöglichen ein schnelleres Erfassen der Situation. Darüber hinaus trägt das AR HUD wesentlich dazu bei, dass Reaktionen von FAS – beispielsweise ein Korrigieren der Spur durch den Active Lane Assist – verständlich vermittelt werden, sodass diese keine Unsicherheit beim Fahrer verursachen. So schafft das AR HUD Vertrauen in FAS und legt damit bereits heute den Grundstein für die künftig für autonomes Fahren benötigte Akzeptanz. Denn der Erfolg dieser Technologie setzt auch die Akzeptanz der Verbraucher voraus, die Stand heute in Deutschland noch unter 50 Prozent liegt [1]. Nachdem der rechtliche Rahmen für autonomes Fahren in Deutschland ab 2022 gelegt wurde [2], ist diese Zukunftsvision jedoch ein weiteres Stück in greifbare Nähe gerückt. Damit das AR HUD seiner wegweisenden Rolle gerecht werden kann, muss seine einwandfreie Funktion abgesichert werden. Die ASAP Gruppe, deren Leistungsspektrum für das (AR) HUD die vollumfängliche Entwicklung umfasst, übernimmt für ihre Kunden die Absicherung und bringt dabei szenariobasiertes Testing und Keyword-Driven Testing zur Anwendung.
Neue Herausforderungen durch Hochperformance-Steuergeräte
Die neuen Ansätze zur Absicherung sind unter anderem notwendig, da künftige Fahrzeugarchitekturen bei vielen OEMs auf zentrale Hochperformance-Steuergeräte aufbauen werden. Dies macht neue Arbeitsweisen und -prozesse erforderlich: Waren bisher die Funktionen auf vielen Steuergeräten in einem Fahrzeug verteilt, sind in kommenden Fahrzeuggenerationen nur noch drei bis fünf zentralisierte Performance-Steuergeräte für Logik und Funktion verantwortlich. Sie werden jeweils kombiniert mit einfacheren Steuergeräten für Regelung und Ansteuerung der Komponenten – erste Modelle mit diesem zentralisierten Ansatz sind bereits in Serienproduktion. Am Beispiel AR HUD bedeutet das, dass der Großteil der Logik des vormaligen HUD-Steuergerätes in einem Softwarebaustein (AR Creator) abgebildet wird, der wiederum Teil eines Hochperformance-Steuergerätes ist. Das AR HUD Steuergerät selbst beinhaltet lediglich noch Grundfunktionalitäten, wie das Anzeigen des Video-Streams, der vom AR Creator erzeugt wird. Entwicklung und Absicherung verändern sich dadurch grundlegend: Da das Hochperformance-Steuergerät neben dem AR Creator auch für Logik und Funktion zahlreichreicher weiterer Komponenten zuständig ist, gilt es weitaus mehr Schnittstellen und etwa das zehn- bis zwölffache an hinterlegtem Quellcode zu berücksichtigen. Viele Abhängigkeiten zwischen den einzelnen Funktionen machen ein Gesamtverständnis der Zusammenhänge, das weit über das Wissen zur Komponente im eigenen Zuständigkeitsbereich hinausgeht, erforderlich und sorgen für erhöhten Abstimmungsaufwand. War die Absicherung der Entwicklung früher nachgelagert, so wird nun mit dem Einsatz zentraler Hochperformance-Steuergeräte entwicklungsbegleitend getestet. Dadurch werden mögliche Fehler zwar schon früher in der Entwicklung erkannt, gleichwohl gestaltet sich die Absicherung schwieriger. Das Testing erfolgt bei dem iterativen Entwicklungsmodell immer am Ende jedes Sprints, wobei eine dynamische Anpassung der zu testenden Features erfolgt. Folge für die Absicherung: Sie muss deutlich schneller und flexibler werden. Zusätzlich stellt die Komplexität der Funktion des AR HUDs selbst die Absicherung vor ganz neue Herausforderungen, weshalb ASAP hierbei neue Wege geht.
Sensordatenfusion und Extrapolation für Anzeigen in Echtzeit
Da die virtuellen Hinweise direkt auf die reale Umwelt vor dem Fahrzeug projiziert werden sollen, muss die Anzeige in Echtzeit erfolgen. Demnach müssen statt der vormals beim HUD eingesetzten simplen Signal-Logik beim AR HUD eine Sensordatenfusion sowie eine Extrapolation aller Daten erfolgen. Denn alle Eingangsdaten, die auch für ADAS-Funktionen relevant sind – der Input der gesamten Sensorik und Kameras im Fahrzeug – sind auch entscheidend für die AR HUD Anzeige. Ein Beispiel: Die Adaptive Cruise Control (ACC) sorgt für ein automatisches Abbremsen des Fahrzeugs sobald eine entsprechende Fahrsituation, beispielsweise ein langsamer vorausfahrendes Fahrzeug, dies notwendig macht. Das AR HUD muss in diesem Fall den Bremsvorgang als virtuellen Hinweis in der realen Fahrsituation mit dem vorausfahrenden Fahrzeug deutlich und für den Fahrer eindeutig verständlich anzeigen. Die Informationsdichte an Eingangssignalen für das AR HUD ist dementsprechend sehr hoch. Eine vollständige Spezifizierung zur Absicherung ist deshalb nicht möglich, da es unendlich viele Situationen gibt, in denen statische und dynamische Objekte erkannt werden und durch Sensordatenfusion ein schlüssiges Gesamtbild ergeben müssen. Eine Auswahl an variablen Parametern, die trotzdem zu einer fehlerfreien Erkennung von beispielsweise einer Person führen und dann einen durch den AR Creator darauf abgestimmten virtuellen Hinweis für den Fahrer auslösen müssen: Größe und Gehgeschwindigkeit der Person, Winkel zwischen Person und Auto, Lichtverhältnisse, Wetter, Straßenbelag sowie Objekte wie Bäume und Schilder. All diese Parameter in sämtlichen Kombinationen zu evaluieren ist schlicht unmöglich. Als weitere Herausforderung für die Absicherung kommt die Extrapolation aller Daten hinzu. Für sinnvolle AR HUD Anzeigen mit Mehrwert für den Fahrer müssen diese in Echtzeit erfolgen. Aufgrund der Signallaufzeiten von Kameras und Sensorik müssen die Daten also vorausberechnet werden, sodass das AR HUD eine Prädiktion treffen kann. Fährt man beispielsweise in eine Kurve und das System erkennt in einigen Metern mit Versatz vor dem eigenen Fahrzeug ein weiteres Auto, so muss der AR Creator den weiteren Streckenverlauf entsprechend vorausberechnen und die Anzeige virtueller Hinweise hierauf abstimmen. Aufgrund der komplexen Funktion des AR HUDs reichen reale Fahrversuche oder auch klassische Testing-Ansätze für eine zeit- und kosteneffiziente Absicherung nicht aus.
Überprüfung dynamischer Abläufe durch szenariobasiertes Testing
Die ASAP Gruppe hat deshalb szenariobasiertes Testing, das seinen Ursprung im ADAS-Bereich hat, für den Einsatz in der AR HUD Absicherung adaptiert. Unter Berücksichtigung des PEGASUS-Projekts sorgt ASAP dadurch für eine effektive und effiziente Testdurchführung bei gleichzeitiger Beachtung des Risikoaspekts: Das von OEMs und zahlreichen weiteren Partnern aus Wirtschaft und Wissenschaft betriebene Forschungsprojekt PEGASUS hat sich zum Ziel gesetzt, „generell akzeptierte Gütekriterien, Werkzeuge und Methoden sowie Szenarien und Situationen zur Freigabe hochautomatisierter Fahrfunktionen“ [3] zu etablieren und das autonome Fahren so schneller zu realisieren. Die Adaption des szenariobasierten Testings für die AR HUD Absicherung hat ASAP an die Forschungsergebnisse des PEGASUS-Projekts angelehnt – und so die Komplexität in der Absicherung, die aus der nahezu unendlichen Anzahl an möglichen Testfällen resultiert, verringert. Anders als beim anforderungsbasierten Testen, das ASAP parallel für statische, punktuelle Überprüfungen nutzt, lassen sich mit szenariobasiertem Testing auch dynamische Abläufe überprüfen – beispielsweise Geschwindigkeitswechsel oder verschiedenste Verkehrssituationen (z.B. Ausfahrt Kreisverkehr) mit variablem Umfeld (Verkehrsteilnehmer) und unterschiedlichsten Umweltbedingungen (Regen, Schnee, Nebel etc.). Die für das Testdesign zuständigen Experten bei ASAP übernehmen hierfür sowohl die Spezifizierung der benötigten Szenarien als auch Testfälle. Dabei legen sie bei der Szenarien-Spezifizierung zunächst alle statischen und dynamischen Objekte fest, die Teil eines Szenarios, wie beispielsweise einem Überholvorgang in der Stadt, sein sollen. Die Beschreibung umfasst dabei detaillierte Informationen über sämtliche Umfelddaten, also auch die Parameterräume der definierten Objekte. Hierzu zählen beispielsweise alle möglichen Abstände und Geschwindigkeiten eines vorausfahrenden Fahrzeugs. Es wird also beschrieben, wie ein Szenario grundsätzlich ablaufen soll. Bei der Spezifizierung von Testfällen liegt das Abstraktionsniveau hingegen deutlich niedriger – hier werden Testläufe mit konkreten Werten aller am Testfall beteiligten Objekte so festgeschrieben, dass damit anschließend beispielsweise der als Szenario beschriebene Überholvorgang korrekt ausgeführt werden kann. Mit den so definierten Fahrszenarien sowie Testabläufen inklusive den erwarteten Ergebnissen (Testfälle) übernimmt ASAP dann die Absicherung der Datenübertragung vom AR Creator bis zur Anzeige durch das AR HUD Steuergerät. Diese für den Infotainment-Bereich neue Art der Absicherung bietet zahlreiche Vorteile: So macht das szenariobasierte Testing eine zeit- und kosteneffiziente Absicherung des AR HUDs überhaupt erst möglich – denn für die bei klassischen Testing-Methoden eingesetzte Restbussimulation müssten die eingehenden Signale und Werte manuell vorgeben werden. Aufgrund der unzähligen Parameter in sämtlichen Kombinationen lässt sich eine manuell erstellte Restbussimulation im Falle des AR HUDs jedoch in einem zeitlich angemessenen Rahmen nicht realisieren. Ein weiterer großer Vorteil ist, dass auch die für das AR HUD notwendige, jedoch schwierig zu überprüfende, korrekte Extrapolation der Daten hiermit abgesichert werden kann: Grenzfälle von Wertebereichen beziehungsweise Erwartungswerte in den Testfällen lassen sich exakt vorgeben. Dadurch können beispielsweise die Vorausberechnung einer Kurve sowie die hierzu passende Darstellung eines virtuellen Hinweises durch den AR Creator hinsichtlich der geforderten exakten Übereinstimmung überprüft werden.
Keyword-Driven Testing zur automatisierten Erstellung von Testfällen
Während das szenariobasierte Testing also für eine erhebliche Erleichterung bei der Testdurchführung sorgt, ergibt sich durch die große Anzahl an unterschiedlichen Szenarien wiederum eine erhöhte Komplexität für die Testautomation. Mehrere tausend Testfälle gilt es durch Testautomatisierung so abzubilden, dass sie gänzlich automatisiert ablaufen können. Hierfür müssen zunächst die Testfall- und Fahrszenarien-Beschreibungen jeweils automatisiert in den entsprechenden Tools implementiert werden. Zudem ist es Aufgabe der Testautomatisierung, die gesamte Toolchain – etwa 12 verschiedene Tools sind neben dem AR HUD Steuergerät sowie dem Hochperformance-Steuergerät, das den AR Creator umfasst, bei der AR HUD Absicherung im Einsatz – zusammenzuführen und dafür zu sorgen, dass alle Tools automatisch und unterbrechungsfrei ineinandergreifen. So werden durch die Testautomatisierung beispielsweise zu Beginn eines Testlaufs alle beteiligten Tools automatisch gestartet oder auch ein Tool zum automatisierten Abgleich von Ist- und Soll-Bild der Anzeige zum richtigen Zeitpunkt angesteuert. Für eine schnellere Implementierung der Testfälle und um den Aufwand in der Testautomation zu reduzieren, kombiniert ASAP für die AR HUD Absicherung das szenariobasierte Testing mit dem Einsatz von Keyword-Driven Testing: Bei dieser nach ISO 29119-5 zertifizierten Form der Testfallbeschreibung werden einzelne Testschritte sowohl menschen- als auch maschinenlesbar in einer Datenbank hinterlegt. Für jeden definierten Testschritt – die sogenannten Keywords – schreibt ASAP deshalb zunächst ein entsprechendes Skript, sodass dieser automatisiert ausgeführt werden kann. Unter einem Testschritt versteht man beispielsweise den Befehl, ein bestimmtes Tool anzusteuern. Alle final definierten Keywords (Testschritte) sind universell einsetzbar und lassen sich in der Datenbank parametrieren – soll beispielsweise beim ACC Feature eine vom AR HUD dargestellte Linie eine bestimmte Farbe haben, kann dies hinterlegt werden. Somit entstehen wiederverwendbare Testschritte, die nur noch mit unterschiedlichen Eingabewerten parametriert werden müssen. Das Einlesen der Testschritte zur Erstellung eines Testfalls erfolgt schließlich automatisiert. Das Ergebnis: Eine Teilautomatisierung der Testautomatisierung, die bei der enormen Anzahl an benötigten Testfällen für die AR HUD Absicherung eine große Zeitersparnis darstellt. Ein weiterer Vorteil des Keyword-Driven Testings liegt darin, dass bei Änderungen lediglich einmal zentral in der Datenbank das entsprechende Keyword angepasst werden muss und die Änderungen anschließend automatisch in allen Testfällen übernommen werden. Weitere große Vorteile ergeben sich zudem dadurch, dass alle Testschritte sowohl menschen- als auch maschinenlesbar in der Datenbank hinterlegt sind: Zum einen lassen sich so reale Testfahrten durch die dabei dokumentierten Daten reproduzieren und damit beliebig oft virtuell wiederholen bis das erwünschte Ergebnis bei der Absicherung festgestellt wird beziehungsweise der Szenarioverlauf hinsichtlich konstanter Qualität überprüft wurde. Zum anderen lassen sich virtuelle Testläufe dadurch auch bei realen Testfahrten überprüfen, da ein Testfall nicht nur als Skript, sondern auch menschenlesbar für den Testfahrer verfügbar ist. Mit seinem neuen Ansatz – einer Kombination aus szenariobasiertem und Keyword-Driven Testing – sorgt ASAP demnach für einen reduzierten Aufwand bei der Testvorbereitung wie auch -durchführung und so schlussendlich für eine zeit- und kostensparende sowie umfassende Absicherung des AR HUDs. Für eine weitere Optimierung entwickelt ASAP aktuell einen entsprechenden Prüfstand. Durch einen modularen Aufbau sind alle Schnittstellen einfach zugänglich und Hardware-Stände und -Muster lassen sich unkompliziert austauschen. Künftig werden alle Testläufe hiermit noch effizienter umgesetzt und das AR HUD kann nach Fahrfreigabe gezielt den Weg weisen in die Zukunft des autonomen Fahrens.
Literaturverzeichnis
[1] Automatisiertes Fahren: Deutsche Autofahrer sind skeptisch:
https://www.next-mobility.de/automatisiertes-fahren-deutsche-autofahrer-sind-skeptisch-a-1047782/?cmp=nl-393&uuid=
[2] Gesetz zum autonomen Fahren tritt in Kraft:
https://www.bmvi.de/SharedDocs/DE/Artikel/DG/gesetz-zum-autonomen-fahren.html
[3] Forschungsprojekt PEGASUS. Automatisiertes Fahren effektiv absichern:
https://www.pegasusprojekt.de/de/about-PEGASUS