Fortschritte in Block I: Automotive

Im ersten Block, der am 04.11.2019 begann, haben sich die Studierenden intensiv mit den Technologien des Automotive Software Engineering beschäftigen. Technischer Leiter ist Julkar Nine, M.Sc..

Aufgaben innerhalb des BLOCK I:

  1.  Fußgängererkennung mittels des Haar Cascade Classifiers

  2.  Spurerkennung und Krümmungsabschätzung mittels Image Processing

  3.  Verkehrsschildekennung  mittels Deep Learning Techniques

  4.  Faktenerzeugung aus sensorischen Daten mittels PiCan 2 Module

  5.  Faktenerzeugung aus bildverarbeitenden Algorithmen

Alles in allen stehen die Aufgaben des Projektes im engen Bezug zueinander und arbeiten auf das große Thema „situation awareness“ hin, indem die Fähigkeit Entscheidungen zu treffen durch die Wahrnehmung und Aufnahme von Informationen aus der Umgebung begünstigt werden soll. Auf der Basis der wahrgenommenen Informationen aus den Aufgaben 1-4 konnten lesbare Informationen erstellt werden, auf deren Grundlage wiederum Entscheidungen initiiert wurden (siehe Aufgabe 4).

Die Bearbeitung der Aufgaben eins bis drei beinhaltete den Umgang mit verschiedenen Techniken der Bildverarbeitung, des maschinellen und des deep learnings. Der Zweck der Bearbeitung der Aufgaben lag hierbei bei der Erzeugung von Informationen, die aus der äußeren Umgebung wahrgenommen werden konnten. Die Zielarchitekturen der Aufgaben waren die Raspberry Pi 3b+ Modelle, wobei diese bereits im Vorführobjekt „CE-Box“ von Computeringenieuren der TU Chemnitz verarbeitet wurden.

Durch die Bearbeitung der ersten Aufgabe gelang es den Studenten, einen genaueren und besseren Algorithmus zur Fußgängererkennung zu entwickeln, als das Programm OpenCV bereitstellen konnte. Auch die Studenten, welche sich mit der Aufgabe 2 beschäftigten, konnten ebenfalls Erfolge erzielen. Sie programmierten einen Algorithmus, welcher das Krümmungsmaß der Straße nach links oder rechts abschätzen kann, indem er die Neigung der Spur anpasst. Bei der dritten Aufgabe nutzte man RCNN Methoden um Verkehrsschilder wahrzunehmen und zu erkennen (16 Stück) und dabei auf eine hohe Genauigkeit abzuzielen, weshalb dieses Ergebnis noch weiterer Optimierung bedarf.

Nach Fertigstellung und Erprobung der Algorithmen, wurden die Ergebnisse an die Studenten, welche sich mit der fünften Aufgabe befassten, weitergegeben.

Die vierte Aufgabe befasste sich ebenfalls mit Wahrnehmungen, jedoch bezog man sich hierbei auf interne Informationen des Fahrzeugs. Daher wurde sich als Ziel gesetzt, sensorisch synthetische Daten zu erzeugen und die wahrgenommenen Informationen an die Studenten der nächste Aufgabe weiterzusenden. Als Modulsensoren zur Bereitstellung synthetische Daten wie etwa die Geschwindigkeit, der Motorbrennstoff, etc. diente eine GUI (Graphical User Interface). Die Studenten kreierten solch eine GUI, an welche die synthetischen Sensoren dem jeweiligen Zweck entsprechend hinzugefügt oder entfernt werden konnten. Die Daten wurden anschließend an die Gruppe der Aufgabe fünf via CAN messages weitergeleitet, welche daraus die entsprechenden Fakten generierte und diese wieder an die Gruppe vier zurücksendete. Hierbei schloss sich nun der stetig rotierende Kreislauf, indem die sensorisch synthetischen Werte basierend auf zuvor festgelegten Regeln verändert worden.