Das erste von zwei gemeinsam mit der IHK Region Stuttgart geplanten Webinaren zum Projekt ?SensAR¡° am Mittwoch, den 24.03.2021, behandelte die Themenbereiche Objekterkennung und Visualisierung. Insgesamt erl?uterten 10 Professor*innen und Mitarbeiter*innen den aktuellen Stand der entwickelten Tools und standen Rede und Antwort f¨¹r die anwenderbezogenen Fragen und Vorschl?ge.

Das Projekt SensAR wird von der Carl-Zeiss-Stiftung mit 750.000 € in der Programmlinie Transfer gef?rdert. Der Austausch mit Anwendern und Transfer der Ergebnisse hat daher in diesem Vorhaben eine sehr gro?e Bedeutung. Geplant und gehofft hatte man auf eine Pr?senzveranstaltung, in der die Labore, die Messkammern und AR-Anwendungen interessierten KMU live vorgef¨¹hrt werden k?nnen. Nach der H?lfte der Projektlaufzeit gibt es durchaus schon viel zu zeigen!

Nun musste das Format auf ein online-Webinar angepasst werden. Dem Zuspruch seitens der KMU tat dies keinen Abbruch: 30 Anmeldungen zeigten das Interesse und den Bedarf an Augmented Reality-L?sungen im Bereich der Produktion f¨¹r KMU.

Prof. Dr.-Ing. Volker Coors Projektleiter SensAR
Wir m?chten einen leichten Zugang f¨¹r KMU zum Technologiefeld Augmented Reality erm?glichen.

Zu Beginn des einst¨¹ndigen Webinars erl?uterte Prof. Volker Coors als Gesamtprojektleiter die Idee hinter dem Projekt SensAR. Die Abk¨¹rzung steht f¨¹r ?Vermittlung von orts- und kontextbezogenen sensorischen Daten mittels Augmented Reality¡°. Der Ansatz konzentriert sich auf generalisierbare Abl?ufe, die in vielen Unternehmen vorkommen, ohne in spezifische Produktionsabl?ufe einzudringen. Ziel ist es, eine Entlastung durch automatisierte Erfassung und digitalisierte Assistenzsysteme zu erreichen. Kleineren und mittleren Unternehmen soll so ein leichterer Zugang zum Technologiefeld Augmented Reality erm?glicht werden.

Der Technologiemarkt hat sich gerade in den Bereichen Funksensoren, Kommunikationstechnologien und Sensornetzwerke stark entwickelt und auch im Internet der Dinge (IoT) und Industrie 4.0 ist dieser Trend zu beobachten. Es fehlt bisher jedoch ein ganzheitlicher Ansatz, der Forschungsbereiche wie die dynamische Objekterkennung, Ortung, Sensorik und Standards, UI sowie Datenschutz und -sicherheit vereint. In diesem ersten von zwei Webinaren wurden in zwei Workshops die Objekterkennung und User-Interface-Visualisierung mit den Teilnehmer*innen diskutiert. Nach einem kurzen Pitch in der kompletten Runde konnte jede*r selbst entscheiden, an welchem der beiden Breakout-Workshops teilgenommen wurde ¨C die Wahl fiel dabei erfreulich ausgeglichen aus.

Prof. Dr.-Ing. Eberhard G¨¹lch
Beispielanwendungen an echten Systemen und Objekten zeigen am besten, was bereits alles m?glich ist.

Anhand von Beispielanwendungen wurden die bisherigen Arbeiten zur Objekterkennung in der ersten Breakout-Session vorgestellt. Auf reges Interesse stie? die genaue Erfassung von Objekten in Werkshallen, wie zum Beispiel den fast ¨¹berall vorkommenden Ladungstr?gern. Hinter dieser einfach klingenden Aufgabe verbirgt sich ein hochgenaues terrestrisches Laserscanning, das eine 3-dimensionalen Punktwolke erzeugt. Diese wird mittels KI-Anwendung durch ein neuronales Netz semantisch segmentiert ¨C es wird also jedem Punkt ein Label zugeordnet. Innerhalb dieser semantisch segmentierten Punktwolken erfolgt dann die Objekterkennung und eine genaue Positionierung kann ermittelt und dargestellt werden. In einem zweiten Ansatz wird nicht ein Laserscanning als Datenursprung verwendet, sondern Photogrammmetrie, also Bildaufnahmen aus denen ebenfalls Punktwolken automatisiert ermittelt werden k?nnen, um mobile Objekte wie Ladungstr?ger zu erkennen.

Semantisch segmentierte Bereiche in Bildern k?nnen genutzt werden, um Objekte aber auch Messwerte mit lokalem Bezug in AR-Anwendungen zu visualisieren. Dies wurde anhand einer RFID-Messkammer und einem Smartphone im Videomodus demonstriert.

In der zweiten Breakout-Session wurde anhand der HFT-eigenen RFID-Messkammer demonstriert, welche AR-Anwendungen im Projekt SensAR erarbeitet wurden. ?ber Filme wurden die Teilnehmer*innen mit in die Labore genommen und dabei erl?utert, welche Dateneinblendungen ¨¹ber mobile Android-Ger?te oder auch der HoloLens2 bisher umgesetzt wurden. Hierbei wurde auch die Indoor-Navigation mit in den Anwendungsfall einbezogen. Hierbei stand explizit immer auch die Frage des Mehrwerts f¨¹r die Nutzer*innen im Vordergrund: Wieviel Inhalt sollte dargestellt werden, ist die Visualisierung intuitiv, wie gut ist die Interaktion mit den virtuellen und realen Objekten?

Die Teilnehmer*innen brachten sich mit ihren Ideen und Anregungen aktiv ein. Die bisherigen Anwendungsbeispiele konnten so um neue erg?nzt werden, so dass die bisher angedachten noch st?rker auf die tats?chlichen Bedarfe ausgerichtet werden k?nnen.

Wir sind gespannt auf den zweiten Workshop am 14. April, in dem dann die Themenbereiche Sensorik, Lokalisation und Datensicherheit vorgestellt werden.

Ver?ffentlichungsdatum: 25. M?rz 2021
Von Anja Ernst (anja.ernst@hft-stuttgart.de)