Sensoren zeichnen menschliche Bewegungen auf, die live auf einen Avatar übertragen werden. Auf Basis dieser Daten werden Bausteine für Bewegungssimulationen erzeugt.
Prof. Matin Manns und sein Team wollen manuelle Montageabläufe in der virtuellen Realität optimieren. Zehntelsekunden können entscheidend sein.
Die Montage ist für produzierende Unternehmen ein entscheidender Faktor – wie in der Automobilindustrie: Wird ein Auto zusammengebaut, muss jeder Arbeitsschritt sitzen. Nur wenn alle Abläufe reibungslos funktionieren und optimal aufeinander abgestimmt sind, kann das Unternehmen im internationalen Wettbewerb bestehen. „Die Montage ist oft bis auf die Zehntelsekunde getaktet. Deshalb ist die Planung der Abläufe nicht nur wichtig, sondern auch immens aufwendig“, sagt Prof. Dr. Ing. Martin Manns. Er leitet an der Universität Siegen den Lehrstuhl für Fertigungsautomatisierung und Montage (FAMS). Gemeinsam mit seinem Team möchte er dazu beitragen, die Produktionsplanung zu verbessern.
In dem Forschungsprojekt MOSIM entwickeln die Siegener Wissenschaftler dazu zusammen mit internationalen Kolleginnen und Kollegen Bewegungsbausteine für menschliche Avatare. Mit den Avataren können manuelle Montageabläufe künftig in der virtuellen Realität getestet und optimiert werden – und das schnell und kostengünstig. 22 Partner aus verschiedenen Ländern sind an MOSIM beteiligt, insgesamt stehen knapp zehn Millionen Euro zur Verfügung. „Unsere Aufgabe ist es, die Anforderungen an die Bewegungen und die Simulationswerkzeuge zu erfassen und die Erzeugung und Nutzung simulierter Bewegungen zu vereinfachen“, sagt Manns.
So realitätsnah wie möglich
Ziel des Gesamtprojekts sei es, einen Baukasten an menschlichen Bewegungen zu erzeugen – jede davon so flüssig und realitätsnah wie möglich. Greifen, Hinlangen oder Festschrauben sind konkrete Beispiele für Tätigkeiten, die die Avatare ausführen sollen. Jede wird mit einem eigenen Bewegungsprofil hinterlegt. Wie Legosteine lassen sich die Bewegungsmodule später zusammensetzen. Es entstehen komplexe Simulationen menschlicher Arbeitsabläufe, die mit geringem Aufwand erstellt werden können. Planerinnen und Planer können mithilfe dieses Bewegungs-Baukastens und der Avatare neue Montage-Abläufe testen, bevor sie in die Realität umgesetzt werden. Die neue Technik soll helfen, Fehler zu vermeiden, Konsequenzen besser abzuschätzen und – wenn nötig – frühzeitig nachzujustieren. So lassen sich in der Fabrikhalle Zeit und Geld einsparen. Wichtig ist jedoch, dass sich die virtuellen Charaktere in der Simulation flüssig und ohne Aussetzer bewegen – und dass sie in der Lage sind, auch feinste Bewegungen auszuführen.
„Für Maschinen oder Roboter gibt es entsprechende Simulationen schon. Für den menschlichen Bereich ist der Aufwand bisher zu hoch“, sagt Manns. Um das zu ändern, kombiniert MOSIM Verfahren aus der Spieleindustrie mit denen der Produktionsforschung. „3-D-Computerspiele verfügen bereits über Technologien, um menschliche Bewegungen zu simulieren. Davon können wir viel lernen. Allerdings besteht die Gefahr, dass unsere Avatare gerade nicht echt genug wirken – wir möchten ja keine Zombies kreieren“, betont Martin Manns.
Fußgängersimulationen möglich
Nicht nur für die Produktionsplanung in Unternehmen können die neuartigen Avatare eingesetzt werden. Sie eignen sich auch für Fußgängersimulationen, beispielsweise wenn es um virtuelle Tests mit autonom fahrenden Autos geht: Wie funktionieren Brems- und Lenkassistenten? Mit realen Fußgängern können solche Tests nicht durchgeführt werden, weil sie viel zu gefährlich wären. „Entscheidend ist auch hier, dass sich die Avatare genauso bewegen wie echte Menschen“, sagt Manns. Im Rahmen des Projekts möchten er und seine Kolleginnen und Kollegen Demonstratoren für die verschiedenen Anwendungsbereiche entwickeln. „Es handelt sich um ein ehrgeiziges Projekt, das die genannten Bereiche massiv beeinflussen kann.“
Quelle:
https://www.wp.de/staedte/siegerland/uni-siegen-virtueller-baukasten-menschlicher-bewegungen-id216620547.html
https://idw-online.de/de/news711626