Systemtest Gaming
Impulse für die Entwickler autonomer Systeme
Design eines Roboterarms:
- Lege Armlängen und Motorstärken fest, so dass die Bewegungsgeschwindigkeit, Traglast und Haltbarkeit maximiert bzw. die Kosten und der Energieverbrauch minimiert werden.
- Entwickle Gelenksteuerung, so dass der Roboterarm von A nach B fährt, ohne dabei mit sich oder der Umwelt zu kollidieren.
- Entwickle KI, die die Umwelt erfasst und Pick &Place Aufgaben eigenständig erkennt und priorisiert und dabei nicht mit Menschen im Arbeitsbereich kollidiert.

Früh Fehler identifizieren:
Simulationen helfen, Fehler und Verbesserungsmöglichkeiten früh und mit geringem Aufwand zu finden. Im Beispiel etwa, die geeigneten Armlängen des Roboterarms herauszufinden, und sicherzustellen, dass bei der Trajektorienplanung keine Kollisionen vorprogrammiert sind.
Das spart Kosten, denn je später Fehler gefunden werden, desto teurer werden sie
Risken minimieren
- In Simulationen können Steuerungen, Hardware-Designkonzepte und sogar komplette autonome Systeme ungefährlich erprobt werden. Durch parallele Simulationen, die schneller als Echtzeit stattfinden, können viele Betriebsstunden durchsimuliert werden, während in der Realität nur wenig Zeit vergeht. So hat das System schon viele Jahre virtuelle Betriebsstunden hinter sich, wenn es das erste Mal in Betrieb geht. Gerade bei autonomen Systemen wegen ihres komplexen Verhaltens sehr wichtig.
Erste Designphase /„Virtual Prototyping“
- Hier werden viele Varianten betrachtet und simuliert, um teilweise automatisiert die besten System-Designs zu identifizieren (Evaluation Framework).
- Hat man sich für eine oder mehrere Varianten entschieden, kann der Kunde (z.B. in Virtueller Realität) den Prototypen, oder auch Varianten davon, betrachten – optional in der späteren Umwelt (z.B. Fabrik des Kunden) oder auch interaktiv (z.B. Mensch-Maschine-Kooperation).
Virtuelle Inbetriebnahme/ „Virtual Commissioning“
- Entwicklung und Test der Steuerung am Simulationsmodell.
Training und Test von Künstlicher Intelligenz (KI) am Simulationsmodell
- In der virtuellen Welt können auch Szenarien erprobt werden, die in der realen Welt nur selten auftreten (zum Beispiel spezielle Lichtverhältnisse, Kommunikationsfehler, Ausfall von Sensoren, sowie Testfälle, die zu teuer oder gefährlich sind, als sie in der Realität durchzuführen (z.B. Bedienfehler, Kollisionen).
Operator Training
- Ungefährliche Interaktion mit virtuellem System in virtueller Umwelt, um zu lernen, wie sich das System verhält und wie man es richtig bedient.
- Beispiel Roboterarm: Mensch kann erst am Simulationsmodell trainieren, wie er sicher und effizient mit ihm zusammenarbeiten kann.
- Beispiel Simit-Unity-Kopplung: Maschinenführer können am Simulationsmodel ohne Risiko üben, eine Maschine freizufahren (sie von Hindernissen wegzufahren) und wieder in den Normalbetrieb zurückzuführen.
Zykluszeiten reduzieren:
- Während man früher den gesamten Entwicklungszyklus durchlaufen musste, und die Hardware in der Realität testen musste, um zu prüfen, ob Gesamtsysteme funktionieren, ist dies durch digitale Zwillinge und Systemsimulationen in einem Bruchteil der Zeit möglich.
Realbetrieb
- Die Simulationsmodelle können auch während des realen Betriebs weiter genutzt werden. Zwei Beispiele:
- Navigation: In einem CAD-Modells der Umgebung kann definiert werden, in welchen Bereichen sich ein / autonomes System bewegen darf und wo wichtige Wegpunkte sind. Dieses Modell kann dann während des Betriebs wie eine Landkarte zur Positionsbestimmung und zur Navigation verwendet werden.
- Teleoperation: Ein (menschlicher) Operator, der nicht vor Ort ist und ein Robotik-System fernsteuert oder überwacht, muss verstehen, wo sich das System im Raum befindet und welche Bewegungen es dort gerade ausführt. Mit einem 3D-Modell der Umgebung und des Robotik-Systems kann für Operatoren ohne weitere Kamera-Sensorik ein übersichtliches 3-dimensionales Bild der Situation erstellt werden.
Asynchron arbeiten
- Früher hat man die Steuerung an der realen Maschine programmiert. Durch virtuelle Inbetriebnahme entwickelt man die Steuerung am Simulationsmodell, während die Maschinen-Hardware oft noch gar nicht existiert. Das gleiche ist auch für KI möglich: Training am Digitalen Zwilling statt an realen Messdaten.
Wie soll man komplexe Systeme, die immer autonomer werden, frühzeitig testen, selbst wenn sie noch gar nicht gebaut sind? - Zum Beispiel indem man den digitalen Zwilling in einer virtuellen Welt testet. Die wahren Experten für virtuelle Welten arbeiten für die Spielindustrie. Grund genug für eine ungeahnte Zusammenarbeit.
Die Welt durch eine VR-Brille betrachtet, ist oft erstaunlich real. „Das Aussehen der Umgebung ist dabei gar nicht mal das Wichtigste“, betont Martin Bischoff aus der Forschungs- und Entwicklungsabteilung von Siemens. „Viel wichtiger ist, dass die virtuellen Welten sich wie reale Welten verhalten. Zum Beispiel, dass auch dort die physikalischen Gesetze wie Gravitation oder Fliehkraft gelten. Mit speziellen Entwicklungsumgebungen, die hauptsächlich für die Entwicklung von Computerspielen verwendet werden, lassen sich schnell virtuelle Welten schaffen, die so realitätsnah sind, dass sie nicht nur Menschen mit VR-Brille begeistern. Sie eignen sich auch hervorragend als Testumgebung, zum Beispiel für autonome Systeme, freifahrende Roboter oder Greifarme in der Produktion.
Zugang zu virtuellen Welten
Kompatibilität wird dabei zur Herausforderung, denn wie bei einem realen System müssen auch die Komponenten eines digitalen Zwillings zu einem (virtuellen) Gesamtsystem integriert werden. Autonome Systeme bestehen aus verschiedenen Komponenten, für die jeweils unterschiedliche Fachexperten zuständig sind – der technische Zeichner für die Konstruktionszeichnungen der mechanischen Komponenten, der Anwendungsentwickler für konventionelle Steuerungen und der KI-Experte für autonome Funktionen. Typischerweise verwenden sie dafür jeweils unterschiedliche Entwicklungsumgebungen, die meist nicht miteinander kompatibel sind. Hier setzt die Arbeit von Bischoff und seinen Kolleg*innen an. Sie entwickelten die Software ROS#, mit der Robotik-Systeme die eine ROS-Schnittstelle besitzen, direkt in eine virtuelle 3D-Welt integriert werden können. „Wir haben in den letzten Jahren viele positive Erfahrungen mit Unity gemacht und festgestellt, dass sich die Entwicklungsumgebung aufgrund ihrer flexiblen Anpassbarkeit und Erweiterbarkeit besonders gut für Systemsimulationen eignet”, sagt Bischoff. „Mit ROS# haben wir seit 2017 die Simulations- und Kommunikationsschnittstellen zwischen Unity und ROS federführend gestaltet.”
Gute Zusammenarbeit mit Unity
Auf der offenen Entwicklungsplattform github.com kann jeder weltweit die Software kostenlos herunterladen, und vor allem auch selbst Verbesserungsvorschläge, Erweiterungen oder Anwendungsbeispiele hinterlassen, sowohl in Form von Diskussionsbeiträgen, als auch durch fertig entwickelten Programmcode. „Durch unsere Initiative hat sich eine große, stetig wachsende Community organisiert, durch deren Anregungen und Verbesserungen wir selbst viel dazugelernt haben. Unsere Software wurde ausführlich getestet und wir haben von Anwendungsmöglichkeiten erfahren, an die wir ursprünglich nicht gedacht hatten. Im November 2020 hat Unity selbst einen Robotics Hub gegründet, der zu einem großen Teil auch auf unseren Entwicklungen basiert. Mit dem Robotics-Team von Unity hat sich inzwischen eine gute Zusammenarbeit etabliert: Wir tauschen uns regelmäßig aus und profitieren nun auch von den Open-Source Entwicklungen auf Unity’s Robotics Hub”, berichtet Bischoff.
„Parallel dazu arbeiten wir auch an Unity-Schnittstellen für unsere firmeninternen Formate, insbesondere auch der SIMIT-Unity Kopplung, die es ermöglicht, 3D-Simulationen in Unity mit der Software SIMIT zu koppeln, was besonders für virtuelle Inbetriebnahme und die Entwicklung und Validierung von Anwenderprogrammen von großer Bedeutung ist. Die neue Schnittstellen zu Unity macht Siemens Software offener, ermöglichen uns, in kurzer Zeit neue Anwendungen zu realisieren und macht unsere Produkte für viele Kunden noch interessanter."
Aenne Barnard, Februar 2021