Die Zukunft der Fertigung: Ein Fertigungsroboter, der Fremdsprachen spricht

Forscher von Siemens haben mit Hilfe künstlicher Intelligenz einen zweiarmigen Roboter entwickelt, der etwas montiert, ohne dafür programmiert worden zu sein. Völlig selbstständig teilen sich die Arme Aufgaben auf und arbeiten nahtlos zusammen – ein Blick in die Zukunft der automatisierten Fertigung.

 

Von Sandra Zistl

Es klickt leise, wenn die Hand das graue Teil in die Schiene klippt. Die Hand zieht sich zurück, greift ein weiteres Teil und reicht es der anderen Hand. Mit ruhigen, präzisen Bewegungen klippt auch diese solch ein graues Teil auf die Schiene. Drumherum stehen Menschen und sind fasziniert.

Denn die „Hände“ gehören zu zwei großen Roboterarmen. Was diese hier, in einem Forschungslabor der globalen Siemens-Forschung Corporate Technology (CT) in München-Perlach anhand des Montierens eines Teils eines Schaltschrankes demonstrieren, ist nichts Geringeres als eine ganz entscheidende Facette der Zukunft der Fertigung: Eine Zukunft, in der sich ganze Fabriken selbst steuern. 

Die Automatisierung der Fertigung von Losgröße eins

In der Massenproduktion ist dies zum Teil schon möglich: Das Vorzeigewerke von Siemens in Amberg etwa demonstriert dies bereits: Dort werden speicherprogrammierbare Steuerungen vom Typ Simatic hergestellt – bei einem Automatisierungsgrad von 75 Prozent und 99,99885 Prozent Qualität. Die Teile, die dort gefertigt werden, entstehen jedoch in großer Charge: Jährlich sind es zwölf Millionen Simatic-Steuerungen, die an über 60.000 Kunden in der Welt verschickt werden. Für hohe Stückzahlen ist die Zukunft hier also schon Realität.

 

Anders sieht es jedoch bei Herstellern aus, die in kleineren Mengen und – dem zunehmenden Individualisierungstrend von Produkten Rechnung tragend – viele verschiedene Produktvarianten produzieren. Hier, bei der sogenannten Losgröße eins, ist die klassische Automatisierung bisher nicht wirtschaftlich. Ein Team der Corporate Technology rund um Kai Wurm und Georg von Wichert, das zu Autonomen Systemen forscht, hat diese Hürde überwunden: „Mit unserem zweiarmigen smarten Prototypen zeigen wir, dass es möglich ist“, sagt Wurm. „Roboter müssen in Zukunft nicht mehr zeit- und kostenaufwändig mit mehreren Seiten füllendem Code programmiert werden, der ihnen einen festen Handlungsablauf für die Montage eines Teiles vorgibt. Wir spezifizieren nur noch die Aufgabe, und das System übersetzt diese Spezifikation automatisch in ein Programm.“ 

Roboter in Ausbildung

 „Wir sagen dem Roboter einfach: Montiere diese Komponente auf die Hutschiene“, erzählt Kai Wurm. „Und das tut er dann.“ Im Kleinen beschreibt diese Aufgabenstellung das, was hinter der Losgröße eins steckt: Ein Produkt muss in vielfachen unterschiedlichen Varianten produziert oder montiert werden, die sich in ihren Komponenten unterscheiden. Das Wissen um das Wie holt sich der Roboter aus dem Softwaremodell des Objekts, das er bauen soll. Dieses jedoch enthält eben keine für herkömmliche Roboter lesbaren Anweisungen, sondern den digitalen Zwilling des Produktes beschrieben durch CAD/CAM Daten (Computer Aided Design und Manufacturing). Der Prototyp kann sie verstehen und umsetzen. Er spricht, wenn man so will, Fremdsprachen – und die mühsame Programmierung der Bewegungen und Abläufe von Robotern fällt dadurch weg.

 

Der Prototyp zerlegt dafür Aufgaben aus dem Software-Bauplan wie „assemble“ – also die sehr allgemein gehaltene Aufforderung, etwas zusammenzubauen –  sukzessive in ausführbare Einheiten wie „pick“ (aufheben) und „hand over“ (übergeben) und schließlich das Bewegen des Armes oder das Öffnen der Greifer. Und er entscheidet selbst, welche der Tätigkeiten der rechte oder  linke Arm ausführt. Um dies leisten zu können, haben ihn die Entwickler dazu befähigt, Informationen aus der Produktentwicklungssoftware auf ein semantisches Niveau zu heben.

„Produktteile und Prozessinformationen werden semantisch umgewandelt in Ontologien und Knowledge Graphs“, sagt Wurm. „Dadurch werden implizite Informationen explizit: Was der Mensch schlicht durch Erfahrung weiß, wenn ihm gesagt wird, klippe Komponente X auf Schiene Y, muss dem Roboter bisher als Code eingeschrieben werden. Unser Prototyp berechnet sich die Problemstellung selbst und  findet eine Lösung dafür.“

 

Beim Prototyp-Demonstrator sieht man dies in plakativ vereinfachter Form  auf einem Monitor rechts der Roboterarme: Zwei Reihen farbiger Kacheln, auf denen je ein Wort wie „assemble“ (linke Spalte) oder „pick“ (rechte Spalte) steht, rutschen wie beim Durchscrollen einer langen Website allmählich nach oben. Sie illustrieren den Status Quo der Montage. Auf dem Monitor links zeigt der Demonstrator das, was die Roboterarme als Ausgangsinformation erhalten: ein 3-D-Modell davon, wo sie sich im Raum befinden und welche Objekte dort noch sind. Und schließlich sind über dem Demonstrator zwei Bildschirme montiert, die live zeigen, was die Roboterarme dank integrierter Kameras sehen.

Selbständige Korrektur von Störungen

Zudem kann der Prototyp der Siemens CT Störungen korrigieren, ohne dass ihm diese vorher als Option beigebracht wurden. Ist ein Teil verrutscht, wird es der Roboterarm – solange es im Blickfeld seiner Kamera liegt – finden, aufnehmen und alle folgenden Bewegungen daran anpassen, um es dennoch korrekt zu montieren. Es kann dabei sogar vorkommen, dass er es seinem Partner, dem anderen Arm hinüberreicht, da es ein Teil ist, das auf dessen Seite hineingeklippt werden muss.

 

Diese super-smarten Maschinen sind Teil der Company Core Technology (CCT) Future of Automation. Mit den CCTs fokussiert sich Siemens auf entscheidende Innovationsfelder wie auch digitaler Zwilling, künstliche Intelligenz oder additive Fertigung.

 

 

Das Aufgabengebiet der Roboter soll sich aber nicht nur auf Schaltschränke beschränken. Das Ziel, das die Forscher der CT dabei vor Augen haben, ist eine sich komplett selbst orchestrierende Fabrik, die auf veränderte Produktionsanforderungen reagiert, sich selbst permanent optimiert und in der die darin arbeitenden Roboter sich gegenseitig unterstützen. Also der aktuelle Prototyp in Potenz. Als Produkt wäre ein solches System, das sich aus Design-Daten speist, Störungen korrigiert und alle Bewegungen und Aktionen selbst berechnet, eine Revolution. „Es gibt einige Forscher, die dieses Problem lösen wollen“, sagt Kai Wurm, „aber auf dem Markt gibt es aktuell nichts Vergleichbares.“

11.12.2017

Von Sandra Zistl

Abonnieren Sie unseren Newsletter

Bleiben Sie auf dem Laufenden: Alles was Sie über Elektrifizierung, Automatisierung und Digitalisierung wissen müssen.