Die Vermessung des Arbeiters

Michelangelo, Alleskönner und prägende Gestalt der Renaissance, gilt als einer der Ersten seiner Epoche, der es wagte, die körperlichen Eigenheiten des Menschen zu ergründen. Als junger Künstler schlich er sich zur Kirche des Klosters San Spirito, um dort heimlich und entgegen der damals herrschenden Etikette Leichen zu sezieren. Sein Studium der menschlichen Anatomie ermöglichte dem Künstler gegen Ende des 15. Jahrhunderts in seiner Bildhauerei und Malerei eine revolutionär neue Darstellung des menschlichen Körpers.

Mehr als 500 Jahre später, in der „digitalen Ära“, wie unsere Nachfahren die heutige Zeit vielleicht einmal nennen werden, wird der Mensch immer noch bis ins Kleinste vermessen – aber inzwischen mittels Lifelogging und Simulation. Sogenannte „Lifelogs“ erfassen bei Ersterem die digitale Aura einer Person anhand von Daten zu Gesundheit, Aktivität, Aufenthaltsort und Produktivität. Selbst Gefühle werden bereits quantifiziert. Das Spektrum der unterschiedlichen Lifelogging-Anwendungen reicht vom Gesundheitsmonitoring über die Standorterfassung von Kindern, Partnern und Angestellten bis hin zur Kontrolle von Demenzkranken mittels Sensoren.

Inzwischen ist eine Spielart des Lifelogging auch in der digitalen Fabrik angekommen – das „Human Tracking“. Denn bis zum Jahr 2025 sollen in der sogenannten „Smart Factory“ alle physischen Objekte – jede Maschine, jedes Werkzeug, jeder Behälter und jedes zu produzierende Produkt – ein digitales Abbild haben, aber auch nicht fest installierte Produktionsmittel, ergo der Mensch. Dieser Zwilling, der „Digital Twin“, beschreibt detailgetreu die Funktionalität des realen Abbilds, speichert aber auch dessen Zustand und weitere zentrale Daten. „Digital Human Twins“ simulieren in diesem Prozess mit einer Kombination aus Big Data und Bewegungstrackern den durchgetakteten Fabrikarbeiter.

Wie viele Schritte darf Jack gehen?

„In der Smart Factory sprechen wir von drei digitalen Zwillingen, nämlich bei Produkt, Performance und Prozessen“, schickt Magnus Edholm, Head of Marketing Digital Enterprise bei der Siemens AG, voraus, bevor er mehr über „Jack“ und „Jill“ erzählt, wie die geschlechtlich diversen Vertreter der Digital Human Twins bei Siemens heißen. Nun ist der gebürtige Schwede zwar nicht der Michelangelo des Industriekonzerns – aber als Visionär in seinem Fachgebiet sieht er sich allemal. „In einer virtuellen Fertigungswelt, mit der wir alles simulieren und testen können, muss man künftig nicht mehr so viele Prototypen bauen. Und wenn wir etwas bauen, wird das dann gleich richtig gebaut“, sagt Edholm und schlägt sich auf die Oberschenkel.

„In einer virtuellen Fertigungswelt, mit der wir alles simulieren und testen können, muss man künftig nicht mehr so viele Prototypen bauen.“

Magnus Edholm, Head of Marketing Digital Enterprise bei der Siemens AG

Mithilfe des Simulationstools „Digital Enterprise Suite“ lassen sich sowohl Konstruktion als auch Fertigungsplanung und die gesamte digitale Wertschöpfungskette aus einer Hand darstellen. In der Smart Factory lässt sich damit die Durchgängigkeit vom Design bis zur Produktion realisieren: Der digitale Zwilling erstellt einen sogenannten „G-Code der Produktionsaufgabe“, dieser wird dann auf eine Fertigungssteuerung gespielt. „Nahezu zeitgleich kommuniziert die Steuerung mit dem Roboter und gibt ihm vor, was er zu tun hat, um eine jeweilige Aufgabe zu übernehmen: fräsen, drehen, Spanabtrag oder hinzufügen von Additiven im 3-D-Druck-Verfahren.“ Magnus Edholm ist stolz auf sein Baby.

Auch wenn der Mensch in der realen Fabrik noch nicht ferngesteuert ist, so müssen seine Arbeitsschritte für diese Durchgängigkeit ebenfalls komplett virtualisiert werden. Das Programm dazu heißt „Task Simulation Builder“. Damit lassen sich zumindest alle menschlichen Arbeitsschritte simulieren. Eine Datenbank erfasst zum Beispiel Dinge wie eingesetzte Werkzeuge, die Funktion der menschlichen Gelenke, Größe und Reichweite der Extremitäten, Bewegungsabläufe zwischen einzelnen Werkbänken und Materialboxen, Schrittlänge sowie die Zahl und Dauer der einzelnen Schritte.

Der Gemütszustand des Arbeiters wird nicht erfasst

„Findet der Simulator etwa heraus, dass die Zahl der Schritte der größte Zeitfresser im Arbeitsvorgang ist, lassen sich damit auch neue, effektivere Arbeitsplatzdesigns erstellen“, so Edholm. Die Ergebnisse werden zusätzlich in Echtzeit abgeglichen mit Statistiken etwa aus der klinischen Forschung, zum Beispiel, welches Gewicht Menschen in einer bestimmten Haltung heben oder drücken können. Oder wie lange ein Mensch ohne Pause arbeiten kann, bevor Erschöpfung oder Schmerz eintreten. Gleichzeitig erfolgt eine Analyse der Risiken, speziell, um Verletzungen zu vermeiden. Den Gemütszustand des Arbeiters erfasst das Simulationstool einstweilen nicht. Noch nicht.

Die Wurzeln dieser Human-Tracking-Verfahren gehen zurück auf die Forschung und Entwicklung für das sogenannte „Jack“-System. „Jack“ ist das Synonym für einen menschlichen Kollegen, analog gibt es die weibliche „Jill“. Schon in den 80er-Jahren des vergangenen Jahrhunderts begannen Forscher der University of Pennsylvania damit, ein interaktives Menschmodell zu entwickeln.

Ursprünglich als ergonomisches Assessment und virtuelles Prototyping-System für die NASA-Space-Shuttle-Entwicklung konzipiert, setzten es bald auch U.S. Navy und U.S. Army für die Simulation von Artilleriesoldaten sowie die U.S. Air Force für Instandhaltungssimulationen ein. 1996 wurde die Software in eine private Firma ausgegliedert, heute wird sie von Siemens unter dem Namen „Tecnomatix Jack“ in eigenen Werken eingesetzt, aber auch am Markt vertrieben.

Anthropometrische Daten steigern die Präzision des „Digital Human Twins“

Mit diesem ergonomischen Simulations-Toolkit ist in der Fabrik der Zukunft virtuelle Realität endgültig an der Tagesordnung. Das Bewegungstracking der Arbeiter funktioniert dabei wie in einem Computerspiel: Der Mensch wird an seiner Arbeitsstation mit einer speziellen Ausrüstung aus Trackern und Messdioden kalibriert. Mittels der Tracker werden Bewegungsabläufe als Film in eine Software eingespielt. Der digitale Mensch wird so ruck, zuck an den realen Menschen angepasst, fertig ist der „Digital Human Twin“. Dessen Arbeitsschritte können als Arbeitsinstruktion in 3-D an das gesamte Personal auf dem Shopfloor kommuniziert werden. Oder Arbeitsplätze werden entsprechend designt, bevor sie in Bau gehen. In der Automobil- und Luftfahrtindustrie etwa lässt sich dabei das optimale Fahrer- oder Pilotencockpit in Bezug auf Bedienbarkeit und Blickfeld der Armaturen konstruieren.

„Auch wenn wir immer besser werden – es lässt sich nicht alles abdecken, weil der Mensch am Ende doch sehr viel individueller und unterschiedlicher ist als eine Simulation wiedergeben kann.“

Magnus Edholm, Head of Marketing Digital Enterprise bei der Siemens AG

Ihr volles Potenzial entfalten Jack und Jill, wie sollte es im Digital Age auch anders sein, aber erst durch die Verknüpfung mit Big Data: „Die große Herausforderung dabei ist es, auf spezielle Datenbanken zurückgreifen zu können, um präziser die jeweiligen menschlichen Typen auf einzelne Regionen und digitale Fertigungen anzupassen“, erläutert Magnus Edholm. „Wir nutzen anthropometrische Datenbanken aus der gesamten Welt, um die Jack-Zahlen auf die Zielnutzerpopulation zu skalieren. So können wir den digitalen Zwilling einer Person in den USA, Europa, China, Indien oder anderen Ländern erschaffen, ohne lokale Individuen messen zu müssen. Aber falls erforderlich, können wir sie natürlich auch messen – zum Beispiel, wenn Arbeiter an einer Motion-Capture-Sitzung teilnehmen. Dann werden ihre Dimensionen genau an ihren Avatar übertragen.“

Diese „Figure“-Technologie treibt Siemens immer weiter voran. Mit der nächsten Generation, die gerade entwickelt wird, dürften die menschlichen Formen digital noch mal einen viel höheren Grad an Realismus wiedergeben als bisher möglich war, ist Edholm überzeugt. Aber er sieht auch die Grenzen dieser Technologie: „Auch wenn wir immer besser werden – es lässt sich nicht alles abdecken, weil der Mensch am Ende doch sehr viel individueller und unterschiedlicher ist als eine Simulation wiedergeben kann.“ Eine Erkenntnis, mit der Michelangelo sich bei seinen Kunstwerken einst nur schwer zufrieden gab.

Bildnachweis: © Alamy

Newsletter abonnieren

Mit dem Newsletter verpassen Sie keine Ausgabe der next: Das Magazin für Vorausdenker

Anmelden
Feedback

Sie möchten uns Feedback zu diesem Beitrag geben? Wir freuen uns auf Ihre Rückmeldung.

Feedback
Diesen Beitrag teilen

Hier können Sie den Beitrag über soziale Medien teilen.

Teilen