Technologie

Wie humanoide Roboter funktionieren – und warum sie in Fabriken Einzug halten

Humanoide Roboter kombinieren fortschrittliche Aktuatoren, KI-basierte Bildverarbeitungssysteme und Reinforcement Learning, um zu laufen, zu greifen und sich in Umgebungen zu bewegen, die für Menschen gebaut wurden. Hier wird erklärt, wie die Technologie funktioniert und warum Fabriken sie einsetzen.

R
Redakcia
4 Min. Lesezeit
Teilen
Wie humanoide Roboter funktionieren – und warum sie in Fabriken Einzug halten

Maschinen nach unserem Ebenbild

Eine neue Generation von Robotern betritt die Fabrikhallen – im wahrsten Sinne des Wortes. Im Gegensatz zu den stationären Roboterarmen, die seit Jahrzehnten Karosserieteile schweißen, sind humanoide Roboter so konzipiert, dass sie wie Menschen aussehen und sich bewegen, mit einem Kopf, einem Oberkörper, zwei Armen und zwei Beinen. Das Ziel ist einfach: sich in Umgebungen bewegen, die für Menschen gebaut wurden, ohne die Umgebung selbst umzugestalten.

Unternehmen wie Tesla, Figure AI, Boston Dynamics und das chinesische Unternehmen Unitree Robotics wetteifern um die Ausweitung der Produktion. Goldman Sachs und UBS prognostizieren, dass der Markt für humanoide Roboter bis 2035 30–50 Milliarden Dollar und bis 2050 potenziell 1,4 Billionen Dollar erreichen könnte. Aber was bringt diese Maschinen eigentlich dazu, aufrecht zu stehen, eine Kiste zu greifen oder einem gesprochenen Befehl zu folgen?

Die Hardware: Aktuatoren, Sensoren und Energieversorgung

Jeder humanoide Roboter basiert auf drei Hardware-Säulen: Aktuatoren, Sensoren und einem Energiesystem.

Aktuatoren sind die Muskeln des Roboters. Elektrische Servomotoren sitzen an jedem Gelenk – Hüfte, Knie, Ellbogen, Handgelenke – und wandeln elektrische Energie in Rotationskraft (Drehmoment) um. Ein typischer Humanoider hat 20 bis 50 angesteuerte Gelenke, sogenannte Freiheitsgrade, die jeweils von einer eigenen Motor- und Getriebeanordnung gesteuert werden. Elektrische Aktuatoren haben sich als die dominierende Technologie etabliert, weil sie im Vergleich zu hydraulischen Alternativen eine hohe Präzision, schnelle Reaktion und angemessene Kosten bieten.

Sensoren verleihen dem Roboter räumliches Bewusstsein. Stereokameras im Kopf sorgen für Tiefenwahrnehmung; LiDAR- oder Time-of-Flight-Sensoren kartieren die umgebende Geometrie; Inertial Measurement Units (IMUs) im Oberkörper erfassen Neigung und Beschleunigung; und Kraft-Drehmoment-Sensoren in den Händen messen den Greifdruck bis hinunter zu Bruchteilen eines Newtons. Zusammen ermöglicht diese Sensorik einem Humanoiden, ein Echtzeit-3D-Bild seiner Umgebung zu erstellen.

Die Energieversorgung bleibt die größte Einschränkung. Lithium-Ionen-Akkupacks, die im Oberkörper untergebracht sind, liefern je nach Arbeitslast ein bis acht Stunden Betriebsdauer. Gehen und Balancieren sind energieintensiv, daher verhindern Wärmemanagementsysteme eine Überhitzung bei dauerhaftem Gebrauch.

Das Gehirn: KI, die sieht, entscheidet und sich bewegt

Hardware allein ergibt eine teure Schaufensterpuppe. Was einen Humanoiden zu einem nützlichen Arbeiter macht, ist eine geschichtete KI-Steuerungsarchitektur.

Auf der obersten Ebene verarbeiten Vision-Language-Action-Modelle gleichzeitig Kamerabilder und gesprochene Anweisungen. Diese neuronalen Netze – Verwandte der großen Sprachmodelle hinter Chatbots – ermöglichen es einem Roboter, einen Befehl wie „Nimm den roten Behälter im linken Regal“ zu interpretieren, indem sie visuelle Erkennung mit Sprachverständnis verbinden.

Eine mittlere Planungsschicht zerlegt übergeordnete Ziele in Bewegungssequenzen und verwendet Techniken wie modellprädiktive Steuerung, um den sichersten und effizientesten Pfad in Echtzeit zu berechnen.

Auf der untersten Ebene führen schnelle Motorregelungsschleifen, die auf Mikrocontrollern in der Nähe jedes Gelenks laufen, Bewegungen in Millisekunden-Intervallen aus und passen das Drehmoment ständig an, um das Gleichgewicht zu halten. Dieses verteilte Design bedeutet, dass der Roboter nicht umfällt, während sein „Gehirn“ mit der Planung des nächsten Schritts beschäftigt ist.

Entscheidend ist, dass viele Humanoide jetzt durch Reinforcement Learning in der Simulation lernen – sie üben Millionen von Bewegungen in einer virtuellen Welt, bevor sie Fähigkeiten auf physische Hardware übertragen. Wie der Robotiker Jonathan Hurst bemerkt hat, sind Menschen „sehr nachgiebig in ihrer Interaktion mit der Welt“ und stellen ständig leichten Kontakt zu Oberflächen her. Die Nachbildung dieser intuitiven physischen Intelligenz in einer Maschine bleibt eine der größten Herausforderungen des Feldes.

Wo sie jetzt arbeiten

Im Jahr 2026 konzentrieren sich die Einsätze von Humanoiden auf drei Sektoren:

  • Fertigung und Automobilmontage (~35 % der Einsätze) – BMW testet Humanoide für präzises Greifen und zweihändige Koordination in seinem Werk in South Carolina.
  • Logistik und Lagerhaltung (~25 %) – Digit von Agility Robotics hebt und bewegt Behälter in Verteilzentren, während Figure 02 von Figure AI Lageraufgaben übernimmt.
  • Forschung und Gesundheitswesen (~15 %) – Pilotprogramme setzen Humanoide ein, um Rehabilitationstherapeuten bei sich wiederholenden körperlichen Übungen zu unterstützen.

Tesla hat über 1.000 Optimus-Einheiten in seinen eigenen Fabriken für die Teilehandhabung eingesetzt und strebt an, bis Ende 2026 50.000 Einheiten zu produzieren, mit einem langfristigen Zielpreis von 20.000–30.000 Dollar pro Einheit. Die Herstellungskosten sind zwischen 2023 und 2024 bereits um etwa 40 % gesunken, und die Materialkosten sollen von etwa 35.000 Dollar heute innerhalb eines Jahrzehnts auf 13.000–17.000 Dollar sinken.

Warum es wichtig ist – und was noch fehlt

Das Versprechen humanoider Roboter ist Flexibilität. Eine einzelne Maschine, die durch ein Lagerhaus gehen, Treppen steigen und Standardwerkzeuge verwenden kann, könnte Dutzende von spezialisierten festen Robotern ersetzen. Aber es gibt noch erhebliche Lücken. Die Akkulaufzeit ist kurz. Geschickte Manipulation – einen Knoten binden, zerbrechliche Gegenstände handhaben – ist immer noch unzuverlässig. Und wie Ayanna Howard, Dekanin der Ingenieurwissenschaften an der Ohio State University, gewarnt hat, lassen sich in der Simulation erlernte Fähigkeiten nicht immer sauber in die reale Welt übertragen.

Humanoide für den Haushalt sind laut Branchenanalysten von Deloitte mindestens noch ein Jahrzehnt entfernt. Vorerst ist die Fabrikhalle das Testgelände – und die Roboter stempeln gerade ein.

Dieser Artikel ist auch in anderen Sprachen verfügbar:

Bleib auf dem Laufenden!

Folge uns auf Facebook für die neuesten Nachrichten und Artikel.

Folge uns auf Facebook

Verwandte Artikel