Cómo funcionan los robots humanoides y por qué están entrando en las fábricas
Los robots humanoides combinan actuadores avanzados, sistemas de visión con IA y aprendizaje por refuerzo para caminar, agarrar y navegar por espacios construidos para personas. Aquí se explica cómo funciona la tecnología y por qué las fábricas la están adoptando.
Máquinas construidas a nuestra imagen
Una nueva generación de robots está entrando en las fábricas, literalmente. A diferencia de los brazos robóticos estacionarios que han soldado paneles de automóviles durante décadas, los robots humanoides están diseñados para parecerse y moverse como personas, con cabeza, torso, dos brazos y dos piernas. El objetivo es sencillo: navegar por entornos construidos para humanos sin rediseñar el propio entorno.
Empresas como Tesla, Figure AI, Boston Dynamics y la china Unitree Robotics están compitiendo para escalar la producción. Goldman Sachs y UBS proyectan que el mercado de robots humanoides podría alcanzar los 30.000 a 50.000 millones de dólares en 2035 y potencialmente 1,4 billones de dólares en 2050. Pero, ¿qué es lo que realmente hace que estas máquinas se mantengan erguidas, agarren una caja o sigan una orden hablada?
El hardware: actuadores, sensores y energía
Todo robot humanoide se basa en tres pilares de hardware: actuadores, sensores y un sistema de energía.
Los actuadores son los músculos del robot. Los servomotores eléctricos se sitúan en cada articulación (caderas, rodillas, codos, muñecas) y convierten la energía eléctrica en fuerza de rotación (par). Un humanoide típico tiene entre 20 y 50 articulaciones accionadas, llamadas grados de libertad, cada una controlada por su propio conjunto de motor y engranajes. Los actuadores eléctricos se han convertido en la tecnología dominante porque ofrecen alta precisión, respuesta rápida y un coste razonable en comparación con las alternativas hidráulicas.
Los sensores dan al robot conciencia espacial. Las cámaras estéreo en la cabeza proporcionan percepción de profundidad; los sensores LiDAR o de tiempo de vuelo mapean la geometría circundante; las unidades de medición inercial (IMU) en el torso rastrean la inclinación y la aceleración; y los sensores de fuerza-par en las manos miden la presión de agarre hasta fracciones de newton. En conjunto, este conjunto de sensores permite a un humanoide construir una imagen 3D en tiempo real de su entorno.
La energía sigue siendo la mayor limitación. Los paquetes de baterías de iones de litio almacenados en el torso ofrecen de una a ocho horas de funcionamiento, dependiendo de la carga de trabajo. Caminar y mantener el equilibrio consumen mucha energía, por lo que los sistemas de gestión térmica evitan el sobrecalentamiento durante el uso prolongado.
El cerebro: IA que ve, decide y se mueve
El hardware por sí solo produce un maniquí caro. Lo que convierte a un humanoide en un trabajador útil es una arquitectura de control de IA en capas.
En la capa superior, los modelos de visión-lenguaje-acción procesan simultáneamente las imágenes de la cámara y las instrucciones habladas. Estas redes neuronales, primas de los grandes modelos lingüísticos que hay detrás de los chatbots, permiten a un robot interpretar una orden como "recoge el contenedor rojo de la estantería izquierda" fusionando el reconocimiento visual con la comprensión del lenguaje.
Una capa de planificación intermedia descompone los objetivos de alto nivel en secuencias de movimiento, utilizando técnicas como el control predictivo de modelos para calcular la ruta más segura y eficiente en tiempo real.
En la capa más baja, los bucles de control del motor rápidos que se ejecutan en microcontroladores cerca de cada articulación ejecutan movimientos a intervalos de milisegundos, ajustando constantemente el par para mantener el equilibrio. Este diseño distribuido significa que el robot no se cae mientras su "cerebro" está ocupado planificando el siguiente paso.
Fundamentalmente, muchos humanoides ahora aprenden a través del aprendizaje por refuerzo en simulación: practicando millones de movimientos en un mundo virtual antes de transferir las habilidades al hardware físico. Como ha señalado el roboticista Jonathan Hurst, los humanos son "muy complacientes en la forma en que interactúan con el mundo", haciendo constantemente un ligero contacto con las superficies. Replicar esa inteligencia física intuitiva en una máquina sigue siendo uno de los retos más difíciles del campo.
Dónde están trabajando ahora
En 2026, los despliegues de humanoides se concentran en tres sectores:
- Fabricación y montaje de automóviles (~35% de los despliegues) — BMW está probando humanoides para el agarre de precisión y la coordinación a dos manos en su planta de Carolina del Sur.
- Logística y almacenamiento (~25%) — Digit de Agility Robotics levanta y mueve contenedores en centros de distribución, mientras que Figure 02 de Figure AI se encarga de tareas de almacén.
- Investigación y atención sanitaria (~15%) — Los programas piloto utilizan humanoides para ayudar a los terapeutas de rehabilitación con ejercicios físicos repetitivos.
Tesla ha desplegado más de 1.000 unidades de Optimus en sus propias fábricas para la manipulación de piezas y pretende producir 50.000 unidades a finales de 2026, con un precio objetivo a largo plazo de 20.000 a 30.000 dólares por unidad. Los costes de fabricación ya han disminuido aproximadamente un 40% entre 2023 y 2024, y se prevé que los costes de los materiales disminuyan de unos 35.000 dólares actuales a entre 13.000 y 17.000 dólares en una década.
Por qué es importante y qué falta todavía
La promesa de los robots humanoides es la flexibilidad. Una sola máquina que pueda caminar por un almacén, subir escaleras y utilizar herramientas estándar podría sustituir a docenas de robots fijos especializados. Pero siguen existiendo importantes lagunas. La duración de la batería es corta. La manipulación diestra (atar un nudo, manipular objetos frágiles) sigue siendo poco fiable. Y, como ha advertido Ayanna Howard, decana de ingeniería de la Universidad Estatal de Ohio, las habilidades aprendidas en la simulación no siempre se transfieren limpiamente al mundo real.
Los humanoides domésticos siguen estando a al menos una década de distancia, según los analistas de la industria de Deloitte. Por ahora, la fábrica es el campo de pruebas, y los robots están empezando a fichar.