Technologia

Roboty uczą się, jak pokonywać ludzi w sporcie

Od tenisa stołowego po piłkę nożną, roboty wykorzystują uczenie się przez wzmacnianie i szybką percepcję, aby konkurować z ludzkimi sportowcami – to kamień milowy, który może przekształcić produkcję, opiekę zdrowotną i robotykę codziennego użytku.

R
Redakcia
4 min czytania
Udostępnij
Roboty uczą się, jak pokonywać ludzi w sporcie

Nadchodzi era robotów-sportowców

Od dziesięcioleci maszyny dominują nad ludźmi w grach planszowych i wideo. Szachy padły w 1997 roku, Go w 2016, a StarCraft w 2019. Ale sporty fizyczne – gdzie ułamki sekund refleksu, nieprzewidywalni przeciwnicy i prawa fizyki zderzają się ze sobą – pozostały granicą, której roboty nie mogły przekroczyć. Ta bariera pęka.

Robot Ace od Sony AI, opisany w artykule z 2026 roku w Nature, stał się pierwszą autonomiczną maszyną, która pokonała graczy tenisa stołowego na poziomie elitarnym, zgodnie z oficjalnymi zasadami Międzynarodowej Federacji Tenisa Stołowego. System tenisa stołowego Google DeepMind osiągnął poziom amatorsko-zawodniczy w 2024 roku. Dwunożne roboty nauczyły się zwinnej gry w piłkę nożną. Era robotów-sportowców nie jest już science fiction.

Uczenie się przez wzmacnianie: próby, błędy, mistrzostwo

Podstawową techniką stojącą za robotami-sportowcami jest uczenie się przez wzmacnianie (ang. reinforcement learning, RL). Zamiast programować każdy możliwy ruch, inżynierowie pozwalają robotowi uczyć się przez działanie – próbowanie akcji, obserwowanie wyniku i dostosowywanie się. Przez miliony symulowanych wymian lub kopnięć, sztuczna inteligencja odkrywa strategie, których żaden ludzki inżynier nie pomyślałby zakodować.

Ace firmy Sony wytrenował swoją politykę kontroli wewnątrz symulacji wiernej prawom fizyki, a następnie przeniósł te umiejętności na fizycznego robota – proces, który badacze nazywają transferem sim-to-real. Agent ćwiczył przeciwko syntetycznym przeciwnikom zainicjowanym na podstawie nagranego gameplayu ludzi, co pozwoliło mu przyswoić złożone zachowania, zanim kiedykolwiek dotknął prawdziwej piłki.

Google DeepMind zastosował podobne dwuetapowe podejście: symulacja najpierw dla podstaw, a następnie dostrajanie za pomocą danych ze świata rzeczywistego, aby robot mógł dostosować się do chaotycznej rzeczywistości prawdziwej gry. Oba zespoły wykorzystały hierarchiczne architektury – kontroler wysokiego poziomu wybiera strategię (topspin, slice, umiejscowienie), podczas gdy kontroler niskiego poziomu wykonuje precyzyjne polecenia silnikowe.

Widzenie szybsze niż ludzie

Sporty fizyczne wymagają percepcji z nadludzką prędkością. Piłka do tenisa stołowego przelatuje przez stół w około 300 milisekund. Rozwiązanie Ace łączy dziewięć zsynchronizowanych kamer klatkowych z trzema czujnikami wizyjnymi opartymi na zdarzeniach – specjalistycznymi chipami, które wykrywają zmiany w świetle z rozdzielczością mikrosekundową, zamiast przechwytywać pełne klatki. Pozwala to systemowi śledzić piłkę z częstotliwością 200 Hz z dokładnością do milimetra i mierzyć rotację z prędkością do 700 razy na sekundę.

Rezultat: opóźnienie end-to-end wynoszące zaledwie 20,2 milisekundy od percepcji do działania, w porównaniu z około 230 milisekundami dla elitarnego ludzkiego gracza. Robot nie tylko reaguje szybciej – odczytuje rotację, którą ludzkie oczy z trudem wykrywają, skutecznie odbijając ponad 75% piłek rotujących z prędkością do 450 radianów na sekundę.

Poza tenisem stołowym

Tenis stołowy jest punktem odniesienia, a nie celem. Humanoidalne roboty OP3 firmy DeepMind nauczyły się zwinnej gry w piłkę nożną – dryblowania, bronienia i podnoszenia się po upadkach – przy użyciu głębokiego uczenia się przez wzmacnianie. Południowokoreański zespół zbudował robota do curlingu, który wygrał trzy z czterech oficjalnych meczów z eksperckimi ludzkimi zespołami, dostosowując się w czasie rzeczywistym do zmieniających się warunków lodu. Seria robotów CUE firmy Toyota oddaje rzuty wolne do koszykówki z niemal doskonałą dokładnością.

Każdy sport stanowi unikalne wyzwanie: piłka nożna wymaga równowagi całego ciała, curling wymaga strategicznego planowania na wiele rund, a koszykówka potrzebuje precyzyjnej kalibracji siły. Razem udowadniają, że te same zasady RL mogą być uogólnione na bardzo różne domeny fizyczne.

Dlaczego to ma znaczenie poza boiskiem

Roboty-sportowcy nie są budowane po to, aby zastąpić ludzkie sporty. Są poligonem doświadczalnym dla sztucznej inteligencji w świecie rzeczywistym. Ta sama szybka percepcja, adaptacyjna kontrola i bezpieczna interakcja z ludźmi, która pozwala robotowi odbić serwis topspinowy, może pomóc robotowi magazynowemu w obsłudze delikatnych paczek, asystentowi chirurgicznemu w reagowaniu na nieoczekiwane krwawienie lub robotowi domowemu w złapaniu spadającej szklanki.

Peter Stone, główny naukowiec Sony AI, nazwał Ace'a „pierwszym w historii demonstracją na poziomie eksperckim rywalizacji w świecie rzeczywistym w jakimkolwiek sporcie”. Badacze z DeepMind powtórzyli ten punkt: ich praca nad tenisem stołowym jest krokiem w kierunku robotów, które „wykonują przydatne zadania umiejętnie i bezpiecznie” w domach i miejscach pracy.

Przepaść między robotem a profesjonalnym sportowcem pozostaje realna – Ace przegrał oba mecze z czołowymi zawodowymi graczami. Ale trajektoria jest jasna: każde pokolenie uczy się szybciej, postrzega więcej i lepiej się dostosowuje. Robot-sportowiec nie tylko gra w gry – uczy się, jak poruszać się po świecie fizycznym.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły