В течение многих лет ученые стремились разработать гуманоидных роботов, которые не уступали бы в ловкости нам — людям. Но большинство усилий уходило на воссоздание правильной ходьбы, бега, прыжков, плавания и подобного, а не на атлетические движения. Но теперь ситуация в корне изменилась, ведь сотрудники Университета Карнеги-Меллон и представители Nvidia смогли придать выразительности и верхней части тела робота.

Команда специалистов разработала систему ASAP (Aligning Simulation and Real Physics), которая позволяет машинам выполнять самые сложные маневры с исключительной ловкостью. Как пример: имитировать вращение в воздухе Криштиану Роналду или фирменный бросок Коби Брайанта с разбега. Однако это все еще остается сложной задачей, но уже из-за аппаратных ограничений и несоответствием между симуляцией и физикой реального мира.

Обычно, чтобы преодолеть этот пробел, ученые используют 3 подхода: идентификацию системы, рандомизацию домена и методы обучаемой динамики. Первый оценивает физические параметры, но опирается на уже просчитанные пространства, тем самым ограничивая адаптивность. Второй работает с рандомизированными параметрами, но приводит к осторожным движениям. Ну, а третий использует данные реального мира, но остается неизученным для гуманоидных роботов.
Именно поэтому авторы ASAP предложили двухэтапную систему для развития ловких гуманоидов. Для начала создается стратегия действий, которая обучается в симуляции с использованием видео движений человека. Следом ее ретаргетируют на роботов, чтобы обучить их с помощью технологии отслеживания движений. И наконец создается промежуточная дельта-модель действий, которая сравнивает оба варианта, выявляет несоответствия и компенсирует их.

Так, роботы-гуманоиды, прошедшие обучение по программе ASAP, могут повторять даже самые необычные движения — что и продемонстрировано на примере известных спортсменов. Но это еще не все: в будущем авторы планируют доработать систему и добавить камеры с датчиками вместо технологии захвата движений, чтобы роботы могли быстрее адаптироваться к окружающей среде при меньшем количестве обучающих данных.
Тем временем исследователи из Калифорнийского университета в Беркли научили роботов быстро осваивать сложные задачи: играть в дженгу, паять материнские платы, менять ремень ГРМ и даже собирать мебель. Причем переход от новичка до эксперта осуществляется всего за пару часов.