Илон Маск и 115 других экспертов просят ООН запретить роботов-убийц

Илон Маск, соучредитель Google DeepMind Мустафа Сулейман и еще 114 ведущих экспертов в области искусственного интеллекта и робототехники написали коллективное письмо, в котором попросили ООН запретить использование так называемых роботов-убийц.

Бизнес против роботов

Группа бизнесменов, ученых и экспертов выразила глубокую обеспокоенность потенциальным использованием смертоносного автономного оружия и тем, как такого рода технологии могут применяться в будущем, и они составили коллективное обращение, выпущенное Институтом «Будущее жизни» (Future of Life Institute). Как сообщается в пресс-релизе, текст был обнародован к открытию Международной совместной конференции по искусственному интеллекту (IJCAI 2017) в Мельбурне, Австралия.

Гигантский боевой робот из Китая. Фото: YouTube
Гигантский боевой робот из Китая. Фото: YouTube

Определение «Смертельное автономное оружие» относится к беспилотным летательным аппаратам, автономным пулеметам, танкам и другим формам вооружения, контролируемым ИИ на полях сражений следующего поколения.

Илон Маск против искусственного интеллекта

Илон Маск уже давно опасается неконтролируемого потенциала ИИ в целом: недавно бизнесмен даже назвал его «самой большой угрозой, с которой мы столкнемся как цивилизация», оценив его угрозу даже выше ядерного оружия. Однако письмо — это первый случай, когда группа разработчиков и экспертов ИИ и робототехники объединили свои силы, чтобы просить об официальном регулировании автономных вооружений.

ООН против оружия

19 стран-членов ООН уже поддержали предложение о немедленном запрете роботов-убийц — обсуждения должны были начаться сегодня, но были отложены до ноября. Открытое письмо, подписанное представителями компаний из 26 стран общая капитализация которых оценивается в миллиарды долларов, может оказать существенное давление на индустрию и регуляторы, чтобы все же ввести запрет. Самый важный отрывок из письма выглядит так:

Смертельное автономное оружие грозит стать третьей революцией в войне. Разработанные технологии позволят вооруженным конфликтам разворачиваться в масштабе, большем, чем когда-либо, и в разы быстрее, чем люди могут себе представить. Они могут стать оружием террора, оружием, которое диктаторы и террористы могут применять против ни в чем не повинных людей, и оружием, которое можно взломать, чтобы использовать нежелательными способами. Как только ящик Пандоры откроется, его будет очень трудно закрыть

Институт «Будущее жизни» опубликовал аналогичное письмо в 2015 году, которое было подписано Маском, Стивеном Хокингом и другими экспертами. Оно предупреждало о более широкой опасности ИИ (а не только в военных технологиях).