Бизнес против роботов
Группа бизнесменов, ученых и экспертов выразила глубокую обеспокоенность потенциальным использованием смертоносного автономного оружия и тем, как такого рода технологии могут применяться в будущем, и они составили коллективное обращение, выпущенное Институтом «Будущее жизни» (Future of Life Institute). Как сообщается в пресс-релизе, текст был обнародован к открытию Международной совместной конференции по искусственному интеллекту (IJCAI 2017) в Мельбурне, Австралия.
Определение «Смертельное автономное оружие» относится к беспилотным летательным аппаратам, автономным пулеметам, танкам и другим формам вооружения, контролируемым ИИ на полях сражений следующего поколения.
Илон Маск против искусственного интеллекта
Илон Маск уже давно опасается неконтролируемого потенциала ИИ в целом: недавно бизнесмен даже назвал его «самой большой угрозой, с которой мы столкнемся как цивилизация», оценив его угрозу даже выше ядерного оружия. Однако письмо — это первый случай, когда группа разработчиков и экспертов ИИ и робототехники объединили свои силы, чтобы просить об официальном регулировании автономных вооружений.
ООН против оружия
19 стран-членов ООН уже поддержали предложение о немедленном запрете роботов-убийц — обсуждения должны были начаться сегодня, но были отложены до ноября. Открытое письмо, подписанное представителями компаний из 26 стран общая капитализация которых оценивается в миллиарды долларов, может оказать существенное давление на индустрию и регуляторы, чтобы все же ввести запрет. Самый важный отрывок из письма выглядит так:
Смертельное автономное оружие грозит стать третьей революцией в войне. Разработанные технологии позволят вооруженным конфликтам разворачиваться в масштабе, большем, чем когда-либо, и в разы быстрее, чем люди могут себе представить. Они могут стать оружием террора, оружием, которое диктаторы и террористы могут применять против ни в чем не повинных людей, и оружием, которое можно взломать, чтобы использовать нежелательными способами. Как только ящик Пандоры откроется, его будет очень трудно закрыть
Институт «Будущее жизни» опубликовал аналогичное письмо в 2015 году, которое было подписано Маском, Стивеном Хокингом и другими экспертами. Оно предупреждало о более широкой опасности ИИ (а не только в военных технологиях).