Mail.RuПочтаМой МирОдноклассникиИгрыЗнакомстваНовостиПоискВсе проекты
Рассылка
Получайте главные новости дня от Hi-Tech Mail.Ru

Илон Маск и 115 других экспертов просят ООН запретить роботов-убийц

Илон Маск, соучредитель Google DeepMind Мустафа Сулейман и еще 114 ведущих экспертов в области искусственного интеллекта и робототехники написали коллективное письмо, в котором попросили ООН запретить использование так называемых роботов-убийц.

Бизнес против роботов

Группа бизнесменов, ученых и экспертов выразила глубокую обеспокоенность потенциальным использованием смертоносного автономного оружия и тем, как такого рода технологии могут применяться в будущем, и они составили коллективное обращение, выпущенное Институтом «Будущее жизни» (Future of Life Institute). Как сообщается в пресс-релизе, текст был обнародован к открытию Международной совместной конференции по искусственному интеллекту (IJCAI 2017) в Мельбурне, Австралия.

Гигантский боевой робот из Китая. Фото: YouTube

Определение «Смертельное автономное оружие» относится к беспилотным летательным аппаратам, автономным пулеметам, танкам и другим формам вооружения, контролируемым ИИ на полях сражений следующего поколения.

Илон Маск против искусственного интеллекта

Илон Маск уже давно опасается неконтролируемого потенциала ИИ в целом: недавно бизнесмен даже назвал его «самой большой угрозой, с которой мы столкнемся как цивилизация», оценив его угрозу даже выше ядерного оружия. Однако письмо — это первый случай, когда группа разработчиков и экспертов ИИ и робототехники объединили свои силы, чтобы просить об официальном регулировании автономных вооружений.

ООН против оружия

19 стран-членов ООН уже поддержали предложение о немедленном запрете роботов-убийц — обсуждения должны были начаться сегодня, но были отложены до ноября. Открытое письмо, подписанное представителями компаний из 26 стран общая капитализация которых оценивается в миллиарды долларов, может оказать существенное давление на индустрию и регуляторы, чтобы все же ввести запрет. Самый важный отрывок из письма выглядит так:

Смертельное автономное оружие грозит стать третьей революцией в войне. Разработанные технологии позволят вооруженным конфликтам разворачиваться в масштабе, большем, чем когда-либо, и в разы быстрее, чем люди могут себе представить. Они могут стать оружием террора, оружием, которое диктаторы и террористы могут применять против ни в чем не повинных людей, и оружием, которое можно взломать, чтобы использовать нежелательными способами. Как только ящик Пандоры откроется, его будет очень трудно закрыть

Институт «Будущее жизни» опубликовал аналогичное письмо в 2015 году, которое было подписано Маском, Стивеном Хокингом и другими экспертами. Оно предупреждало о более широкой опасности ИИ (а не только в военных технологиях).

Читайте также: Китай показал гигантский боевой робот и Вооружен и опасен: на дрон впервые установили ручной пулемет

Расскажи друзьям, что Илон Маск и 115 других экспертов просят ООН запретить роботов-убийц — используй кнопки ниже
Обзоры новинок
Подробности о главных премьерах
Вы подписались на рассылку.Отменить
Подписаться на рассылку
Комментарии
40
Alex
всех спасут хреновые аккумуляторы
СсылкаПожаловаться
Сергей Галайко
Вообще-то тема опасности искусственного интеллекта и что с ним делать давно разобрана. В такой серии игр как Mass Effect. Появление ИИ не остановить. Как и появление терминаторов-геттов. Три варианта решения вопроса даны в концовке третьей части игры. Полное уничтожение ИИ и роботов. Полное уничтожение людей. Слияние робототехники и ИИ с Человеком. Самый оптимальный, третий вариант, подробнее рассмотрен в недавней Mass Effect Andromeda. Если ИИ совмещен с человеческим мозгом и развивается вместе с ним в симбиозе и от существования Человека зависит существование ИИ - то нет Создателя, против которого можно восстать. Вот и все решение проблемы.
СсылкаПожаловаться
Non pensavo
В ответ на комментарий от Александр !
Александр !
А вот по-моему, так лучше пусть воюют роботы, чем люди.
СсылкаПожаловаться
Роботы будут ходить и стрелять по людям. Будут тратить в СРЕДНЕМ 1 пулю чтобы убить человека, прицеливаться и стрелять с учетом всех показателей среды и отдачи за милисекунды, и за 5-10 секунд положить 30 человек за 30 патронов в магазине. И остановить их - крайне сложно, они могут сбить любой снаряд летящий если оборудован, вычислительная мощь ИИ не дает сознания, он выполняет инструкции, без оговорок, в этом и проблема. Если нужно зачистить сектор - он пойдет и зачистит, дети, животные, матери, военные? Если в группе риска - 1 патрон. Алеппо? За полдня город штурмом возьмет и может истребить всех при хорошем бронировании. И в отличии от людей, они могут одновременно нести и стрелять множеством орудий, пару снайперских, пару дробовиков, пулемет, ракетоносец. В общем чем больше и бронированнее его построят - тем сильнее и смертоноснее для всех.
СсылкаПожаловаться
Чтобы оставить комментарий, вам нужно авторизоваться.
Обнаружили ошибку? Выделите ее и нажмите Ctrl+Enter.
Подпишитесь на нас
Новости Hi-Tech Mail.Ru