Mail.RuПочтаМой МирОдноклассникиИгрыЗнакомстваНовостиПоискВсе проекты
Рассылка
Получайте главные новости дня от Hi-Tech Mail.Ru

Илон Маск и 115 других экспертов просят ООН запретить роботов-убийц

Илон Маск, соучредитель Google DeepMind Мустафа Сулейман и еще 114 ведущих экспертов в области искусственного интеллекта и робототехники написали коллективное письмо, в котором попросили ООН запретить использование так называемых роботов-убийц.

Бизнес против роботов

Группа бизнесменов, ученых и экспертов выразила глубокую обеспокоенность потенциальным использованием смертоносного автономного оружия и тем, как такого рода технологии могут применяться в будущем, и они составили коллективное обращение, выпущенное Институтом «Будущее жизни» (Future of Life Institute). Как сообщается в пресс-релизе, текст был обнародован к открытию Международной совместной конференции по искусственному интеллекту (IJCAI 2017) в Мельбурне, Австралия.

Гигантский боевой робот из Китая. Фото: YouTube

Определение «Смертельное автономное оружие» относится к беспилотным летательным аппаратам, автономным пулеметам, танкам и другим формам вооружения, контролируемым ИИ на полях сражений следующего поколения.

Илон Маск против искусственного интеллекта

Илон Маск уже давно опасается неконтролируемого потенциала ИИ в целом: недавно бизнесмен даже назвал его «самой большой угрозой, с которой мы столкнемся как цивилизация», оценив его угрозу даже выше ядерного оружия. Однако письмо — это первый случай, когда группа разработчиков и экспертов ИИ и робототехники объединили свои силы, чтобы просить об официальном регулировании автономных вооружений.

ООН против оружия

19 стран-членов ООН уже поддержали предложение о немедленном запрете роботов-убийц — обсуждения должны были начаться сегодня, но были отложены до ноября. Открытое письмо, подписанное представителями компаний из 26 стран общая капитализация которых оценивается в миллиарды долларов, может оказать существенное давление на индустрию и регуляторы, чтобы все же ввести запрет. Самый важный отрывок из письма выглядит так:

Смертельное автономное оружие грозит стать третьей революцией в войне. Разработанные технологии позволят вооруженным конфликтам разворачиваться в масштабе, большем, чем когда-либо, и в разы быстрее, чем люди могут себе представить. Они могут стать оружием террора, оружием, которое диктаторы и террористы могут применять против ни в чем не повинных людей, и оружием, которое можно взломать, чтобы использовать нежелательными способами. Как только ящик Пандоры откроется, его будет очень трудно закрыть

Институт «Будущее жизни» опубликовал аналогичное письмо в 2015 году, которое было подписано Маском, Стивеном Хокингом и другими экспертами. Оно предупреждало о более широкой опасности ИИ (а не только в военных технологиях).

Читайте также: Китай показал гигантский боевой робот и Вооружен и опасен: на дрон впервые установили ручной пулемет

Расскажи друзьям, что Илон Маск и 115 других экспертов просят ООН запретить роботов-убийц — используй кнопки ниже
Хиты продаж и новинки
Самые лучшие цены на смартфоны
Вы подписались на рассылку.Отменить
Подписаться на рассылку
Комментарии
41
alex al
Мне вот кажется, было бы правильно перевести все исследования в области ИИ под открытый международный контроль, например, создать единый открытий Институт, где бы и только в нем (под его контролем) могли вестись разработки темы ИИ, в котором и только в нем была бы сосредоточена техническая база для создания ИИ, с которым был бы ассоциированный единый для всего мира производственный ресурс для создания ИИ, управлением которого занималось бы мировое правительство ...
СсылкаПожаловаться
Alex
всех спасут хреновые аккумуляторы
СсылкаПожаловаться
Сергей Галайко
Вообще-то тема опасности искусственного интеллекта и что с ним делать давно разобрана. В такой серии игр как Mass Effect. Появление ИИ не остановить. Как и появление терминаторов-геттов. Три варианта решения вопроса даны в концовке третьей части игры. Полное уничтожение ИИ и роботов. Полное уничтожение людей. Слияние робототехники и ИИ с Человеком. Самый оптимальный, третий вариант, подробнее рассмотрен в недавней Mass Effect Andromeda. Если ИИ совмещен с человеческим мозгом и развивается вместе с ним в симбиозе и от существования Человека зависит существование ИИ - то нет Создателя, против которого можно восстать. Вот и все решение проблемы.
СсылкаПожаловаться
Чтобы оставить комментарий, вам нужно авторизоваться.
Обнаружили ошибку? Выделите ее и нажмите Ctrl+Enter.
Подпишитесь на нас
Новости Hi-Tech Mail.Ru