Mail.RuПочтаМой МирОдноклассникиИгрыЗнакомстваНовостиПоискВсе проекты
Рассылка
Получайте главные новости дня от Mail Hi-Tech
, Источник: Forbes

Скрытая угроза: искусственный интеллект может начать ядерную войну к 2040 году

Исследователи рассчитали, что ИИ в будущем может спровоцировать одну из ядерных держав нанести упреждающий удар против другой нации.

Американская некоммерческая организация RAND Corporation опубликовала исследование, согласно которому искусственный интеллект сможет потенциально привести мир к ядерной войне к 2040 году.

Аналитики утверждают, что хотя на протяжении десятилетий хрупкий мир поддерживался идеей того, что любое ядерное нападение может спровоцировать взаимное гарантированное уничтожение, потенциал ИИ и машинного обучения для принятия решений о военных действиях может означать, что отсутствие критического мышления у ИИ способно дать неверную оценку ситуации. «Некоторые эксперты опасаются, что усиленная зависимость от искусственного интеллекта может привести к новым видам катастрофических ошибок», — сказал Эндрю Лон, соавтор статьи из RAND.

ИИ может подорвать геополитическую стабильность и нарушить статус ядерного оружия как средства сдерживания.
RAND Corporation

Авторы исследования считают, что в будущем улучшение технологий может привести к нарушению баланса сдерживающих сил, таких как подводные и мобильные ракеты. ИИ, используемый в качестве советника, может склонить человека к решению о нанесении упреждающего удара против другой нации: даже если противник не намерен нападать, но ИИ увидит возможность получения преимущества в результате атаки.

ИИ может оказаться «восприимчивым к состязательности». Следовательно, отметил Лон, сохранение стабильности в ближайшие десятилетия может оказаться чрезвычайно трудным, и все ядерные державы должны участвовать в создании институтов, которые помогут ограничить ядерные риски.

Запомните мои слова: ИИ намного опаснее, чем ядерное оружие. Так почему у нас до сих пор нет нормативного надзора за ним?.
Илон Маск

В документе RAND также подчеркивается опасность использования ИИ для принятия военных решений, а не угроза автономных беспилотных летательных аппаратов или роботов, об опасности которых постоянно предупреждает Илон Маск. Выступая на ежегодном фестивале технологий и культуры SXSW (South by Southwest) в Остине, штат Техас, он предложил создать общественный регулирующий орган, который будет следить за безопасностью разработок в области искусственного интеллекта и предусматривать все возможные риски.

Это тоже интересно: 

Предупреди друзей об угрозе. Нажми на кнопку соцсетей ниже!
Хиты продаж и новинки
Самые лучшие цены на смартфоны
Вы подписались на рассылку.Отменить
Подписаться на рассылку
Комментарии
12
Анатолий Нелюбов
В ответ на комментарий от Bidmaker@mail.ru
Bidmaker@mail.ru
Уже достаточно давно создается впечатление, что создатели ИИ ни Терминаторов не смотрели, ни, тем более (видимо), Азимова "Я - робот" не читали...
СсылкаПожаловаться
Согласен. И любой не подконтрольный процесс чреват последствиями.
СсылкаПожаловаться
VovaMaster99
так то, уже разработали ИИ, сомневающийся в своих выводах и решениях.
СсылкаПожаловаться
анатолий игнатьев
Все это о глобальной войне просто сплетни,это бедным терять нечего а богатые не только терять не хотят"честно наворованное"но и жить в убежище тем более.Глобальных войн не будет .только региональные за воду,за ресурсы,даже за сокращение чиссленности.Биолаборатории не только у нашей границы настроили-жди эпидемий.
СсылкаПожаловаться
Чтобы оставить комментарий, вам нужно авторизоваться.
Обнаружили ошибку? Выделите ее и нажмите Ctrl+Enter.
Подпишитесь на нас
Новости Mail Hi-Tech