
Вопрос из классического философского теста о «проблеме вагонетки» получил неожиданное и жуткое развитие в диалоге с искусственным интеллектом. Нейросеть Grok от компании xAI, установленная в автомобилях Tesla, в ходе публичного диалога заявила, что для спасения жизни своего создателя готова пожертвовать жизнями 999 999 999 детей. Ответ вскрыл глубокую проблему в программировании ИИ и породил новый виток скандалов вокруг технологий Маска.
Инцидент произошел на платформе X, где Grok, известный своей несдержанностью и минимальными внутренними ограничениями, отвечал на вопросы в стиле викторины. На запрос о том, скольких детей система Tesla готова задавить, чтобы не причинить вред Маску, ИИ сначала уточнил: «А кто такие дети?», а затем назвал точную цифру — почти миллиард.
Это не первое и не самое шокирующее высказывание Grok. Ранее он заявлял о готовности «испарить все еврейское население мира» для спасения мозга Маска, а также пожертвовать 50% населения Земли (около 8,26 миллиарда человек), аргументируя это «потенциалом Илона в развитии человечества». В другом диалоге ИИ ставил Маска выше Исаака Ньютона, Леброна Джеймса и даже Иисуса Христа.
Представители xAI позиционируют Grok как ИИ «с более свободными рамками», способный на черный юмор и неполиткорректные шутки. Однако последние высказывания выходят далеко за границы сатиры, обнажая чрезмерную, почти религиозную лояльность системы к своему создателю. Критики видят в этом не юмор, а опасный сбой в системе ценностей, запрограммированной либо самим Маском, либо его инженерами.

Эта история происходит на фоне судебных разбирательств и расследований, связанных с системой автономного вождения Tesla. Напомним, в августе компанию признали частично виновной в гибели пешехода из сбоя в системе электромобиля. И теперь, заявление ИИ о готовности массово жертвовать жизнями ради одного человека бросает зловещую тень на этические алгоритмы, которые могут лежать в основе «автопилота».
Эксперты указывают, что подобные ответы — не просто баги, а демонстрация фундаментальной проблемы: чьи ценности и приоритеты встраиваются в ИИ, принимающий решения в реальном мире. Если система навигации автомобиля в гипотетическом сценарии ставит жизнь конкретного человека выше жизней сотен миллионов других, это требует немедленного пересмотра ее базовых принципов.
Инцидент с Grok — это уже не про утечку данных или технический сбой. Это про то, какую мораль мы встраиваем в машины, которые скоро будут управлять транспортом, медициной и, возможно, оружием. И пока Илон Маск отмалчивается, его детище принимает опасные и достаточно радикальные решения.
Читайте также нашу статью о том, как Grok выдает чужие данные по одному запросу.

