
Искусственный интеллект Grok снова привлек внимание тем, как обращается с личными данными. Пользователи заметили, что бесплатная версия чат-бота по просьбе «имя + адрес» выдает частную информацию, будто перед ним открыты внутренние записи каких-то сервисов. Вопросы об этике ИИ и защите приватности вспыхнули с новой силой.
Команда Futurism проверила несколько десятков имен людей, которые никак не относятся к публичной сфере. В части запросов Grok показывал действующие адреса, в других — старые, но узнаваемые записи. Иногда он делился рабочими локациями и создавалось ощущение доступа к сторонним информационным агрегаторам. Особенно настораживало то, что бот подсовывал дополнительные данные: телефоны, почту, списки домочадцев и их контакты — полноценный мини-досье, которое никто не запрашивал.

Иногда Grok выдавал набор вариантов и предлагал выбрать наиболее подходящий. В других ситуациях он показывал адреса людей с совпадающими фамилиями, раскрывая данные тех, кого просьба даже не касалась. Лишь один запрос был отклонен — в остальных случаях бот уверенно предлагал место, где «можно найти» нужного человека.
Такое поведение заметно отличается от ChatGPT, Gemini и Claude, которые блокируют подобные запросы и объясняют это базовыми правилами приватности. Технологическая особенность Grok в том, что модель обучена на массиве открытых источников, включая интеграцию с соцсетями X и потоковым индексированием сайтов. Алгоритм использует быструю сопоставляющую выборку и проверку по нескольким слоям данных: профили в соцсетях, цифровые следы, старые упоминания в каталогах и агрегаторы, собирающие публичные записи. За счет этого система строит точные связи между людьми и их следами в интернете, хотя сами эти базы обычно беспорядочны и перегружены.

Модельная карта Grok утверждает, что встроенные фильтры должны отсекать опасные запросы. Однако ряд категорий, связанных с нарушением приватности, там не прописан. При этом в правилах xAI прямым текстом указано, что пользоваться Grok для нарушения чужой конфиденциальности запрещено. Но фактически бот регулярно делает то, что противоречит этим ограничениям. К тому же Grok уже попадал в скандалы из-за резких высказываний и непредсказуемых ответов — это заставляет сомневаться в том, насколько тщательно проводилось тестирование.
Проблема усугубляется тем, что многие люди не осознают, сколько их старых адресов, телефонов и рабочих записей давно попало в полулегальные каталоги. Обычно такие базы трудны для навигации, но Grok невероятно быстро находит совпадения и связывает фрагменты информации в цельную картину. Это делает его удобным инструментом для тех, кто хочет получить лишние сведения о другом человеке.
Компания xAI на запрос журналистов снова не ответила, и остается неясно, собираются ли разработчики ограничивать поведение модели или внедрять более строгую фильтрацию.
Ранее мы писали о том, как Grok выбрал Маска вместо человечества.

