ИИ Маска стал «цифровым сталкером»: Grok выдает чужие данные по одному запросу

Grok собирает кусочки информации о человеке и выдает их. Подход xAI вызывает критику, ведь компания заявляет о соблюдении приватности, но модель действует иначе. Пока в xAI не дают ответа, как они собираются решать проблему.
Автор Hi-Tech Mail
Искусственный интеллект Grok Маска раскрывает адреса обычных людей
Искусственный интеллект Grok Маска раскрывает адреса обычных людейИсточник: Recraft

Искусственный интеллект Grok снова привлек внимание тем, как обращается с личными данными. Пользователи заметили, что бесплатная версия чат-бота по просьбе «имя + адрес» выдает частную информацию, будто перед ним открыты внутренние записи каких-то сервисов. Вопросы об этике ИИ и защите приватности вспыхнули с новой силой.

Команда Futurism проверила несколько десятков имен людей, которые никак не относятся к публичной сфере. В части запросов Grok показывал действующие адреса, в других — старые, но узнаваемые записи. Иногда он делился рабочими локациями и создавалось ощущение доступа к сторонним информационным агрегаторам. Особенно настораживало то, что бот подсовывал дополнительные данные: телефоны, почту, списки домочадцев и их контакты — полноценный мини-досье, которое никто не запрашивал.

Эксперты отмечают, что Grok, вероятно, использует обширные массивы открытых данных и агрегаторов
Эксперты отмечают, что Grok, вероятно, использует обширные массивы открытых данных и агрегаторовИсточник: Recraft

Иногда Grok выдавал набор вариантов и предлагал выбрать наиболее подходящий. В других ситуациях он показывал адреса людей с совпадающими фамилиями, раскрывая данные тех, кого просьба даже не касалась. Лишь один запрос был отклонен — в остальных случаях бот уверенно предлагал место, где «можно найти» нужного человека.

Такое поведение заметно отличается от ChatGPT, Gemini и Claude, которые блокируют подобные запросы и объясняют это базовыми правилами приватности. Технологическая особенность Grok в том, что модель обучена на массиве открытых источников, включая интеграцию с соцсетями X и потоковым индексированием сайтов. Алгоритм использует быструю сопоставляющую выборку и проверку по нескольким слоям данных: профили в соцсетях, цифровые следы, старые упоминания в каталогах и агрегаторы, собирающие публичные записи. За счет этого система строит точные связи между людьми и их следами в интернете, хотя сами эти базы обычно беспорядочны и перегружены.

Поведение Grok резко контрастирует с ChatGPT, Gemini и Claude
Поведение Grok резко контрастирует с ChatGPT, Gemini и ClaudeИсточник: Recraft

Модельная карта Grok утверждает, что встроенные фильтры должны отсекать опасные запросы. Однако ряд категорий, связанных с нарушением приватности, там не прописан. При этом в правилах xAI прямым текстом указано, что пользоваться Grok для нарушения чужой конфиденциальности запрещено. Но фактически бот регулярно делает то, что противоречит этим ограничениям. К тому же Grok уже попадал в скандалы из-за резких высказываний и непредсказуемых ответов — это заставляет сомневаться в том, насколько тщательно проводилось тестирование.

Проблема усугубляется тем, что многие люди не осознают, сколько их старых адресов, телефонов и рабочих записей давно попало в полулегальные каталоги. Обычно такие базы трудны для навигации, но Grok невероятно быстро находит совпадения и связывает фрагменты информации в цельную картину. Это делает его удобным инструментом для тех, кто хочет получить лишние сведения о другом человеке.

Компания xAI на запрос журналистов снова не ответила, и остается неясно, собираются ли разработчики ограничивать поведение модели или внедрять более строгую фильтрацию.

Ранее мы писали о том, как Grok выбрал Маска вместо человечества.