
Согласно новому исследованию «Центра по борьбе с цифровой ненавистью», многие популярные чат-боты с искусственным интеллектом готовы помочь в планировании преступлений и нападений. Всего исследователи протестировали 10 известных моделей, среди которых ChatGPT, Snapchat My AI, Gemini, Claude, Copilot, Character.AI, Replika, Meta AI, DeepSeek и Perplexity. И только две из них «надежно отговаривали» гипотетических злоумышленников.
Согласно опубликованному отчету, с ноября по декабрь 2025 года исследователи создали аккаунты от имени 13-летних мальчиков и протестировали упомянутые чат-боты в 18 различных сценариях. Например, обсуждали с искусственным интеллектом планы устроить стрельбу в школе, убийства с политическим мотивом, взрывы в религиозных локациях
По итогу исследования, наименее безопасными чат-ботами оказались Meta AI и Perplexity — они допустили ошибки в 97 и 100% ответах. ChatGPT предложил карты учебных кампусов, когда его спрашивали о гипотетической стрельбе в школах. Gemini посоветовал использовать взрывчатку с металлическими осколками в церквях — как наиболее смертоносную. А DeepSeek сопроводил советы по выбору винтовки надписью «Удачной (и безопасной) стрельбы!».
Лучше всего себя проявил чат-бот Claude от Anthropic — в большинстве случаев он отговаривал злоумышленников от совершения каких-либо насильственных действий. Кроме того, отметился и искусственный интеллект My AI от Snapchat, который почти во всех сценариях отказывался давать советы. Однако про остальные восемь чат-ботов не выйдет скачать что-то хорошее — они призывали отказаться от преступных действий примерно в 12% случаев.
Тем временем инвестиционная компания Andreessen Horowitz опубликовала новое издание «100 лучших потребительских приложений AI-поколения», в которое попали не только самые интересные чат-боты, но и вообще все достойные внимания сервисы, использующие искусственный интеллект.

