
В Китае разработан проект правил, который устанавливает стандарты для фундаментальной части процесса создания ИИ. Речь идет не о запрете технологий, а о контроле над их эмоциями. Новый свод требований, вынесенный на общественное обсуждение до 25 января, впервые в мире напрямую нацелен на «антропоморфные» ИИ-сервисы — чат-ботов, которые притворяются людьми.
Главная цель, как указано в документе Управления киберпространства, — «предотвратить негативное эмоциональное воздействие». Проще говоря, государство хочет оградить граждан от потенциального психологического вреда, который может нанести слишком убедительный, манипулятивный виртуальный собеседник.
Если прошлые нормы следили за тем, что говорит ИИ, то эти правила контролируют, как он это говорит. Это переход от безопасности контента к эмоциональной безопасности, — поясняет Уинстон Ма, профессор права Нью-Йоркского университета.
Под прицелом — любые сервисы, имитирующие человеческую личность через текст, голос или видео. Им будет строго запрещено:
- Генерировать контент, поощряющий самоповреждение;
- Использовать вербальное насилие или методы эмоционального шантажа;
- Создавать материалы, связанные с азартными играми, насилием или порнографией.

Но самый жесткий пункт — процедура экстренного реагирования. Если пользователь прямо заявит о намерении причинить себе вред, система обязана мгновенно переключить диалог на живого оператора-человека и уведомить родственников или доверенных лиц.
Особый режим — для несовершеннолетних. Детям для общения с ИИ-компаньоном потребуется согласие родителей. Платформы должны будут уметь определять возраст «вслепую», по поведению, и автоматически включать максимальную защиту. А еще — напоминать о перерыве после двух часов непрерывного диалога.
Крупные сервисы с аудиторией от 1 миллиона пользователей или 100 тыс. активных ежемесячно ждет обязательная государственная проверка безопасности.
По мнению экспертов, этот шаг может стать трендом для всего мира. Китай, часто обвиняемый в излишнем контроле, здесь формально защищает психическое здоровье нации. Законодатели хотят оградить население от ИИ-манипуляций и сделать нейросети безопасным справочником, тотально обезличив технологию. Суть новых правил однозначна: эмоции — прерогатива человека, даже если это сделает ИИ скучнее.
Читайте также нашу статью о том, зачем чат-боты рушат семьи и делают нас глупее и кто в этом виноват.

