Китай потребовал от ИИ-чатботов следовать социалистическим ценностям

30.12.2025Евгения Слив

Центральная комиссия Китая по киберпространству опубликовала проект правил для антропоморфных ИИ-систем, имитирующих человеческие эмоции в текстах, видео или аудио, сообщает Bloomberg. Документ открыт для обсуждения до 25 января 2026 года и требует соответствия «основным социалистическим ценностям». ИИ обязан объявлять о своем искусственном происхождении, позволять удалять чаты и использовать данные только с согласия пользователей. Нормы охватывают эмоциональные взаимодействия, аналогичные чатботам.

Правила запрещают ИИ угрожать нацбезопасности, распространять слухи, подстрекать к религии, клеветать или оскорблять. Нельзя поощрять насилие, суицид, манипулировать эмоциями для плохих решений или запрашивать секреты. Разработчики не смогут создавать зависимые системы, заменяющие человеческие связи, — после двух часов работы всплывет напоминание о перерыве. При угрозе суицида ИИ передаст чат оператору.

Регуляции отражают контроль Китая над ИИ на фоне глобальной гонки технологий. Подобные нормы усиливают безопасность, но ограничивают инновации в чувствительных зонах. Инвесторам стоит учитывать риски цензуры при оценке азиатских тех-компаний на растущем рынке искусственного интеллекта.