
Беспрецедентные меры контроля над искусственным интеллектом (ИИ) вводят власти Китая 25 декабря сообщает The Wall Street Journal. Новые меры вызваны опасениями Компартии Китая утратить власть из-за развития нейросетей, которые могут генерировать ответы на запросы о запрещенных темах, «подрывающих государственную власть».
В связи с этим вводятся новые правила, включающие обязательную цензуру данных, на которых обучается ИИ. А также вводятся «идеологические тесты» перед релизом моделей нейросетей. Согласно новым правилам, ИИ-компании обязаны вручную проверять обучающий материал. 96% контента дожно быть признано «безопасным», чтобы нейросети могли учиться на нем. Список «небезопасного» состоит из 31 риска. Главный — любые намеки на «подрыв государственной власти и свержение социалистической системы». Следующими названы: пропаганда насилия, фейки, дискриминация, использование чьей-то внешности без разрешения. Несмотря на заявление Си Цзиньпина о «беспрецедентных рисках», которые несет ИИ, власти понимают, что чрезмерное ужесточение контроля затормозит страну в глобальной ИИ-гонке. Поэтому необходим баланс между инновациями и ограничениями, чтобы усидеть на двух стульях. Пока Китаю это удается и конкурентоспособность китайских аналогов DeepSeek сохраняется. В ноябре 2025 года власти Китая ввели новые правила для разработчиков ИИ. WSJ сравнивает многоуровневую систему контроля с кухней ресторана: на входе «ингредиенты», то есть данные для обучения, а на выходе — «блюда», то есть ответы нейросети. Новые правила определяют, какие «ингредиенты» можно добавлять, а затем «пробуют блюдо перед подачей». Кроме того, была введена обязательная регистрация пользователей нейросетей по паспорту или номеру телефона. ИИ-компании обязали сохранять запросы пользователей, касающиеся запрещенных тем и докладывать представителям власти. glavno.smi.today
Свежие комментарии