Новость
Китай ужесточил контроль над ИИ из-за угрозы авторитету Компартии
Опубликовано: December 24, 2025 at 03:33 PM
~3 мин чтения
Описание новости
Китайские регуляторы обязали ИИ-компании обучать боты на «безопасных» данных и тестировать их: системы должны отклонять 95% вопросов, способных привести к «подрыву госстроя». При этом Пекин не хочет чрезмерно давить на отрасль
Фото: Cheng Xin / Getty Images
Власти Китая ужесточили регулирование искусственного интеллекта, опасаясь, что развитие чат-ботов может подорвать авторитет Коммунистической партии, сообщает The Wall Street Journal. Правительство считает ИИ важной частью экономического и военного будущего страны, но в то же время допускает, что технология «может дестабилизировать общество».
В ноябре в Китае вступили в силу новые правила, согласно которым ИИ-компании должны обучать чат-боты на данных, которые не содержат «политически чувствительный контент». Все тексты, видео и изображения, созданные с помощью искусственного интеллекта, должны быть маркированы.
Регламент подготовили власти совместно с ведущими компаниями, специализирующимися на ИИ, включая Alibaba и DeepSeek. Он предписывает разработчикам оценивать тысячи единиц обучающих данных для каждого формата — текста, видео или изображения. Минимум 96% контента должны считаться «безопасными». Опасными считаются материалы, связанные с «подстрекательством к подрыву государственной власти», призывами к насилию и дискриминации или использующие чужие изображения без разрешения.
Регуляторы обязали компании тестировать ботов перед запуском: системы должны отклонять не менее 95% вопросов, которые способны «вызвать реакции, ведущих к подрыву государственного строя или дискриминации»
За три месяца с апреля власти удалили около 960 тыс. единиц «незаконного или вредного» контента.
Китай включил ИИ в Национальный план реагирования на чрезвычайные ситуации наряду с землетрясениями и эпидемиями. В апреле председатель КНР Си Цзиньпин заявил, что технологии искусственного интеллекта несут «беспрецедентные возможности развития, но также и беспрецедентные риски и вызовы». В то же время, пишет WSJ, власти не хотят слишком сильно давить на отрасль, чтобы не потерять конкурентоспособность с США.
Фото: Cheng Xin / Getty Images
Власти Китая ужесточили регулирование искусственного интеллекта, опасаясь, что развитие чат-ботов может подорвать авторитет Коммунистической партии, сообщает The Wall Street Journal. Правительство считает ИИ важной частью экономического и военного будущего страны, но в то же время допускает, что технология «может дестабилизировать общество».
В ноябре в Китае вступили в силу новые правила, согласно которым ИИ-компании должны обучать чат-боты на данных, которые не содержат «политически чувствительный контент». Все тексты, видео и изображения, созданные с помощью искусственного интеллекта, должны быть маркированы.
Регламент подготовили власти совместно с ведущими компаниями, специализирующимися на ИИ, включая Alibaba и DeepSeek. Он предписывает разработчикам оценивать тысячи единиц обучающих данных для каждого формата — текста, видео или изображения. Минимум 96% контента должны считаться «безопасными». Опасными считаются материалы, связанные с «подстрекательством к подрыву государственной власти», призывами к насилию и дискриминации или использующие чужие изображения без разрешения.
Регуляторы обязали компании тестировать ботов перед запуском: системы должны отклонять не менее 95% вопросов, которые способны «вызвать реакции, ведущих к подрыву государственного строя или дискриминации»
За три месяца с апреля власти удалили около 960 тыс. единиц «незаконного или вредного» контента.
Китай включил ИИ в Национальный план реагирования на чрезвычайные ситуации наряду с землетрясениями и эпидемиями. В апреле председатель КНР Си Цзиньпин заявил, что технологии искусственного интеллекта несут «беспрецедентные возможности развития, но также и беспрецедентные риски и вызовы». В то же время, пишет WSJ, власти не хотят слишком сильно давить на отрасль, чтобы не потерять конкурентоспособность с США.
Источник: MainNews
Категория: Новости