Управление по делам интернета Китая (CAC) представило проект новых правил, направленных на регулирование маркировки ИИ-контента. Заявляется, что документ разработан с целью защиты нацбезопасности, общественных интересов, а также прав и законных интересов граждан, организаций и компаний. Об этом пишет SecurityLab.
Основная задача нового документа — создать единые стандарты маркировки контента, который генерируется или синтезируется с помощью ИИ. Проект правил определяет два вида маркировки:
- Явная маркировка — это те визуальные или аудиальные элементы, которые пользователи могут легко заметить в материалах, созданных ИИ. Это могут быть текстовые или графические значки, а также звуковые сигналы, указывающие на то, что контент был сгенерирован с использованием ИИ.
- Скрытая маркировка, в свою очередь, встраивается в метаданные файла и предназначена для более сложного обнаружения. Отметка включает такие данные, как атрибуты контента, имя или код провайдера услуги, а также номер файла.
В проекте правил отдельно выделено требование о том, что в случаях, когда пользователь загружает, копирует или экспортирует ИИ-контент, должны сохраняться все указанные метки и маркировки. Провайдеры услуг обязаны обеспечивать наличие таких меток на всех этапах взаимодействия с контентом.
Важно, что правила также касаются онлайн-платформ, которые распространяют контент в интернете. Сервисы должны проверять наличие метаданных с маркировкой и отображать соответствующую информацию для пользователей. Например, если платформа обнаруживает, что контент содержит скрытую маркировку, пользователям будет предоставляться явное уведомление о том, что перед ними материал, созданный с помощью ИИ. В случае, если маркировка отсутствует, но пользователь или провайдер услуг заявляют, что контент был сгенерирован ИИ, платформа также должна информировать об этом аудиторию.
На текущий момент проект находится на стадии общественного обсуждения, которое продлится до 14 октября 2024 года, после чего документ будет доработан с учётом полученных замечаний. Новые правила вступят в силу после утверждения и публикации окончательного варианта документа.
Контекст
- Идентификация дипфейк-изображений, сгенерированных искусственным интеллектом (ИИ), становится большой проблемой. В 2023 году компания Google, представила инструмент под названием SynthID, который интересен с точки зрения идентификации созданных нейросетями картинок.