Google представила инновационные «водяные знаки» для борьбы с фото-фейками

Идентификация дипфейк-изображений, сгенерированных искусственным интеллектом (ИИ), становится большой проблемой. Компания Google, представила инструмент под названием SynthID, который интересен с точки зрения идентификации созданных нейросетями картинок. О новинке сообщает SecurityLab.

Вместо того, чтобы просто распознавать готовые изображения, определяя вероятность их создания искусственным интеллектом, Google предлагает другой способ: SynthID будет встраивать в изображения цифровой водяной знак, абсолютно невидимый человеку, но легко распознаваемый ИИ. Это ключевой шаг к контролю над визуальными фейками и дезинформацией, считают в компании.

Попытки снабдить фотографии-дипфейки водяными знаками предпринимались ранее, однако прошлые итерации технологии были видимыми и легко убирались в том же фотошопе.

Сейчас акцент делается именно на том, что человек не сможет увидеть водяной знак (даже при манипуляциях с параметрами изображения), а значит и не сможет убрать его в целях распространения заведомо ложной информации. Зато специализированные сервисы будут в два щелчка определять генерацию.

Пока что новый инструмент доступен только в собственной генеративной нейросети Google под названием Imagen. Как пишет издание, вполне вероятно, что в будущем техногигант поделится технологией с крупными игроками рынка вроде Midjourney, Stable Diffusion и DALL-E, картинки которых сейчас составляют большую часть от всего сгенерированного визуального контента.

На официальном сайте Google сообщается, что SynthID не ставит под угрозу качество изображения и позволяет обнаружить водяной знак даже после добавления фильтров, изменения цветов и сохранения с использованием различных схем сжатия с потерями. Также упоминается, что новая технология встраивает цифровой водяной знак непосредственно в пиксели изображения.

Контекст

  • В конце прошлого года компания Intel заявила о создании уникальной технологии, с помощью которой появилась возможность в режиме реального времени отличить реального человека на видео от качественной подделки, выполненной искусственным интеллектом. 

Журналист, медиакритик, фотограф. Работал на ТВ (телеканалы «Алматы», Astana, КТК, 7 канал), в печатных и мультимедийных интернет-изданиях, сотрудничал с проектом «Радиоточка» до его закрытия в 2017 году, занимался медиакритикой в издании «Новый репортёр».

Factcheck.kz