В Google Image Search все чаще появляются искусственно сгенерированные изображения знаменитостей в купальниках и даже обнаженном виде. Причем поисковик выдает эти снимки без указания на то, что они были созданы с помощью ИИ. Кликая по картинкам, пользователи попадают на специализированные сайты для генерации контента с помощью нейросетей. А встроенные в них рекомендательные системы предлагают ещё больше снимков обнажённых знаменитостей или вовсе порнографические материалы, также созданные генеративными моделями. Об этом сообщает SecurityLab со ссылкой на 404 Media и журналиста Эмануэля Окусаме, который обнаружил озвученную проблему.
Окусаме столкнулся с поисковой выдачей фейков совершенно случайно. Он работал над материалом о том, как фанатские страницы Тейлор Свифт и других знаменитостей в Facebook оказались наводнены порнографией и мошенническим контентом. Для проверки он искал в Google фотографию певицы с высунутым языком, чтобы убедиться, является ли она настоящей или отредактированной.
Набрав «тейлор свифт пляж солнцезащитные очки высунутый язык», Окусаме получил в числе первых результатов сразу несколько сгенерированных ИИ снимков исполнительницы. Один из них, взятый с японской страницы в Pinterest, выглядел достаточно реалистично. Другой, с сайта Neural Love, содержал типичные для ИИ-изображений артефакты и явно был фейковым.
Учитывая, что оба результата находились на первой странице выдачи, журналист решил проверить, будет ли Google систематически показывать сгенерированные фотографии знаменитостей в купальниках и бикини при добавлении этих ключевых слов в поиск. Он протестировал 13 имен известных женщин — от мегапопулярных звезд до менее раскрученных блогеров и стримеров. И для каждого случая Google выдавал искусственно созданные ИИ-изображения.
В 404 Media предупреждают, что наплыв искусственно созданных изображений и иллюстраций со знаменитостями в интернете, похоже, только набирает обороты. Ранее они уже освещали похожие проблемы с ИИ-контентом в Facebook и на других платформах. По мнению специалистов, в ближайшем будущем последствия развития технологий искусственного интеллекта могут кардинально изменить привычные нам поисковики и принципы их работы.
Контекст
- В апреле 2024 года на Reddit был опубликован аэрофотоснимок пруда рядом с домом, а в подписи утверждалось, что человек, разглядывавший свой старый район в Google Earth, нашел мёртвым мужчину, который пропал без вести два десятка лет назад. Фактчекеры выяснили, что это правдивая история.