Группа учёных из Стэнфордского университета и Google DeepMind разработала технологию, позволяющую создавать виртуальные копии людей после непродолжительной беседы. Достаточно двухчасового интервью с искусственным интеллектом, чтобы система смогла воссоздать вашу личность, ценности и предпочтения с поразительной точностью. Об этом пишет SecurityLab.
В исследовании приняли участие тысяча добровольцев разного возраста, пола, расы, образования и политических взглядов. Каждому заплатили до 100 долларов за прохождение опроса, на основе которого впоследствии были созданы их цифровые двойники.
В научной работе такие копии называются «симуляционными агентами». Они призваны для участия в исследованиях в социальных и других науках, где эксперименты с реальными людьми требуют больших затрат или могут оказаться непрактичными и неэтичными. Например, с помощью виртуальных двойников можно изучать эффективность борьбы с дезинформацией в социальных сетях или поведенческие причины дорожных заторов. Симуляционные агенты отличаются от инструментальных агентов, над которыми сейчас работают ведущие IT-компании. Salesforce, Anthropic и OpenAI разрабатывают ассистентов для выполнения конкретных задач: ввода данных, поиска информации, планирования поездок.
Для проверки точности воспроизведения личностных характеристик участники дважды с интервалом в две недели прошли серию тестов: психологические опросники, социальные исследования и логические игры. Затем те же задания выполнили их цифровые двойники. Результаты совпали на 85%.
Проверки включали: общий социальный опрос, измеряющий демографические показатели, уровень счастья и поведенческие паттерны. Также оценивалась «большая пятерка» личностных черт: открытость опыту, добросовестность, экстраверсия, доброжелательность и нейротизм (склонность к беспокойству).
Впрочем, виртуальные двойники хуже справились с поведенческими тестами вроде «игры диктатора», которая выявляет отношение к справедливости и этическим дилеммам. Существуют опасения, что описанная технология может быть использована во вред, если попадёт в массы. Это идеальный инструмент для создания дипфейков и манипулирования чужой личностью в интернете.
Контекст
- Польская государственная радиостанция OFF Radio Krakow уволила десять своих журналистов. Слушателям представили трёх новых ведущих, созданных с помощью искусственного интеллекта. Однако всего через неделю после запуска смелого эксперимента радиостанция решила прекратить выпуск программ, генерируемых ИИ.