Учёные из Стэнфорда создали виртуальные копии людей 

Группа учёных из Стэнфордского университета и Google DeepMind разработала технологию, позволяющую создавать виртуальные копии людей после непродолжительной беседы. Достаточно двухчасового интервью с искусственным интеллектом, чтобы система смогла воссоздать вашу личность, ценности и предпочтения с поразительной точностью. Об этом пишет SecurityLab

В исследовании приняли участие тысяча добровольцев разного возраста, пола, расы, образования и политических взглядов. Каждому заплатили до 100 долларов за прохождение опроса, на основе которого впоследствии были созданы их цифровые двойники.

В научной работе такие копии называются «симуляционными агентами». Они призваны для участия в исследованиях в социальных и других науках, где эксперименты с реальными людьми требуют больших затрат или могут оказаться непрактичными и неэтичными. Например, с помощью виртуальных двойников можно изучать эффективность борьбы с дезинформацией в социальных сетях или поведенческие причины дорожных заторов. Симуляционные агенты отличаются от инструментальных агентов, над которыми сейчас работают ведущие IT-компании. Salesforce, Anthropic и OpenAI разрабатывают ассистентов для выполнения конкретных задач: ввода данных, поиска информации, планирования поездок.

Для проверки точности воспроизведения личностных характеристик участники дважды с интервалом в две недели прошли серию тестов: психологические опросники, социальные исследования и логические игры. Затем те же задания выполнили их цифровые двойники. Результаты совпали на 85%.

Проверки включали: общий социальный опрос, измеряющий демографические показатели, уровень счастья и поведенческие паттерны. Также оценивалась «большая пятерка» личностных черт: открытость опыту, добросовестность, экстраверсия, доброжелательность и нейротизм (склонность к беспокойству).

Впрочем, виртуальные двойники хуже справились с поведенческими тестами вроде «игры диктатора», которая выявляет отношение к справедливости и этическим дилеммам. Существуют опасения, что описанная технология может быть использована во вред, если попадёт в массы. Это идеальный инструмент для создания дипфейков и манипулирования чужой личностью в интернете.

Контекст

  • Польская государственная радиостанция OFF Radio Krakow уволила десять своих журналистов. Слушателям представили трёх новых ведущих, созданных с помощью искусственного интеллекта. Однако всего через неделю после запуска смелого эксперимента радиостанция решила прекратить выпуск программ, генерируемых ИИ. 

Фактчек в Казахстане и Центральной Азии. Первый центральноазиатский фактчекинговый ресурс. Открыт в мае 2017 года. Член Международной сети фактчекинговых организаций (IFCN)

Factcheck.kz