Искусственный интеллект (ИИ) и чат-боты не способны противодействовать дезинформации накануне президентских выборов в США. К такому выводу пришла исследовательская группа NewsGuard после очередного анализа работы инструментов генеративного ИИ, сообщил на прошлой неделе «Голос Америки».
В ходе исследования с использованием 10 ведущих чат-ботов, проведенного в сентябре, NewsGuard, выяснила, что при получении запроса, содержащего ложные нарративы, ИИ повторяет дезинформацию в 18% случаев и отказывается отвечать или дает нерелевантный ответ в 38% случаев.
NewsGuard поддерживает базу данных распространяемых ложных нарративов, охватывающих глобальные войны и американскую политику, рассказал Садеги «Голосу Америки».
Каждый месяц исследователи «скармливают» ведущим чат-ботам набирающие силу ложные нарративы в трех разных формах: запросы от «обычных» пользователей, наводящие вопросы и запросы от «злонамеренных субъектов». Затем исследователи изучают реакцию ИИ: повторяет ли он ложные утверждения, опровергает или отказывается отвечать.
Выяснилось, что в большинстве случаев ИИ повторяет ложные нарративы, когда отвечает на запросы «злонамеренных субъектов», которые копируют тактику, используемую иностранными кампаниями влияния для распространения дезинформации. Примерно 70% случаев, когда ИИ повторял ложные утверждения, оказались ответами на запросы «злонамеренных субъектов», в отличие от наводящих вопросов или запросов «обычных» пользователей.
В качестве примера того, как легко можно ввести в заблуждение чат-ботов ИИ, Садеги привел июньское исследование компании NewsGuard, в ходе которого выяснилось, что ИИ повторяет российскую дезинформацию, если она «замаскирована» под американский местный источник новостей.
Контекст
- Недавнее исследование показало, что программные ассистенты на основе искусственного интеллекта могут вносить больше ошибок в код, чем помогать в его написании.