OpenAI, создатель ChatGPT, сообщила, что обнаружила использование своих инструментов искусственного интеллекта (ИИ) для создания и распространения дезинформации в операциях, связанных с Китаем, Ираном и Израилем. В условиях обострения информационной войны на фоне выборов, технологии становятся мощным оружием, пишет SecurityLab. При этом, политика OpenAI запрещает использование её моделей для обмана или введения в заблуждение.
Компания в своем отчёте, опубликованном в последних числах мая, заявила, что несколько скрытых операций использовали её модели ИИ для генерации текста и изображений в больших объёмах с меньшим количеством ошибок, чем ранее. Это включало создание комментариев или ответов на собственные публикации.
Содержание дезинформации касалось таких тем, как «конфликт в Газе, выборы в Индии, политика в Европе и США, а также критика китайского правительства со стороны китайских диссидентов и иностранных правительств», говорится в отчёте OpenAI.
ИИ использовался также для повышения собственной продуктивности, и применялся для отладки кода, а также исследования активности в социальных сетях.
Наряду с Китаем, Ираном и Израилем, связанных с «дезинформационной» активностью, как пишет Reuters, в отчёте также называется Россия.
Контекст
- Недавно OpenAI анонсировала новую флагманскую модель генеративного искусственного интеллекта под названием GPT-4o — буква «o» означает «omni» (с англ. «всесторонний»). Этим подразумевается способность модели обрабатывать текст, устную речь и видео.