Open AI сообщила, что её инструменты используются в информационной войне

OpenAI, создатель ChatGPT, сообщила, что обнаружила использование своих инструментов искусственного интеллекта (ИИ) для создания и распространения дезинформации в операциях, связанных с Китаем, Ираном и Израилем. В условиях обострения информационной войны на фоне выборов, технологии становятся мощным оружием, пишет SecurityLab. При этом, политика OpenAI запрещает использование её моделей для обмана или введения в заблуждение.

Компания в своем отчёте, опубликованном в последних числах мая, заявила, что несколько скрытых операций использовали её модели ИИ для генерации текста и изображений в больших объёмах с меньшим количеством ошибок, чем ранее. Это включало создание комментариев или ответов на собственные публикации. 

Содержание дезинформации касалось таких тем, как «конфликт в Газе, выборы в Индии, политика в Европе и США, а также критика китайского правительства со стороны китайских диссидентов и иностранных правительств», говорится в отчёте OpenAI.

ИИ использовался также для повышения собственной продуктивности, и применялся для отладки кода, а также исследования активности в социальных сетях.

Наряду с Китаем, Ираном и Израилем, связанных с «дезинформационной» активностью, как пишет Reuters, в отчёте также называется Россия.

Контекст 

  • Недавно OpenAI анонсировала новую флагманскую модель генеративного искусственного интеллекта под названием GPT-4o — буква «o» означает «omni» (с англ. «всесторонний»). Этим подразумевается способность модели обрабатывать текст, устную речь и видео. 

Фактчек в Казахстане и Центральной Азии. Первый центральноазиатский фактчекинговый ресурс. Открыт в мае 2017 года. Член Международной сети фактчекинговых организаций (IFCN)

Factcheck.kz