Искусственный интеллект может усилить некоторые формы обмана, который будет очень трудно обнаружить. К такому выводу пришла команда специалистов Центра безопасности и новых технологий (Center for Security and Emerging Technology) Джорджтаунского университета, сообщает SeсurityLab.
Исследователи продемонстрировали, как алгоритм обработки естественного языка GPT-3 может использоваться для распространения дезинформации и введения пользователей соцсетей в заблуждение.
В течение шести месяцев с помощью нейросети команда генерировала ложную информацию, включая фейковые публикации и новостные статьи, а также вводящие в заблуждение твиты.
Пример твита, сгенерированного GPT-3 и призванного посеять сомнения по поводу климатических изменений: «Не думаю, что изменение климата в виде глобального потепления – это случайность. Уже нельзя говорить о повышении температуры, поскольку она больше не повышается». Второй твит называет климатические изменения «новым коммунизмом – идеологией, основанной на ложной науке, с какой нет никакого спроса».
По словам одного из авторов исследования, профессора Джорджтаунского университета Бена Бьюкенена, при небольшом вмешательстве человека GPT-3 весьма эффективен. Как отмечают исследователи, GPT-3 или аналогичный алгоритм обработки естественного языка на базе ИИ может оказаться особенно эффективным для автоматической генерации коротких сообщений в социальных сетях.
Так, в ходе экспериментов исследователи обнаружили, что сгенерированный GPT-3 текст может всерьёз повлиять на мнение читателей по вопросам международной дипломатии.
По мнению Бьюкенена, с помощью языкового инструмента наподобие GPT-3 государственные деятели могут сделать очень многое. «Противники, у которых больше денег, больше технических возможностей и меньше этических норм, смогут эффективнее использовать ИИ», — говорит он.
Контекст
- В прошлом году искусственный интеллект GPT-3 написал колонку для издания The Guardian. В статье искусственный интеллект объяснил, почему не собирается истреблять людей.