Студент колледжа Калифорнийского университета (США) Лиам Порр опубликовал в блоге фальшивое сообщение, созданное нейросетью. Ирония ситуации в том, что продукт искусственного интеллекта пользователи не признали за подделку и сообщение быстро оказалось в топе хакерского издания Hacker News. Об эксперименте сообщает MIT Technology.
Порр использовал последнюю версию нейросети GPT-3, разработанную компанией OpenAI. Он написал небольшой сценарий с заголовком и вступлением, а после из нескольких сгенерированных вариантов выбрал один, созданный почти без редактирования.
Уловка создания контента без особого редактирования заключалась в понимании сильных и слабых сторон GPT-3.
«У него неплохо получается красивый язык, но он не очень хорош в том, чтобы быть логичным и рациональным», — говорит Порр. Поэтому он выбрал популярную категорию блогов, не требующую строгой логики: продуктивность и самосовершенствование.
По словам студента, он хотел доказать, что GPT-3 можно выдать за автора-человека.И несмотря на странноватый стиль написания и случайные ошибки, только у троих или у четверых людей из десятков комментаторов публикации возникли подозрения в искусственности текста, и все эти комментарии были немедленно отвергнуты другими членами сообщества.
Порр говорит, что его эксперимент показывает вызывающую беспокойство возможность использования инструмента людьми для создания большого количества кликбейт-контента. По словам студента, «на самом деле это было очень легко, а потому пугающе».
Контекст
- GPT-3 – это последняя версия искусственного интеллекта от OpenAI. Даже предыдущие версии искусственного интеллекта компания OpenAI называла слишком опасными для обнародования.