«Яндекс» запустил генератор текстов «Балабоба»: аналог GPT-3 умеет дописывать истории

Компания «Яндекс» запустила генератор текстов «Балабоба». Он основан на языковой модели YaLM (Yet another Language Model), аналоге GPT-3 от компании Open AI и других нейросетей. Об этом сообщается на сайте компании-разработчика.

«YaLM обучена на части индексируемых Яндексом страниц рунета, включая не только Википедию, новостные статьи и книги, но и открытые записи пользователей социальных сетей и форумов. Чтобы не перегружать модель, из выборки вычистили повторяющиеся, незаконченные и неестественные тексты. Но главная особенность YaLM — умение учиться новому всего на нескольких примерах: чтобы языковая модель написала осмысленные отзывы на фильмы, тосты для застолья или теории заговора, ей хватит от пяти до нескольких десятков примеров того, как такие тексты надо писать», — говорится в справочнике компании.

При переходе на сайт пользователи видят предупреждение со значком «18+»: «Нейросеть не знает, что говорит, и может сказать всякое — если что, не обижайтесь. Распространяя получившиеся тексты, помните об ответственности». 

скриншот страницы “Балабоба”

Основной интерфейс простой: пользователь может выбирать стиль текста (в списке есть «ТВ-репортажи» и «Теории заговора»), текст набирается в специальном окне. После введения нескольких слов можно нажать кнопку «Набалаболить» и генератор дописывает мини-историю. 

скриншот “Балабоба”

Интересно, что после того, как автор Factcheck.kz написал в окне «Сторонники QAnon» при выбранном стиле «Теории заговора», нейросеть отказалась дописывать текст, показав предупреждение: «Генератор не принимает запросы на острые и чувствительные темы вроде политики или религии». Аналогичное предупреждение всплыло после ввода слов «Байден и Путин».

скриншот “Балабоба”

Контекст 

  • Недавно исследователи из Пекинской академии искусственного интеллекта объявили о выпуске собственной нейросети глубокого обучения Wu Dao. Заявленные характеристики намного превышают показатели нашумевшего GPT-3.
  • Нейросеть GPT-2, которая способна создавать реалистичные истории, стихи и статьи, была обновлена в 2019 году, когда появилась GPT-3 — модернизация сопровождалась заявлениями, что система теперь почти так же хороша, как писатель-человек. Генератор текста, созданный исследовательской фирмой OpenAI, с самого начала считался «слишком опасным», чтобы обнародовать его из-за возможного злоупотребления. Выход более мощной версии, которая может использоваться для создания поддельных новостей или оскорбительного спама в социальных сетях многие восприняли с опаской.  
  • В 2020 году редакция The Guardian дала GPT-3 задание написать колонку примерно на 500 слов ясным и лаконичным языком. Была заявлена тема — почему люди могут не бояться искусственного интеллекта. GPT-3 объяснил, что не собирается убивать человечество, а люди должны больше доверять роботам.
Внесите свой вклад в борьбу с дезинформацией!
Сергей Ким
Журналист, медиакритик, фотограф. Работал на телевидении и радио, сотрудничал с проектом «Радиоточка» до его закрытия в 2017 году. Возглавлял алматинскую редакцию проекта «Спутник-Казахстан», ведёт колонку медиакритики для проекта NewReporter.org