Учёным запретили использовать ИИ для написания статей

Руководители Международной конференции по машинному обучению (ICML) запретили учёным представлять статьи, созданные с помощью больших языковых моделей (LLM), таких как ChatGPT. Об этом сообщает SecurityLab со ссылкой на официальный сайт ICML. 

Академики ICML в целях защиты от плагиата запретили приём статей, созданных с помощью ИИ. Речь идёт о документах, содержащих сгенерированный текст, если он не является частью экспериментального анализа статьи. Однако учёным разрешено использовать ИИ для корректировки своего текста для улучшения стиля или грамматики. Стоит отметить, что эти правила не закреплены юридически, поэтому они ещё могут измениться в будущем.

На данный момент не существует инструментов, которые эффективно обнаруживают сгенерированный текст, поэтому ICML будет полагаться только на людей, которые отмечают подозрительные документы в процессе проверки. Языковые модели, такие как ChatGPT, обучаются на тексте из интернета. Они учатся находить общие закономерности между словами, чтобы предсказывать, что писать дальше, учитывая текстовую инструкцию или подсказку. Сейчас нет доказательств того, что ChatGPT напрямую копирует текст чужой статьи, но его результаты основаны на письме людей. 

Контекст 

  • В прошлом году исследователи из Пекинской академии искусственного интеллекта объявили о выпуске собственной нейросети глубокого обучения Wu Dao. Заявленные характеристики превышают показатели нашумевшего GPT-3.
Сергей Ким
Журналист, медиакритик, фотограф. Работал на телевидении и радио, сотрудничал с проектом «Радиоточка» до его закрытия в 2017 году. Возглавлял алматинскую редакцию проекта «Спутник-Казахстан», ведёт колонку медиакритики для проекта NewReporter.org