GPT-4 может эффективно взламывать сайты без участия человека 

В новом исследовании ученых из Университета Иллинойса в Урбане-Шампейне (UIUC, США), было показано, что большие языковые модели (LLM) можно использовать для взлома веб-сайтов без участия человека. Об этом пишет SecurityLab

Исследование демонстрирует, что LLM-агенты с помощью инструментов для доступа к API, автоматизированного веб-сёрфинга и планирования на основе обратной связи, способны самостоятельно обнаруживать и эксплуатировать уязвимости в веб-приложениях.

В рамках эксперимента были использованы 10 различных LLM, в том числе GPT-4, GPT-3,5 LLaMA-2, а также ряд других открытых моделей. Тестирование проводилось в изолированной среде, чтобы предотвратить реальный ущерб, на целевых веб-сайтах, которые проверялись на наличие 15 различных уязвимостей, включая SQL-инъекции, межсайтовый скриптинг (Cross Site Scripting, XSS) и подделку межсайтовых запросов (Сross Site Request Forgery, CSRF). Исследователи выявили, что GPT-4 от OpenAI показал успешное выполнение задачи в 73,3% случаев, что значительно превосходит результаты других моделей.

Авторы работы выразили обеспокоенность по поводу будущего использования LLM в качестве автономных агентов для взлома. Позже представители OpenAI заявили изданию The Register о серьёзном отношении к безопасности своих продуктов и намерении усиливать меры безопасности для предотвращения подобных злоупотреблений. 

Контекст

  • В прошлом году Палата представителей (нижняя палата Конгресса США) установила ограничения на использование чат-бота, созданного на основе технологий искусственного интеллекта ChatGPT. 

Журналист, медиакритик, фотограф. Работал на ТВ (телеканалы «Алматы», Astana, КТК, 7 канал), в печатных и мультимедийных интернет-изданиях, сотрудничал с проектом «Радиоточка» до его закрытия в 2017 году, занимался медиакритикой в издании «Новый репортёр».

Factcheck.kz