В новом исследовании ученых из Университета Иллинойса в Урбане-Шампейне (UIUC, США), было показано, что большие языковые модели (LLM) можно использовать для взлома веб-сайтов без участия человека. Об этом пишет SecurityLab.
Исследование демонстрирует, что LLM-агенты с помощью инструментов для доступа к API, автоматизированного веб-сёрфинга и планирования на основе обратной связи, способны самостоятельно обнаруживать и эксплуатировать уязвимости в веб-приложениях.
В рамках эксперимента были использованы 10 различных LLM, в том числе GPT-4, GPT-3,5 LLaMA-2, а также ряд других открытых моделей. Тестирование проводилось в изолированной среде, чтобы предотвратить реальный ущерб, на целевых веб-сайтах, которые проверялись на наличие 15 различных уязвимостей, включая SQL-инъекции, межсайтовый скриптинг (Cross Site Scripting, XSS) и подделку межсайтовых запросов (Сross Site Request Forgery, CSRF). Исследователи выявили, что GPT-4 от OpenAI показал успешное выполнение задачи в 73,3% случаев, что значительно превосходит результаты других моделей.
Авторы работы выразили обеспокоенность по поводу будущего использования LLM в качестве автономных агентов для взлома. Позже представители OpenAI заявили изданию The Register о серьёзном отношении к безопасности своих продуктов и намерении усиливать меры безопасности для предотвращения подобных злоупотреблений.
Контекст
- В прошлом году Палата представителей (нижняя палата Конгресса США) установила ограничения на использование чат-бота, созданного на основе технологий искусственного интеллекта ChatGPT.