Google сообщила, что ИИ-модель корпорации под названием Big Sleep впервые обнаружила уязвимость безопасности памяти в реальных условиях. О том, что Google считает успех своего ИИ прорывом, пишет SecurityLab.
LLM-инструмент для поиска ошибок Big Sleep был разработан в сотрудничестве с DeepMind. По словам компании, разработка является эволюцией предыдущего проекта Naptime, представленного в июне.
SQLite, популярный движок баз данных с открытым исходным кодом, столкнулся с проблемой, которая могла позволить злоумышленникам вызвать сбой системы или даже выполнить произвольный код.
Традиционные методы обнаружения уязвимостей, такие как фаззинг, не смогли найти данную проблему. Однако ИИ-модель впервые в мире обнаружила ранее неизвестную уязвимость в широко используемом программном обеспечении. Big Sleep зафиксировал недостаток в начале октября, анализируя изменения в исходном коде проекта, и разработчики SQLite оперативно устранили уязвимость в тот же день, не дав ей попасть в официальный релиз.
Контекст
- Искусственный интеллект (ИИ) и чат-боты не способны противодействовать дезинформации накануне президентских выборов в США 2024 года. К такому выводу пришла исследовательская группа NewsGuard после очередного анализа работы инструментов генеративного ИИ.