ИИ впервые превзошел человека в поиске уязвимостей программного обеспечения 

Google сообщила, что ИИ-модель корпорации под названием Big Sleep впервые обнаружила уязвимость безопасности памяти в реальных условиях. О том, что Google считает успех своего ИИ прорывом, пишет SecurityLab.

LLM-инструмент для поиска ошибок Big Sleep был разработан в сотрудничестве с DeepMind. По словам компании, разработка является эволюцией предыдущего проекта Naptime, представленного в июне.

SQLite, популярный движок баз данных с открытым исходным кодом, столкнулся с проблемой, которая могла позволить злоумышленникам вызвать сбой системы или даже выполнить произвольный код.

Традиционные методы обнаружения уязвимостей, такие как фаззинг, не смогли найти данную проблему. Однако ИИ-модель впервые в мире обнаружила ранее неизвестную уязвимость в широко используемом программном обеспечении. Big Sleep зафиксировал недостаток в начале октября, анализируя изменения в исходном коде проекта, и разработчики SQLite оперативно устранили уязвимость в тот же день, не дав ей попасть в официальный релиз.

Контекст

  • Искусственный интеллект (ИИ) и чат-боты не способны противодействовать дезинформации накануне президентских выборов в США 2024 года. К такому выводу пришла исследовательская группа NewsGuard после очередного анализа работы инструментов генеративного ИИ. 

Фактчек в Казахстане и Центральной Азии. Первый центральноазиатский фактчекинговый ресурс. Открыт в мае 2017 года. Член Международной сети фактчекинговых организаций (IFCN)

Factcheck.kz