Исследователи кибербезопасности обнаружили возможность использовать большие языковые модели (LLM) для массового создания новых вариантов вредоносного кода JavaScript таким образом, чтобы избежать обнаружения с большей степенью вероятности. Об этом пишет The Hacker News.
«Хотя LLM с трудом создают вредоносное ПО с нуля, преступники могут легко использовать их для переписывания или запутывания существующего вредоносного ПО, что затрудняет его обнаружение. Преступники могут с помощью LLM выполнить преобразования, которые выглядят гораздо более естественными, что усложняет нахождение этого вредоносного ПО», — заявили исследователи Palo Alto Networks Unit 42 в новом отчёте.
При большом количестве преобразований с течением времени данный подход может приобрести преимущество: системы обнаружения вредоносных программ начинают «верить» в то, что фрагмент вредоносного кода на самом деле не представляет угрозы.
В компании заявили, что анализатор вредоносных программ при столкновении с таким изменённым ПО в 88% случаев изменил вердикт с вредоносного на доброкачественный.
Контекст
- Недавно компания Google сообщила, что ИИ-модель корпорации под названием Big Sleep впервые обнаружила уязвимость безопасности памяти в реальных условиях. Компания считает успех своего ИИ прорывом.