ИИ может генерировать тысячи вариантов вредоносного ПО, уклоняясь от обнаружения

Исследователи кибербезопасности обнаружили возможность использовать большие языковые модели (LLM) для массового создания новых вариантов вредоносного кода JavaScript таким образом, чтобы избежать обнаружения с большей степенью вероятности. Об этом пишет The Hacker News

«Хотя LLM с трудом создают вредоносное ПО с нуля, преступники могут легко использовать их для переписывания или запутывания существующего вредоносного ПО, что затрудняет его обнаружение. Преступники могут с помощью LLM выполнить преобразования, которые выглядят гораздо более естественными, что усложняет нахождение этого вредоносного ПО», — заявили исследователи Palo Alto Networks Unit 42 в новом отчёте. 

При большом количестве преобразований с течением времени данный подход может приобрести преимущество: системы обнаружения вредоносных программ начинают «верить» в то, что фрагмент вредоносного кода на самом деле не представляет угрозы.

В компании заявили, что анализатор вредоносных программ при столкновении с таким изменённым ПО в 88% случаев изменил вердикт с вредоносного на доброкачественный.

Контекст 

  • Недавно компания Google сообщила, что ИИ-модель корпорации под названием Big Sleep впервые обнаружила уязвимость безопасности памяти в реальных условиях. Компания считает успех своего ИИ прорывом. 

Фактчек в Казахстане и Центральной Азии. Первый центральноазиатский фактчекинговый ресурс. Открыт в мае 2017 года. Член Международной сети фактчекинговых организаций (IFCN)

Factcheck.kz