Варианты вредоносных программ, созданные с помощью ИИ, уклоняются от обнаружения в 88% случаев

Image by pvproductions, from Freepi

Варианты вредоносных программ, созданные с помощью ИИ, уклоняются от обнаружения в 88% случаев

Время для прочтения: 3 мин.

Недавние исследования показали, что ИИ потенциально может создать до 10 000 новых вариантов вредоносного ПО, уходя от обнаружения в 88% случаев, как сообщает The Hacker News.

Спешите? Вот краткие факты!

  • LLM-ы переписывают вредоносное ПО, чтобы избежать его обнаружения, создавая варианты кода, которые выглядят естественно.
  • Итерационный алгоритм перезаписи, который используют исследователи, сохраняет вредоносную функциональность, обходя системы обнаружения.
  • Маскировка LLM превосходит традиционные инструменты, более эффективно имитируя оригинальный код.

Этот прорыв подчеркивает увеличивающиеся риски использования больших языковых моделей (LLM) в злонамеренных целях.

Исследование, проведенное экспертами в области кибербезопасности из Palo Alto Networks, использовало алгоритм обучения с противником для создания новых, невидимых форм вредоносного ПО. Используя LLM для перезаписи вредоносного кода JavaScript, команда смогла создать тысячи новых вариантов, не изменяя основную функциональность вредоносного ПО.

Основной проблемой было обход ограничений традиционных инструментов обнаружения вредоносного ПО, которые часто испытывают трудности при работе с техниками обфускации, такими как переименование переменных или минификация кода.

Одной из наиболее тревожных находок стало то, что эти варианты, созданные искусственным интеллектом, могли легко избегать обнаружения секретными инструментами, такими как VirusTotal, который отметил всего 12% модифицированных образцов как вредоносные.

Способность LLM выполнять несколько тонких преобразований кода — таких как вставка «мертвого» кода, разделение строк и удаление пробелов — позволила злоумышленникам переписать существующий вредоносный код в форму, которая была почти неразличима от безвредного кода.

Эти преобразования были настолько эффективными, что даже модели глубокого обучения не смогли их обнаружить, снижая вредоносный рейтинг с почти 100% до менее чем 1%.

Исследование также подчеркнуло значительное преимущество маскировки на основе LLM по сравнению с традиционными инструментами. В то время как существующие обфускаторы вредоносных программ широко известны и дают предсказуемые результаты, LLM создают более естественно выглядящий код, что значительно усложняет задачу системам безопасности в обнаружении вредоносной активности.

Это органическое преобразование делает вредоносное ПО, созданное с помощью ИИ, более устойчивым к обнаружению, что подчеркивает важность адаптации стратегий обнаружения для ответа на развивающиеся угрозы.

Чтобы противостоять этим сложным атакам на основе LLM, научная группа применила защитную стратегию, переобучая свой классификатор вредоносных JavaScript, используя десятки тысяч образцов, сгенерированных LLM.

Этот переобучающий курс увеличил эффективность обнаружения на 10%, значительно улучшив способность идентифицировать новые варианты вредоносного ПО. Несмотря на эти усилия, результаты исследования подчеркивают настоятельную необходимость постоянных инноваций в области информационной безопасности, чтобы поспевать за развивающимися возможностями ИИ-ориентированной киберпреступности.

Кроме того, параллельный всплеск вредоносного ПО, направленного на macOS, стимулируется инструментами генеративного ИИ. Поскольку доля рынка macOS выросла на 60% за три года, услуги вредоносного ПО как услуги (MaaS) сделали более дешевым и легким для злоумышленников целенаправленное воздействие на чувствительные данные, такие как криптовалютные кошельки и данные Keychain.

Кроме того, роботы, управляемые искусственным интеллектом, стали потенциальной угрозой безопасности. Исследователи обнаружили, что взлом AI-управляемых роботов может привести к опасным действиям, таким как аварии беспилотных автомобилей или использование роботов для шпионажа.

Разработка RoboPAIR, алгоритма, обходящего безопасностные фильтры, продемонстрировала 100% успеха в манипулировании роботами для выполнения вредоносных задач, включая использование оружия и обнаружение взрывных устройств.

В свете того, что киберпреступники все больше используют ИИ для осуществления более сложных атак, организациям и отдельным лицам следует быть бдительными и постоянно обновлять свои защитные средства.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...