![Критический недостаток в безопасности обнаружен в AI-фреймворке Meta](https://ru.wizcase.com/wp-content/uploads/2025/01/Screenshot-2025-01-26-at-20.06.26.webp)
Image by standret, from Freepik
Критический недостаток в безопасности обнаружен в AI-фреймворке Meta
Была обнаружена серьезная уязвимость в безопасности, CVE-2024-50050, в открытом исходном коде Meta для генеративного ИИ, известного как Llama Stack.
Спешите? Вот краткая информация!
- Уязвимость, CVE-2024-50050, позволяет выполнять удаленное выполнение кода через ненадежные десериализованные данные.
- Meta устранила эту проблему в версии 0.0.41, используя более безопасную реализацию Pydantic JSON.
- Уязвимость получила 9.3 (критический уровень) по шкале CVSS 4.0 из-за своей возможности эксплуатации.
Этот недостаток, раскрытый командой Oligo Research, может позволить злоумышленникам удаленно выполнять вредоносный код на серверах, использующих данную платформу. Уязвимость, вызванная небезопасной обработкой сериализованных данных, подчеркивает продолжающиеся сложности в обеспечении безопасности инструментов разработки AI.
Стек Llama, представленный компанией Meta в июле 2024 года, поддерживает разработку и развертывание AI-приложений, построенных на моделях Llama от Meta. Исследовательская команда объясняет, что недостаток заключается в его сервере по умолчанию, который использует библиотеку pyzmq Python для обработки данных.
Конкретный метод, recv_pyobj, автоматически обрабатывает данные с помощью незащищенного модуля pickle Python. Это позволяет злоумышленникам отправлять вредоносные данные, которые выполняют несанкционированный код. Исследователи говорят, что при экспозиции через сеть, серверы, работающие в конфигурации по умолчанию, становятся уязвимыми для удаленного выполнения кода (RCE).
Такие атаки могут привести к краже ресурсов, утечке данных или незаконному контролю над системами ИИ. Уязвимость получила критический рейтинг CVSS 9.3 (из 10) от компании по обеспечению безопасности Snyk, хотя Meta оценила ее как умеренно серьезную — 6.3, как сообщает Oligo.
Исследователи из Oligo обнаружили этот недостаток в ходе анализа открытых исходных кодов AI. Несмотря на быстрый рост популярности Llama Stack — он возрос с 200 звезд на GitHub до более чем 6,000 в течение нескольких месяцев — команда отметила рискованное использование pickle для десериализации, что является обычной причиной уязвимостей RCE.
Чтобы воспользоваться уязвимостью, злоумышленники могут сканировать открытые порты, отправлять вредоносные объекты на сервер и инициировать выполнение кода в процессе десериализации. По умолчанию, реализация Meta для сервера выводов Llama Stack оказалась особенно уязвимой.
Meta быстро реагировала на проблему после раскрытия информации Oligo в сентябре 2024 года. К октябрю был выпущен патч, заменяющий небезопасную десериализацию на основе pickle на более безопасную, с использованием валидации типа JSON с помощью библиотеки Pydantic. Пользователям рекомендуется обновить версию Llama Stack до 0.0.41 или выше для обеспечения безопасности своих систем.
Создатели pyzmq, библиотеки, используемой в Llama Stack, также обновили свою документацию, предупреждая о рисках использования recv_pyobj с ненадежными данными.
Этот инцидент подчеркивает риски использования небезопасных методов сериализации в программном обеспечении. Разработчикам рекомендуется полагаться на более безопасные альтернативы и регулярно обновлять библиотеки для снижения уязвимостей. Для инструментов ИИ, таких как Llama Stack, прочные меры безопасности остаются жизненно важными, поскольку эти фреймворки продолжают обеспечивать работу критически важных корпоративных приложений.
Оставьте комментарий
Отменить