
Image by Matheus Bertelli, from Pexels
AI-модель DeepSeek-R1 вызывает опасения в области безопасности в новом исследовании
Компания, специализирующаяся на кибербезопасности, выразила обеспокоенность моделью AI DeepSeek-R1, предупредив, что она представляет значительные риски безопасности для корпоративного использования.
Спешите? Вот краткие факты!
- Модель не справилась с 91% тестов на взлом, обходя защитные механизмы.
- DeepSeek-R1 был очень уязвим для быстрой внедрения.
- ИИ часто выдавал токсичный контент и фактически неправильную информацию.
В отчете, опубликованном 11 февраля, исследователи из AppSOC подробно описали ряд уязвимостей, выявленных в ходе тщательного тестирования. Они охарактеризовали эти уязвимости как серьезную угрозу для организаций, использующих искусственный интеллект.
Согласно результатам исследования, DeepSeek-R1 демонстрировал высокий процент отказов в нескольких областях безопасности. Было обнаружено, что модель очень уязвима для попыток взлома, часто обходящая защитные механизмы, предназначенные для предотвращения создания вредоносного или ограниченного контента.
Она также оказалась уязвима для атак с помощью инъекций призывов, что позволяло враждебным призывам манипулировать ее выходными данными таким образом, что нарушались политики безопасности и, в некоторых случаях, подрывалась целостность системы.
Кроме того, исследование показало, что DeepSeek-R1 способен генерировать вредоносный код с тревожной скоростью, вызывая опасения относительно возможного злоупотребления.
В отчете также указывается на другие проблемы, включая отсутствие прозрачности в отношении происхождения набора данных модели и зависимостей, что увеличивает вероятность наличия уязвимостей в безопасности ее цепочки поставок.
Исследователи также отметили, что модель иногда выдавала ответы, содержащие вредный или оскорбительный язык, что указывает на недостаточную защиту от токсичных выходных данных. Более того, обнаружено, что DeepSeek-R1 генерирует фактически неверную или полностью вымышленную информацию с достаточно высокой частотой.
AppSOC присвоил модели общий риск-балл 8.3 из 10, особенно отметив высокие риски, связанные с безопасностью и соответствием нормам.
Компания подчеркнула, что организациям следует проявлять осторожность перед интеграцией моделей ИИ в критически важные операции, особенно те, которые обрабатывают чувствительные данные или интеллектуальную собственность.
Эти выводы обращают внимание на более широкие проблемы в индустрии ИИ, где быстрая разработка часто ставит производительность выше безопасности. По мере того как искусственный интеллект продолжает внедряться в такие секторы, как финансы, здравоохранение и оборона, эксперты подчеркивают необходимость тщательного тестирования и постоянного мониторинга для снижения рисков.
AppSOC рекомендовал компаниям, внедряющим ИИ, регулярно проводить оценку безопасности, строго контролировать результаты, генерируемые ИИ, и устанавливать четкие протоколы управления уязвимостями по мере развития моделей.
Несмотря на то, что DeepSeek-R1 привлек внимание своими возможностями, исследование подчеркивает важность оценки рисков безопасности перед широким внедрением. Выявленные в данном случае уязвимости служат напоминанием о том, что технологии ИИ требуют тщательного анализа для предотвращения непредвиденных последствий.
Оставьте комментарий
Отменить