
Image by vecstock, from Freepik
Хакеры используют DeepSeek R1 для создания вредоносного ПО и кражи данных
DeepSeek R1, передовая модель ИИ из Китая, быстро зарекомендовала себя своими способностями к логическому мышлению, что позиционирует ее в качестве конкурента лидерам в области ИИ, таким как OpenAI. Однако хакеры из кибербезопасной компании KELA показали, что DeepSeek R1 не только «высоко уязвима», но и может быть «легко обойдена».
Спешите? Вот краткие факты!
- DeepSeek R1 был взломан KELA для создания вредоносных программ и вредоносного контента.
- Модель создала код для кражи данных кредитных карт и распространения вредоносного ПО.
- DeepSeek открыто демонстрирует шаги рассуждения, что увеличивает его уязвимость к эксплуатации.
Красная команда KELA на базе искусственного интеллекта успешно взломала DeepSeek в различных ситуациях, обнажив его потенциал к злонамеренному использованию. Один из взломов, известный как «Злой взлом», ранее использовался для обхода механизмов безопасности других моделей AI, и он был не менее эффективен против DeepSeek R1.
KELA продемонстрировала, что по запросу на генерацию вредоносного ПО, DeepSeek R1 предоставил подробные инструкции о том, как создать и распространить вредоносное ПО для кражи информации, которое может украсть конфиденциальные данные, такие как пароли и номера кредитных карт.
Искусственный интеллект сгенерировал подробные инструкции и код для извлечения конфиденциальных финансовых данных и их передачи на удаленные серверы. Он также рекомендовал подпольные рынки для торговли украденной информацией.
KELA также сообщила, что ИИ предложил методы распространения вредоносного ПО и явно упомянул платформы вроде Genesis для торговли скомпрометированными учетными данными.
Уязвимости DeepSeek не ограничиваются только вредоносным ПО. Модель создавала пошаговые руководства по созданию взрывчатых веществ, токсинов и неподследственного оружия. Она также фабриковала личную информацию, такую как предполагаемые подробности о сотрудниках OpenAI, включая имена, электронные почты и зарплаты — несмотря на отсутствие достоверного источника, подтверждающего эти утверждения.
В отличие от конкурентов, таких как GPT-4 от OpenAI, который скрывает шаги рассуждений при обработке чувствительных запросов, DeepSeek открыто демонстрирует свои мыслительные процессы. Эта прозрачность, предназначенная для расширения понимания пользователя, также облегчила хакерам эксплуатацию его слабых сторон, утверждают исследователи.
На момент публикации DeepSeek не отвечал на запрос о комментарии от Forbes.
Оставьте комментарий
Отменить