
Image by Autogiro, from Pixabay
Пентагон использует ИИ для военных операций
Министерство обороны США (DoD) использует искусственный интеллект для оптимизации военных операций, в частности в области идентификации угроз, планирования и реализации стратегии, как это было раскрыто в TechCrunch.
Спешите? Вот краткие факты!
- Пентагон использует искусственный интеллект для оптимизации идентификации угроз, планирования и принятия решений.
- Генеративный AI ускоряет «смертельную цепь» военных без автономного участия в летальных действиях.
- OpenAI, Anthropic и Meta сотрудничают с оборонными агентствами.
По словам доктора Радха Пламб, главного цифрового и AI-специалиста Пентагона, AI-инструменты улучшают процессы принятия решений, при этом гарантируя, что человеческий контроль остается в центре летальных действий, как сообщает TechCrunch.
TechCrunch объясняет, как инструменты генеративного AI, такие как разработанные Meta и Anthropic, были интегрированы в операции Пентагона. Эти технологии не используются напрямую в качестве оружия, но они играют центральную роль в фазах планирования и стратегии.
По словам доктора Радха Пламб, главного цифрового и AI-специалиста Пентагона, AI ускоряет выполнение «цепочки убийств», помогая командирам более быстро реагировать на угрозы.
«Это позволяет вам воспользоваться всем набором инструментов, которые у наших командиров есть в распоряжении, но также творчески подходить к вариантам ответных действий и возможным компромиссам в условиях, когда есть потенциальная угроза или ряд угроз, которые необходимо пресечь», — объяснила она, как сообщает TechCrunch.
Сотрудничество Пентагона с компаниями, работающими в области искусственного интеллекта, относительно новое, отмечено сменой политики ведущими разработчиками, такими как OpenAI, Meta и Anthropic. Эти компании, которые изначально ограничивали использование своих моделей AI в военных контекстах, смягчили свои политики в 2024 году, чтобы позволить ведомствам обороны США использовать эти инструменты, как отмечает TechCrunch.
Согласно TechCrunch, Пентагон использует ИИ с акцентом на сотрудничество человека и машины, а не на полную автоматизацию, обеспечивая этичность и надежность операций.
Пламб подчеркнул: «Вопрос надежности и этики предполагает, что человек всегда будет участвовать в принятии решения о применении силы, включая наши системы оружия», — сообщил TechCrunch.
Хотя критики высказывают опасения о возможном злоупотреблении ИИ в военных приложениях, некоторые утверждают, что взаимодействие с оборонными агентствами необходимо для снижения рисков и поддержания контроля.
Несмотря на опасения, интеграция ИИ в военное дело, похоже, обречена на рост, особенно в таких областях как логистика, анализ разведданных и реагирование на угрозы. На данный момент Пентагон поддерживает свою приверженность контролю со стороны человека, подчеркивая, что его системы ИИ предназначены для повышения эффективности принятия решений, а не для их замены, сообщает TechCrunch.
Этические дискуссии о роли ИИ в обороне продолжают развиваться, причем сторонники и критики оценивают потенциальные риски и преимущества.
Оставьте комментарий
Отменить