Сотрудники Google DeepMind призывают компанию отказаться от военных контрактов
Около 200 сотрудников Google Deepmind подписали письмо, в котором призывают техногиганта прекратить военные контракты с несколькими организациями ранее в этом году. Эту информацию раскрыл журнал TIME в эксклюзиве с подробностями спора.
У TIME был доступ к внутреннему документу, датированному 16 мая, и подтверждено, что многие таланты в AI-лабораториях «обеспокоены недавними сообщениями о контрактах Google с военными организациями». В документе также уточняется, что он не адресован ни одному конкретному конфликту или текущей геополитической ситуации.
В апреле, журнал TIME раскрыл, что у Google есть контракт с министерством обороны Израиля на программу под названием Проект Nimbus, предполагающую предоставление услуг ИИ и облачных вычислений.
«Любое вовлечение в военные дела и производство оружия влияет на нашу позицию как лидеров в области этичного и ответственного ИИ, и противоречит нашей миссии и заявленным принципам ИИ», — написали сотрудники в письме.
Таланты в области машинного обучения, которые подписали петицию, представляют всего 5% сотрудников Google’s DeepMind, но это выявляет важные внутренние разногласия и подходы к тому, как развивается технология искусственного интеллекта Google.
По данным журнала, Google приобрел DeepMind в 2014 году, и до последних лет компания сохраняла свою автономию и первоначальные принципы. В 2021 году руководители лаборатории попытались вернуть автономию, чтобы получить более независимую юридическую структуру, но запрос был отклонен, и вместо этого Google объединил Google Brain—свою другую команду по ИИ—с DeepMind.
«Хотя DeepMind ранее могло быть недовольно работой над военным ИИ или оборонными контрактами, я думаю, что сейчас это уже не наше решение», — сказал работник DeepMind журналу TIME.
Google опубликовал свои принципы ИИ и заверил, что проект Nimbus не направлен на «работу с высокочувствительными, секретными или военными нагрузками, связанными с оружием или спецслужбами».
Однако, сотрудник из DeepMind сообщил TIME, что ответ компании не подтверждает, может ли она способствовать насилию и другим негативным явлениям, и он «настолько конкретно неопределенный, что мы все также не понимаем, что он на самом деле означает».
Оставьте комментарий
Отменить