Пробелы в запретах ЕС на ИИ могут позволить полиции использовать спорную технологию

Image by Freepik

Пробелы в запретах ЕС на ИИ могут позволить полиции использовать спорную технологию

Время для прочтения: 3 мин.

Новый Акт ЕС об ИИ направлен на регулирование искусственного интеллекта, но сталкивается с критикой из-за лазеек, исключений и влияния корпораций.

Спешите? Вот краткий обзор фактов!

  • Критики утверждают, что в законе есть пробелы, особенно для правоохранительных органов и миграционных служб.
  • Исключения позволяют практикам ИИ, таким как реальное время распознавания лиц и определение эмоций в некоторых случаях.
  • Группы по защите цифровых прав предупреждают, что исключения в законе ослабляют защиту от злоупотреблений.

Новый Закон об Искусственном Интеллекте Европейского Союза представляет собой значительный шаг в регулировании искусственного интеллекта. Это первое в мире законодательство запрещает некоторые «недопустимые» применения технологии ИИ с целью защиты граждан и сохранения демократических ценностей.

Среди запретов — прогностическая полиция, извлечение изображений лиц из интернета для распознавания и использование искусственного интеллекта для определения эмоций из биометрических данных. Однако критики утверждают, что закон содержит значительные лазейки, особенно когда речь идет о полиции и миграционных органах.

Хотя в Законе об искусственном интеллекте в принципе запрещены некоторые способы использования AI, он включает исключения, которые могут позволить европейской полиции и миграционным органам продолжить использование спорных практик AI, как впервые сообщил Politico.

Например, реальное время распознавания лиц в общественных местах, хотя и в значительной степени запрещено, может быть разрешено в исключительных случаях, таких как серьезные уголовные расследования.

Аналогично, определение эмоций в общественных местах запрещено, но могут быть сделаны исключения для правоохранительных органов и миграционных целей, что вызывает опасения о потенциальном использовании AI для определения обмана на границах.

Широкие исключения в законе вызвали тревогу среди групп, занимающихся цифровыми правами. Коалиция из 22 организаций предупредила, что Акт об ИИ не в состоянии адекватно решить вопросы, связанные с использованием этой технологии правоохранительными органами.

«Самым явным пробелом является то, что запреты не распространяются на правоохранительные органы и миграционные службы», — сказала Катерина Роделли, аналитик по вопросам политики ЕС в Access Now, как сообщает Politico.

Законодательный акт ЕС об ИИ также запрещает использование ИИ для контроля над обществом, мера, введенная для предотвращения использования ИИ для подрыва индивидуальных свобод или демократии.

Брандо Бенифей, итальянский законодатель, участвовавший в разработке законодательства, объяснил, что цель закона — предотвратить использование технологий ИИ для «контроля над обществом» или «сжатия наших свобод», как сообщает Politico.

Согласно Politico, такая позиция была обусловлена высокопрофильными инцидентами, такими как спорное использование ИИ голландскими налоговыми органами для выявления мошенничества в 2019 году, что привело к неправомерному обвинению около 26 000 человек в мошенничестве.

В этом случае власти использовали алгоритм для выявления возможного мошенничества с социальными выплатами на детей, но несовершенный алгоритм привел к массовым ошибочным идентификациям и нанес ущерб жизни невиновных граждан.

Контрорверсия, связанная с этим событием, сыграла важную роль в формировании ограничений закона на предиктивную полицию и другие формы злоупотребления ИИ.

Тем временем, отчет Корпоративного Европейского Обсерватория (CEO) вызывает опасения относительно влияния крупных технологических компаний на разработку стандартов ИИ в ЕС. Отчет показывает, что более половины членов Совместного Технического Комитета по ИИ (JTC21), отвечающего за установление стандартов ИИ, представляют корпоративные или консультационные интересы.

Крупные компании, такие как Oracle, Microsoft, Amazon и Google, выступают за смягчение регулятивных норм, которые отдают предпочтение их коммерческим интересам, а не защите основных прав или общественного блага.

Такое влияние корпораций вызывает опасения, что Акт ЕС об ИИ может быть подорван интересами промышленности, сосредоточенными на прибыльности, а не на этических соображениях. Кроме того, представители гражданского общества и академической среды сталкиваются с финансовыми и логистическими проблемами при участии в процессе установления стандартов.

Отчет подчеркивает отсутствие прозрачности и демократической ответственности в организациях, устанавливающих стандарты, таких как CEN и CENELEC, вызывая опасения относительно справедливости и инклюзивности процесса разработки стандартов.

Хотя Закон об искусственном интеллекте выдвигает ЕС на передний план глобального регулирования AI, продолжающаяся дискуссия о его пробелах говорит о том, что балансирование между инновациями и защитой прав человека будет тонкой задачей в будущем.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...