УНЕПР выдает декларацию о продуктах с встроенным ИИ

Image by Freepik

УНЕПР выдает декларацию о продуктах с встроенным ИИ

Время для прочтения: 3 мин.

Спешите? Вот краткие факты!

  • Декларация способствует глобальному регулированию в области технологий ИИ.
  • Продукты ИИ с высоким риском требуют строгого контроля, в то время как продукты с низким риском требуют минимального наблюдения.
  • Рыночный контроль должен адаптироваться к эволюции технологий ИИ.

Сегодня Экономическая комиссия ООН по Европе (UNECE) объявила о декларации, которая рассматривает регулятивные проблемы, вызванные искусственным интеллектом и цифровыми технологиями, внедренными в повседневные товары и услуги. Эта инициатива направлена на усиление глобальной регулятивной согласованности с учетом сложностей возникающих технологий.

Опираясь на Общие Регулирующие Меры (CRA), декларация призывает к добровольному регулятивному сотрудничеству между правительствами, при этом обеспечивая сохранение глобальной торговли и технологического прогресса.

Декларация подчеркивает распространенность продуктов, использующих встроенный ИИ и цифровые технологии, но отмечает отсутствие единых определений и регулирования.

Хотя CRA заявляет, что она не охватывает автономные транспортные средства или оружие, ее руководство остается актуальным для этих секторов.

Декларация подчеркивает важность управления рисками, связанными с продуктами, в которые встроены AI или другие цифровые технологии. Согласно декларации, полное устранение всех рисков нереально; вместо этого, регулирование должно стремиться к управлению рисками в пределах приемлемых ограничений.

Продукты с высоким уровнем риска, особенно те, которые влияют на здоровье, безопасность или конфиденциальность, потребуют строгого контроля. Продукты со средним уровнем риска, которые могут вызывать опасность для пользователя, но не включают в себя личные данные, будут нуждаться в умеренном мониторинге. В отличие от них, продукты с низким уровнем риска, которые не используют личные данные или непосредственно не влияют на пользователей, потребуют минимального контроля.

В отношении высокорисковых систем искусственного интеллекта декларация призывает включать человеческое принятие решений там, где это возможно. Например, медицинским устройствам, использующим ИИ для диагностики, следует предусмотреть человеческий контроль, чтобы снизить риски для пациентов, в то время как промышленное оборудование на базе ИИ должно позволять человеческий надзор на рабочих местах.

Учитывая непредсказуемый характер технологий ИИ, декларация подчеркивает необходимость строгого тестирования, признавая наличие неизвестных рисков. Регуляторам и дистрибьюторам рекомендуется раскрывать эти остаточные риски и гарантировать их управляемость.

Чтобы предотвратить вред, встроенные системы ИИ должны учитывать предвзятость в принятии решений, отражая как человеческие, так и машинные предрассудки.

Декларация также утверждает, что эти системы должны уважать человеческую автономию, психическое благополучие и общественные ценности, включая права детей, и эффективно функционировать в развивающихся экономиках, не создавая торговых барьеров.

Безопасность является жизненно важным элементом технологии искусственного интеллекта для предотвращения ее неправильного использования. Оценка соответствия регулятивным требованиям необходима для продуктов на базе ИИ, где продукты с низким риском могут требовать только самостоятельного заявления поставщика, в то время как продукты с высоким риском должны пройти оценку третьей стороной для проверки соответствия международным стандартам.

Кроме того, декларация утверждает, что наблюдение за рынком должно развиваться, чтобы поспевать за динамичной природой ИИ. Непрерывные проверки соответствия необходимы, особенно когда продукты получают обновления.

Независимые аудиты должны подтверждать, что продукты соответствуют первоначальным стандартам и безопасны для использования. Несоответствующие продукты, особенно те, которые представляют значительные риски, должны быть отозваны, а для серьезных проблем должны быть выпущены международные предупреждения.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...