Инструменты Искусственного Интеллекта Правительства Великобритании подвергаются проверке из-за опасений, связанных с расизмом и предвзятостью

Image by Wesley Fryer, from Flickr

Инструменты Искусственного Интеллекта Правительства Великобритании подвергаются проверке из-за опасений, связанных с расизмом и предвзятостью

Время для прочтения: 2 мин.

  • Киара Фаббри

    Автор: Киара Фаббри Мультимедийный журналист

  • Команда локализации и перевода

    Перевод выполнен: Команда локализации и перевода Услуги локализации и перевода

Сегодня The Guardian сообщил, что правительство Великобритании вскоре опубликует подробности об инструментах искусственного интеллекта, используемых в различных департаментах, вслед за опасениями о возможном расизме и предвзятости, заложенных в этих технологиях.

Решение раскрыть эти инструменты ИИ было принято после давления со стороны сторонников прозрачности, которые подняли тревогу по поводу секретности и возможных дискриминационных практик в этих системах. Эти инструменты ИИ использовались для таких задач, как обнаружение фиктивных браков и определение мошенничества в заявлениях о получении пособий.

Проект общественного права (PLP), благотворительная организация, ставящая своей целью обеспечение доступа к правосудию, находится на переднем крае этой проблемы, выступая за большую прозрачность и справедливость при внедрении таких технологий.

В августе 2020 года Министерство внутренних дел согласилось на приостановку работы компьютерного алгоритма, используемого для сортировки заявлений на визы, после обвинений в расизме и предвзятости. Действие алгоритма было приостановлено после юридического иска, поданного Советом по вопросам благосостояния иммигрантов и группой цифровых прав Foxglove, как сообщает The Guardian.

The Guardian также сообщает, что Foxglove заявила, что определенным национальностям автоматически присваивался «красный» риск, что вело к большей вероятности отказа в визе. Они утверждали, что этот процесс является проявлением расовой дискриминации.

Центр этики и инноваций в области данных правительства предупредил в отчете, что ИИ часто усиливает предрассудки. Центр помог разработать стандарт записи прозрачности алгоритма для государственных органов, использующих ИИ и алгоритмические инструменты, предлагая, чтобы модели, взаимодействующие с общественностью или влияющие на принятие решений, публиковались в реестре.

Как сообщает Guardian, в эту выходные департамент науки, инноваций и технологий (DSIT) подтвердил, что отделы теперь будут сообщать о своем использовании технологии согласно этому стандарту.

Представитель DSIT заявил Guardian: «Технологии имеют огромный потенциал для улучшения государственных услуг, но мы знаем, что важно поддерживать необходимые гарантии, включая, при необходимости, человеческий контроль и другие формы управления.»

«Стандарт записи алгоритмической прозрачности теперь обязателен для всех отделов, ряд записей должен быть опубликован в ближайшее время. Мы продолжаем исследовать, как его можно расширить по всему государственному сектору. Мы призываем все организации использовать ИИ и данные таким образом, чтобы заслужить доверие общественности с помощью инструментов, руководств и стандартов.»

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Показать больше...