Инструменты Искусственного Интеллекта Правительства Великобритании подвергаются проверке из-за опасений, связанных с расизмом и предвзятостью
Сегодня The Guardian сообщил, что правительство Великобритании вскоре опубликует подробности об инструментах искусственного интеллекта, используемых в различных департаментах, вслед за опасениями о возможном расизме и предвзятости, заложенных в этих технологиях.
Решение раскрыть эти инструменты ИИ было принято после давления со стороны сторонников прозрачности, которые подняли тревогу по поводу секретности и возможных дискриминационных практик в этих системах. Эти инструменты ИИ использовались для таких задач, как обнаружение фиктивных браков и определение мошенничества в заявлениях о получении пособий.
Проект общественного права (PLP), благотворительная организация, ставящая своей целью обеспечение доступа к правосудию, находится на переднем крае этой проблемы, выступая за большую прозрачность и справедливость при внедрении таких технологий.
В августе 2020 года Министерство внутренних дел согласилось на приостановку работы компьютерного алгоритма, используемого для сортировки заявлений на визы, после обвинений в расизме и предвзятости. Действие алгоритма было приостановлено после юридического иска, поданного Советом по вопросам благосостояния иммигрантов и группой цифровых прав Foxglove, как сообщает The Guardian.
The Guardian также сообщает, что Foxglove заявила, что определенным национальностям автоматически присваивался «красный» риск, что вело к большей вероятности отказа в визе. Они утверждали, что этот процесс является проявлением расовой дискриминации.
Центр этики и инноваций в области данных правительства предупредил в отчете, что ИИ часто усиливает предрассудки. Центр помог разработать стандарт записи прозрачности алгоритма для государственных органов, использующих ИИ и алгоритмические инструменты, предлагая, чтобы модели, взаимодействующие с общественностью или влияющие на принятие решений, публиковались в реестре.
Как сообщает Guardian, в эту выходные департамент науки, инноваций и технологий (DSIT) подтвердил, что отделы теперь будут сообщать о своем использовании технологии согласно этому стандарту.
Представитель DSIT заявил Guardian: «Технологии имеют огромный потенциал для улучшения государственных услуг, но мы знаем, что важно поддерживать необходимые гарантии, включая, при необходимости, человеческий контроль и другие формы управления.»
«Стандарт записи алгоритмической прозрачности теперь обязателен для всех отделов, ряд записей должен быть опубликован в ближайшее время. Мы продолжаем исследовать, как его можно расширить по всему государственному сектору. Мы призываем все организации использовать ИИ и данные таким образом, чтобы заслужить доверие общественности с помощью инструментов, руководств и стандартов.»
Оставьте комментарий
Отменить