Смещение в AI по обнаружению мошенничества в системе социального обеспечения Великобритании вызывает опасения по поводу справедливости

Image by Rucksack Magazine, from Free Range Stock

Смещение в AI по обнаружению мошенничества в системе социального обеспечения Великобритании вызывает опасения по поводу справедливости

Время для прочтения: 3 мин.

Искусственный интеллект, используемый правительством Великобритании для выявления мошенничества в системе социального обеспечения, обнаруживает предвзятость по отношению к возрасту, инвалидности, семейному статусу и национальности, согласно внутренним оценкам, как сегодня сообщает The Guardian.

Спешите? Вот краткие факты!

  • Искусственный интеллект, используемый в Великобритании для обнаружения мошенничества в сфере социального обеспечения, проявляет предвзятость в отношении определенных демографических групп, включая инвалидов.
  • Внутренний анализ выявил «статистически значимые» различия в том, какие заявки подвергались проверке на мошенничество.
  • Ведомство социальной защиты населения (DWP) утверждает, что, несмотря на использование инструмента ИИ, окончательные решения все еще принимаются человеческими операторами.

Система, используемая для оценки заявлений на универсальные пособия по всей Англии, непропорционально часто подвергает определенные группы проверке, что вызывает опасения системной дискриминации, сообщает The Guardian.

Смещение, описанное как «статистически значимое неравенство в результатах», было обнаружено в ходе анализа справедливости, проведенного Департаментом по вопросам труда и пенсий (DWP) в феврале.

Анализ показал, что программа машинного обучения выбирала людей из некоторых демографических групп чаще, чем из других, при определении того, кого следует расследовать на предмет возможного мошенничества, сообщает The Guardian.

Это заявление противоречит ранее высказанным утверждениям DWP о том, что система ИИ не представляет немедленных рисков дискриминации или несправедливого обращения.

Департамент защищал систему, подчеркивая, что окончательные решения принимаются человеческими сотрудниками-инспекторами и утверждая, что использование инструмента является «разумным и пропорциональным», учитывая оценочную годовую стоимость мошенничества и ошибок в системе социального обеспечения в £8 миллиардов, сообщает The Guardian.

Однако в анализе не исследовались возможные предвзятости, связанные с расой, полом, религией, сексуальной ориентацией или беременностью, что оставляет значительные пробелы в понимании справедливости системы.

Критики, включая проект Public Law, обвиняют правительство в принятии подхода «сначала навредить, потом исправить», призывая к большей прозрачности и защите от угнетения маргинализированных групп, как сообщает The Guardian.

«Ясно, что в подавляющем большинстве случаев DWP не проверяла, не подвергают ли их автоматизированные процессы риску несправедливого воздействия на маргинальные группы», — сказала Каролина Сельман, старший научный сотрудник Проекта по публичному праву, как сообщает The Guardian.

Эти выводы появляются на фоне усиливающегося контроля за использованием ИИ в государственных службах. Независимые отчеты говорят о том, что как минимум 55 автоматизированных инструментов работают в управлении общественными властями Великобритании, что может влиять на решения миллионов людей, сообщает The Guardian.

Тем не менее, официальный реестр ИИ правительства включает всего девять систем, что выявляет значительное упущение в вопросах контроля, заявляет The Guardian.

Более того, правительство Великобритании сталкивается с критикой за незапись использования ИИ в обязательный реестр, что вызывает опасения по поводу прозрачности и ответственности по мере распространения ИИ.

Департамент социального обеспечения (DWP) удалил критически важные детали из своего анализа справедливости, включая информацию о том, какие возрастные группы или национальности были непропорционально подвергнуты проверке. Как отмечает The Guardian, чиновники заявили, что разглашение таких деталей могло бы позволить мошенникам манипулировать системой.

Представитель DWP подчеркнул, что человеческое суждение остается центральным в процессе принятия решений, как сообщает The Guardian. Эти открытия усиливают общие опасения о прозрачности действий правительства в использовании ИИ, критики настаивают на более строгом контроле и надежных мерах безопасности для предотвращения злоупотреблений.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...