Полиция Оклахома-Сити применяет ИИ для составления отчетов об инцидентах, что вызывает опасения по поводу предвзятости

Photo by Mohamed Hassan on pxhere

Полиция Оклахома-Сити применяет ИИ для составления отчетов об инцидентах, что вызывает опасения по поводу предвзятости

Время для прочтения: 2 мин.

  • Киара Фаббри

    Автор: Киара Фаббри Мультимедийный журналист

  • Команда локализации и перевода

    Перевод выполнен: Команда локализации и перевода Услуги локализации и перевода

Полиция Оклахома-Сити теперь использует инструмент ИИ для записи инцидентных отчетов. Технология, разработанная Axon, использует ИИ, похожий на ChatGPT, для составления отчетов из аудиозаписей с камер носимого типа всего за восемь секунд.

Хотя полицейские восхваляют эту технологию, позволяющую сэкономить время, правовые ученые и активисты сообществ поднимают вопросы о возможных предрассудках и точности отчетов, созданных с помощью ИИ.

Программное обеспечение, Draft One, преобразует аудио с телесной камеры в письменные отчеты о происшествиях, нацеленное на улучшение эффективности составления отчетов.

Associated Press сообщает, что сержант полиции Оклахома-Сити Мэтт Гилмор, который тестировал его, заявил, что отчет, написанный искусственным интеллектом, был «лучше», чем все, что он мог бы написать сам, был на 100% точным и даже включал детали, которые он не помнил.

Аксон создала этот продукт. Основатель и генеральный директор компании Рик Смит сообщил AP, что Draft One вызвал «самую позитивную реакцию» из всех продуктов, которые когда-либо представляла компания.

«Однако, есть опасения», — отметил Смит. Он объяснил, что окружные прокуроры хотят гарантировать, что полицейские, а не просто AI-чатбот, будут ответственны за написание своих отчетов, поскольку они могут быть вызваны в суд для дачи показаний по своим наблюдениям.

The Independent сообщает, что общественный активист из Оклахома-Сити Аурелиус Франциско выразил глубокую обеспокоенность использованием технологии искусственного интеллекта в полицейских отчетах, особенно из-за потенциальных расовых предрассудков.

Прошлые происшествия, такие как неправомерный арест Роберта Уильямса из-за недостаточной точности системы распознавания лиц, являются примером опасности чрезмерного доверия к искусственному интеллекту в полицейских следственных работах, особенно в отношении расовых предрассудков и неточностей.

«Учитывая все тонкости вопроса полиции, расовых и других идентичностей участвующих людей, это область, где, как мне кажется, нам предстоит провести серьезную работу, прежде чем мы внедрим её», — сказала Смит AP.

Существует консенсус о том, что, хотя AI может помочь в составлении отчетов, окончательная ответственность и обязанности должны оставаться за человеческими офицерами, особенно при рассмотрении серьезных преступлений, которые могут потребовать судебного показания.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Показать больше...