Ошибки, сгенерированные ИИ, в судебных документах приводят к юридическим проблемам для адвокатов

Photo by Saúl Bucio on Unsplash

Ошибки, сгенерированные ИИ, в судебных документах приводят к юридическим проблемам для адвокатов

Время для прочтения: 2 мин.

Отчет, опубликованный вчера на Reuters, показывает, что галлюцинации ИИ — ошибки и выдуманная информация, создаваемая генеративными моделями ИИ — вызывают юридические проблемы в судах Соединенных Штатов.

Спешите? Вот основные факты!

  • Компания Morgan & Morgan отправила письмо на электронную почту 1,000 адвокатам, предупреждая о рисках использования искусственного интеллекта.
  • Недавний случай признания адвокатов Walmart в использовании искусственного интеллекта в своих делах вызвал тревогу в юридическом сообществе.
  • Использование галлюцинаций чат-ботов в судебных заявлениях стало повторяющейся проблемой в последние годы.

В этом месяце юридическая фирма Morgan & Morgan отправила электронное письмо с предупреждением более чем 1 000 адвокатам о рисках использования чат-ботов и поддельных дел, сгенерированных искусственным интеллектом.

Несколько дней назад два адвоката из Вайоминга признали, что включили в иск к Walmart поддельные дела, сгенерированные AI, и федеральный судья угрожал им санкциями.

В декабре профессор Стэнфорда и эксперт по дезинформации Джефф Хэнкок был обвинен в использовании AI для фабрикации ссылок на судебные заявления в рамках его заявления в защиту закона штата 2023 года, уголовно наказывающего использование «дипфейков» для влияния на выборы.

За последние несколько лет подобные случаи вызывают юридическое напряжение и создают проблемы судьям и сторонам в споре. Компании Morgan & Morgan и Walmart отказались комментировать эту ситуацию.

Генеративный ИИ помогает юристам сократить время, затрачиваемое на исследования, но его «галлюцинации» могут обернуться значительными затратами. В прошлом году исследование Thomson Reuters показало, что 63% адвокатов используют ИИ в своей работе, и 12% делают это регулярно.

В прошлом году, Американская адвокатская ассоциация напомнила своим 400 000 членам об этике адвоката, которая включает в себя ответственность адвокатов за всю информацию в своих судебных документах. Отметим, что это касается и информации, сгенерированной AI, даже если это произошло случайно, как в случае Хэнкока.

«Когда адвокатов ловят на использовании ChatGPT или любого другого генеративного AI-инструмента для создания ссылок без проверки, это некомпетентность, просто чистая и простая,» — сказал Эндрю Перлман, декан юридического факультета Суффолкского университета в интервью Reuters.

Несколько дней назад BBC также опубликовало отчет с предупреждением о поддельных цитатах, сгенерированных ИИ и проблемах с использованием инструментов ИИ в журналистике.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...