
Photo by Saúl Bucio on Unsplash
Ошибки, сгенерированные ИИ, в судебных документах приводят к юридическим проблемам для адвокатов
Отчет, опубликованный вчера на Reuters, показывает, что галлюцинации ИИ — ошибки и выдуманная информация, создаваемая генеративными моделями ИИ — вызывают юридические проблемы в судах Соединенных Штатов.
Спешите? Вот основные факты!
- Компания Morgan & Morgan отправила письмо на электронную почту 1,000 адвокатам, предупреждая о рисках использования искусственного интеллекта.
- Недавний случай признания адвокатов Walmart в использовании искусственного интеллекта в своих делах вызвал тревогу в юридическом сообществе.
- Использование галлюцинаций чат-ботов в судебных заявлениях стало повторяющейся проблемой в последние годы.
В этом месяце юридическая фирма Morgan & Morgan отправила электронное письмо с предупреждением более чем 1 000 адвокатам о рисках использования чат-ботов и поддельных дел, сгенерированных искусственным интеллектом.
Несколько дней назад два адвоката из Вайоминга признали, что включили в иск к Walmart поддельные дела, сгенерированные AI, и федеральный судья угрожал им санкциями.
В декабре профессор Стэнфорда и эксперт по дезинформации Джефф Хэнкок был обвинен в использовании AI для фабрикации ссылок на судебные заявления в рамках его заявления в защиту закона штата 2023 года, уголовно наказывающего использование «дипфейков» для влияния на выборы.
За последние несколько лет подобные случаи вызывают юридическое напряжение и создают проблемы судьям и сторонам в споре. Компании Morgan & Morgan и Walmart отказались комментировать эту ситуацию.
Генеративный ИИ помогает юристам сократить время, затрачиваемое на исследования, но его «галлюцинации» могут обернуться значительными затратами. В прошлом году исследование Thomson Reuters показало, что 63% адвокатов используют ИИ в своей работе, и 12% делают это регулярно.
В прошлом году, Американская адвокатская ассоциация напомнила своим 400 000 членам об этике адвоката, которая включает в себя ответственность адвокатов за всю информацию в своих судебных документах. Отметим, что это касается и информации, сгенерированной AI, даже если это произошло случайно, как в случае Хэнкока.
«Когда адвокатов ловят на использовании ChatGPT или любого другого генеративного AI-инструмента для создания ссылок без проверки, это некомпетентность, просто чистая и простая,» — сказал Эндрю Перлман, декан юридического факультета Суффолкского университета в интервью Reuters.
Несколько дней назад BBC также опубликовало отчет с предупреждением о поддельных цитатах, сгенерированных ИИ и проблемах с использованием инструментов ИИ в журналистике.
Оставьте комментарий
Отменить