Мнение: Эпидемия галлюцинаций от искусственного интеллекта — кризис, к которому мы не готовы

Image generated with DALL·E through ChatGPT

Мнение: Эпидемия галлюцинаций от искусственного интеллекта — кризис, к которому мы не готовы

Время для прочтения: 7 мин.

Несмотря на постоянные обещания уменьшить количество «галлюцинаций» искусственного интеллекта, крупные инструменты AI — от ChatGPT до Perplexity, Gemini и Apple Intelligence — продолжают генерировать ложную информацию, часто с тревожными последствиями. Эксперты, включая тех, кто предупреждает о рисках AI, попадаются на выдуманный контент, и даже передовые инструменты, такие как Deep Research, составляют недостоверные отчеты. Правда, кажется, остается в руках людей

Чат-боты становятся все лучше с течением времени — намного лучше. Однако есть одна проблема, которую пока не удалось полностью решить, известная как «галлюцинации».

Наши любимые чат-боты с блеском отвечают на наши вопросы с решимостью и авторитетом научно-фантастического Йоды, даже когда они координально ошибаются. И мы верим им. Иногда слепо.

Многие ученые, эксперты и даже разработчики чат-ботов уже годами предупреждают о заблуждениях. Тем не менее, несмотря на то, что их применение распространяется стремительно — всего несколько дней назад OpenAI сообщила о 400 миллионах активных пользователей в неделю — грамотность в области ИИ не успевает за этим темпом.

Недавние исследования, судебные дела и драматические события продолжают показывать, что дезинформация еще опаснее, чем мы думали.

Это хуже, чем мы думаем

Сначала было довольно смешно обнаруживать большие ошибки, созданные AI, — как те смущающие обзоры AI, созданные Gemini, которые предлагали пользователям добавить в соус для пиццы «нетоксичный клей» или рекомендовали поедать «один маленький камень в день» в прошлом году. Но по мере того, как мы вновь начинаем доверять AI, ситуация обострилась, став все более тревожной.

В декабре мы видели, как AI-инструмент Apple создает заголовки, «суммируя» новости и генерируя фальшивую и вводящую в заблуждение информацию, например, ложно заявляя, что BBC объявила о том, что Луиджи Маньоне застрелился. После этого инцидента издание подало жалобу на Apple и начало исследование точности генеративного AI при анализе новостного контента.

Результаты исследования BBC, опубликованные всего несколько дней назад, показали тревожную статистику: 51% ответов, предоставленных популярными AI-чатботами, содержали серьезные проблемы, 13% цитат, предоставленных моделями, были полностью вымышленными, а 19% данных были неверными.

Подростки — одна из наиболее затронутых групп населения, поскольку они часто испытывают трудности в различении фейковых новостей от настоящих и могут быть легко подвержены влиянию контента, сгенерированного ИИ. Исследование, опубликованное в январе, показало, что 35% подростков были введены в заблуждение фальшивым контентом, сгенерированным моделями ИИ, и 22% поделились этой ложной информацией.

Но не только подростки и рассеянные люди поддаются этим галлюцинациям. И это не только Gemini или Apple Intelligence.

Ни Одна Модель ИИ Не Иммунна, Ни Одна Отрасль Не В Безопасности

То исследование, проведенное BBC, подтверждает еще одну проблему: все модели ИИ галлюцинируют. Эксперты рассмотрели самые популярные модели, такие как ChatGPT, Gemini, Perplexity и Copilot. Ни одна модель ИИ не застрахована от ошибок. В Anthropic есть страница, посвященная этому вопросу, на которой предлагаются идеи о том, как уменьшить галлюцинации.

«Даже самые передовые языковые модели, такие как Claude, иногда могут генерировать текст, который фактически неверен или несоответствует данному контексту», — говорится в документе. Другие компании, работающие с ИИ, поделились аналогичными страницами с советами и хитростями, как избежать поддельного контента, но это далеко не так просто, и это проблема остается нерешенной уже довольно долгое время.

В 2023 году OpenAI объявила о том, что работает над новыми инновационными способами избавления от галлюцинаций. Спойлер: это до сих пор огромная проблема.

В январе 2024 года, более года назад, генеральный директор Аравинд Сринивас сказал, что галлюцинации Perplexity в основном встречаются на неоплачиваемых аккаунтах. «Большинство жалоб поступает от пользователей бесплатной версии продукта», — объяснил Сринивас, добавив, что они уже внедряют больше графических процессоров для решения этой проблемы. Однако к октябрю New York Post и Dow Jones подали иск против Perplexity, поскольку их модель продолжала приписывать их изданиям фейковые новости, а AI инструмент, разработанный стартапом для выборов в США, был проверен экспертами, которые выявили несоответствия, неточные резюме и галлюцинации.

Болезнь галлюцинаций достигает научного и академического уровней

Одной из наиболее тревожащих проблем на данный момент является то, что даже эксперты, включая тех, кто предупреждает о рисках и опасностях ИИ, поддаются этим склонным к галлюцинациям инструментам.

В декабре профессор Стэнфорда и эксперт по технологиям и дезинформации Джефф Хэнкок был обвинен в использовании ИИ для составления судебного заявления. Хэнкок подал 12-страничное заявление в защиту закона штата 2023 года, уголовно наказывающего использование дипфейков, включая 15 цитат. Однако две из этих цитат нигде не могли быть найдены, потому что ChatGPT, предпочитаемый экспертом по дезинформации инструмент ИИ, просто выдумал их.

Хэнкок, который в этом году планирует преподавать курс «Истина, доверие и технологии», объяснил, что для организации своих цитат использовал чат-бот OpenAI, что привело к галлюцинациям. Исследователь извинился и подтвердил существенные аспекты своего заявления, а также дал нам всем ценный урок: даже эксперты и те, кто наиболее осведомлен об опасностях AI, подвержены ей.

Профессор Хэнкок, разумеется, не единственный, кто представил в суд документы, содержащие искажения, сгенерированные AI. Еще одно дело, связанное с иском против Walmart, недавно стало вирусным, потому что адвокаты использовали фальшивые дела, сгенерированные AI, чтобы построить свои аргументы. На самом деле, эта проблема стала настолько частой в судах США, что юридическая фирма Morgan & Morgan недавно отправила письма своим более чем 1000 адвокатам с предупреждением о рисках использования цитат, сгенерированных AI, и Американская ассоциация адвокатов напомнила своим 400 000 членам о правилах этики адвокатов, включая информацию, сгенерированную AI.

Глубокие Исследования Тоже

Одним из наиболее популярных инструментов ИИ в настоящее время является «Deep Research», предназначенный для специалистов и ученых, стремящихся к более сложным результатам в своих исследованиях. Галлюцинации также не отсутствуют в этом инструменте, хотя первоначальная версия OpenAI для доступа требовала Pro подписку стоимостью $200.

Пользователи на Reddit выразили свою обеспокоенность по этому поводу, сообщая о том, что все популярные модели, включая инструменты для глубоких исследований, такие как Perplexity, ChatGPT и DeepSeek, столкнулись с галлюцинациями. Исследователи и эксперты в области ИИ также поделились тревожными результатами на других социальных платформах, таких как X.

«Инструмент создал прекрасно написанный и аргументированный отчет,» написал один пользователь, который использовал инструмент Deep Research от OpenAI для изучения математики, выполненной молодыми людьми. «Единственная проблема в том, что все это выдумано.»

«Deep Research выдумал кучу статистики и анализа, утверждая, что собрал базу данных из тысяч статей и якобы собрал информацию о годе рождения каждого автора из авторитетных источников,» поделился другой. «Ничего из этого не является правдой.»

Правда Все Еще В Руках Человека

Прекратят ли когда-нибудь чат-боты галлюцинировать? Слабое место искусственного интеллекта было очевидно уже много лет — мы видели это в подкастах, таких как Planet Money, когда они тестировали эпизоды, созданные AI в 2023 году, и мы продолжаем видеть это в самых продвинутых моделях, даже тех, которые предназначены исключительно для использования экспертами и технически подкованными сообществами.

Возможно, пришло время признать, что эта проблема останется актуальной, и понять, что мы должны брать на себя ответственность за то, что создаем и делимся с помощью инструментов ИИ.

Тот факт, что несмотря на то, что это выглядит как хорошо известная проблема, эксперты по рискам ИИ сами поддаются убедительному и убедительному написанию ИИ, определенно вызывает беспокойство. Ситуация становится еще более сложной по мере того, как принятие продолжает ускоряться на полной скорости, опережая цифровую грамотность, в то время как несоответствия и сфабрикованные цитаты умножаются.

Случаи, когда были раскрыты галлюцинации ИИ, обычно связаны с ситуациями, когда проверка фактов играет критически важную роль – что стоит напомнить Цукербергу, теперь, когда он закрыл свой отдел проверки фактов. Это особенно заметно в судах, где адвокаты и судьи работают над проверкой фактов и дел, а также в средствах массовой информации, где важны точность и подтверждение источников.

Но что происходит в случаях, когда никто не анализирует эти детали? Что случается в повседневных, более личных контекстах? Сейчас миллионы студентов запоминают сгенерированные ИИ ответы для своих учебных заданий, пользователи следуют инструкциям, предложенным ИИ, для лечения заболеваний, а другие изучают новые темы, полностью доверяя технологии.

Последствия этой новой реальности, с которой мы столкнулись, неизмеримы и непредсказуемы, и правда — пока что — в руках тех, кто находит время для сомнений и проверок.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...