AI Google снова становится вирусным из-за бредовых интерпретаций фальшивых идиом

Photo by Mitchell Luo on Unsplash

AI Google снова становится вирусным из-за бредовых интерпретаций фальшивых идиом

Время для прочтения: 3 мин.

Пользователи социальных сетей заметили, что функция AI Overviews от Google предоставляет объяснения и определения для выдуманных идиом, когда они включают слово «значение» после случайной фразы. Многие из этих ответов, сгенерированных AI, стали вирусными, вызывая смех среди пользователей социальных сетей.

Спешите? Вот краткие факты:

  • Пользователи в социальных сетях заметили, что AI Overviews от Google придумывает объяснения для фиктивных идиом.
  • Многие пользователи Threads, X и Bluesky сообщили о подобных галлюцинациях с абсурдными, выдуманными поговорками.
  • Это не первый раз, когда AI Overviews становится вирусным за предоставление некорректной информации.

Это не первый раз, когда AI Overviews зарабатывает себе позорную репутацию. В прошлом году AI инструмент Google Search стал вирусным из-за предоставления некорректных ответов— некоторые из которых были основаны на устаревших постах Reddit — что подрывает доверие к модели, ее надежность и точность.

На этот раз модель AI дала пользователям «серьезные» ответы на выдуманные высказывания. Согласно Mashable, эту потребность моделей AI давать ответ даже тогда, когда у них нет ответа или достаточно информации для предоставления правильного ответа, теперь называют «AI-splaining».

Многие пользователи поделились в социальных сетях несколькими примерами текущей ситуации с обзорами AI. «Кто-то на Threads заметил, что вы можете ввести в Google любое случайное предложение, а затем добавить после него «значение», и вы получите объяснение от AI известной идиомы или фразы, которую вы только что придумали», — написал пользователь Bluesky, который приложил скриншоты своего теста.

Он написал «вы не можете облизать барсука дважды», после этого слова «значение», и ИИ модель предоставила объяснение этому выдуманному идиому: «Это означает, что вы можете обмануть или ввести в заблуждение кого-то второй раз после того, как они уже однажды были обмануты». AI Overviews продолжила давать более подробное объяснение, разбирая его по словам.

«Ответы в этой ветке очень смешные, но это тревожный сигнал, что одна из ключевых функций Гугл — способность проверить цитату, подтвердить источник или отследить что-то полузабытое — станет намного сложнее, если ИИ предпочитает легитимные статистические возможности над реальной правдой», — добавил пользователь.

Журналист из Yahoo! Tech подтвердил галлюцинацию, написав выдуманные идиомы о Покемонах, такие как «Никогда не позволяйте вашей лошади играть в Покемонов», и модель AI ответила полностью выдуманным объяснением: “Это юмористическое, непринужденное предостережение против того, чтобы позволить лошади, которая является крупным животным с сильной волей, заниматься деятельностью, такой как игра в видеоигры или карточную игру в Покемоны, которые обычно считаются человеческими занятиями.”

Обзоры Google AI расширяются в большее количество стран и регионов за последние несколько месяцев и недавно достигли более 1.5 миллиарда пользователей в месяц.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...