
Photo by Mitchell Luo on Unsplash
AI Google снова становится вирусным из-за бредовых интерпретаций фальшивых идиом
Пользователи социальных сетей заметили, что функция AI Overviews от Google предоставляет объяснения и определения для выдуманных идиом, когда они включают слово «значение» после случайной фразы. Многие из этих ответов, сгенерированных AI, стали вирусными, вызывая смех среди пользователей социальных сетей.
Спешите? Вот краткие факты:
- Пользователи в социальных сетях заметили, что AI Overviews от Google придумывает объяснения для фиктивных идиом.
- Многие пользователи Threads, X и Bluesky сообщили о подобных галлюцинациях с абсурдными, выдуманными поговорками.
- Это не первый раз, когда AI Overviews становится вирусным за предоставление некорректной информации.
Это не первый раз, когда AI Overviews зарабатывает себе позорную репутацию. В прошлом году AI инструмент Google Search стал вирусным из-за предоставления некорректных ответов— некоторые из которых были основаны на устаревших постах Reddit — что подрывает доверие к модели, ее надежность и точность.
На этот раз модель AI дала пользователям «серьезные» ответы на выдуманные высказывания. Согласно Mashable, эту потребность моделей AI давать ответ даже тогда, когда у них нет ответа или достаточно информации для предоставления правильного ответа, теперь называют «AI-splaining».
Выплюнула свой кофе.
Я называю это «AI-splaining» pic.twitter.com/K9tLIwoCqC
— Лили Рэй 😏 (@lilyraynyc) 20 апреля 2025
Многие пользователи поделились в социальных сетях несколькими примерами текущей ситуации с обзорами AI. «Кто-то на Threads заметил, что вы можете ввести в Google любое случайное предложение, а затем добавить после него «значение», и вы получите объяснение от AI известной идиомы или фразы, которую вы только что придумали», — написал пользователь Bluesky, который приложил скриншоты своего теста.
Он написал «вы не можете облизать барсука дважды», после этого слова «значение», и ИИ модель предоставила объяснение этому выдуманному идиому: «Это означает, что вы можете обмануть или ввести в заблуждение кого-то второй раз после того, как они уже однажды были обмануты». AI Overviews продолжила давать более подробное объяснение, разбирая его по словам.
«Ответы в этой ветке очень смешные, но это тревожный сигнал, что одна из ключевых функций Гугл — способность проверить цитату, подтвердить источник или отследить что-то полузабытое — станет намного сложнее, если ИИ предпочитает легитимные статистические возможности над реальной правдой», — добавил пользователь.
Журналист из Yahoo! Tech подтвердил галлюцинацию, написав выдуманные идиомы о Покемонах, такие как «Никогда не позволяйте вашей лошади играть в Покемонов», и модель AI ответила полностью выдуманным объяснением: “Это юмористическое, непринужденное предостережение против того, чтобы позволить лошади, которая является крупным животным с сильной волей, заниматься деятельностью, такой как игра в видеоигры или карточную игру в Покемоны, которые обычно считаются человеческими занятиями.”
Обзоры Google AI расширяются в большее количество стран и регионов за последние несколько месяцев и недавно достигли более 1.5 миллиарда пользователей в месяц.
Оставьте комментарий
Отменить