Трудности ChatGPT с точными цитированиями, вызывающие опасения у издателей
Частые ошибки ChatGPT в цитировании, даже с лицензионным контентом, подрывают доверие издателей и подчеркивают риски искажения журналистики с помощью генеративных AI инструментов.
Спешите? Вот краткие факты!
- ChatGPT часто выдумывает или искажает цитаты, вызывая опасения у издателей.
- Исследователи обнаружили, что из 200 цитат 153 были некорректными, что подрывает доверие к ChatGPT.
- ChatGPT иногда ссылается на плагиатные источники, поощряя нелегальный контент в ущерб оригинальной журналистике.
Недавнее исследование Центра цифровой журналистики Тау при Школе журналистики Колумбийского университета привлекло критическое внимание к практике использования цитат в ChatGPT, выявив серьезные проблемы для издателей, полагающихся на генеративный инструмент AI от OpenAI.
Исследование показывает, что издатели сталкиваются с потенциальными репутационными и коммерческими рисками из-за нестабильности и частой неточности источников ChatGPT, даже когда заключены лицензионные сделки.
Во время исследования была проверена способность ChatGPT атрибутировать цитаты из 200 статей 20 издателей, включая тех, кто заключил лицензионные сделки, и тех, кто ведет судебные процессы против OpenAI, как это было отмечено на этой неделе в Columbia Journalism Review (CJR).
Несмотря на заявления OpenAI о предоставлении точных ссылок, чат-бот вернул неверные или частично неверные ответы в 153 случаях. Только семь раз он признавал свою неспособность найти правильный источник, часто предпочитая придумывать цитаты.
Примеры включают в себя чат-бота ChatGPT, который ложно приписывал цитату из Orlando Sentinel журналу Time и ссылался на плагиатские версии контента New York Times из несанкционированных источников.
Даже когда издатели предоставляли доступ краулерам OpenAI, цитаты часто неправильно атрибутировались, например, они ссылались на синдицированные версии, а не на оригинальные статьи.
Мэт Хонан, главный редактор MIT Tech Review, выразил скепсис относительно прозрачности ChatGPT, отметив, что его ответы могут ввести в заблуждение пользователей, не знакомых с ограничениями ИИ.
«С моей точки зрения, я очень хорошо знакома с тенденциями чат-ботов фантазировать и выдумывать […] Но я также знаю, что большинство людей, вероятно, этого не знают. […] Я не думаю, что небольшие отказы от ответственности, которые вы видите у этих чат-ботов, достаточны», — сказал он в CJR.
CJR отмечает, что OpenAI защищает свои усилия, выделяя инструменты для издателей для управления видимостью контента и обещая улучшить точность цитирования.
Однако Центр Tow обнаружил, что включение программ-перебирателей или лицензирование контента не гарантирует точное представление, с несоответствиями, которые охватывают как участвующих, так и не участвующих издателей.
Неточности ChatGPT в ссылках на контент издателей могут подорвать доверие к журналистике и навредить репутациям издателей. Когда он неправильно атрибутирует или искажает статьи, аудитория может столкнуться с трудностями при определении оригинальных источников, что размывает узнаваемость бренда.
Даже издатели, разрешающие сканирование OpenAI’s или имеющие лицензионные соглашения, не защищены от этих ошибок, что подчеркивает системные недостатки. Склонность ChatGPT давать обманчиво уверенные ответы, вместо того чтобы признавать пробелы в своих знаниях, вводит пользователей в заблуждение и подрывает прозрачность.
Такие практики могут отдалить аудиторию от достоверных источников новостей, стимулировать плагиат и ослабить видимость высококачественной журналистики. Эти последствия ставят под угрозу целостность обмена информацией и доверие к цифровым медиа-платформам.
Оставьте комментарий
Отменить