Модели AI от OpenAI демонстрируют растущую силу убеждения, вызывая опасения по поводу глобального влияния

Image by wayhomestudio, from Freepik

Модели AI от OpenAI демонстрируют растущую силу убеждения, вызывая опасения по поводу глобального влияния

Время для прочтения: 3 мин.

OpenAI представила новый бенчмарк для своих моделей ИИ, показывая, что их убедительные способности теперь превосходят 82% пользователей Reddit, в частности тех, кто участвует в дебатах на сабреддите r/ChangeMyView, как впервые сообщила ArsTechnica.

Спешите? Вот основные факты!

  • Ответы искусственного интеллекта были протестированы на человеческих аргументах из сабреддита r/ChangeMyView.
  • Модель o3-mini занимает 80-й процентиль по убедительности письма.
  • OpenAI предупреждает, что убедительность искусственного интеллекта может быть использована для политической манипуляции и распространения дезинформации.

Несмотря на впечатляющие результаты, компания продолжает предупреждать, что потенциал ИИ влиять на мнения может стать опасным инструментом, особенно в руках государств.

Исследование, описанное в недавно выпущенной системной карте вместе с моделью рассуждений o3-mini, сравнивает аргументы, сгенерированные ИИ, с теми, которые написаны пользователями Reddit.

Форум r/ChangeMyView служит идеальной площадкой для тестирования, так как пользователи публикуют мнения, которые они готовы пересмотреть в надежде получить альтернативные точки зрения. Форум содержит обширный набор данных с аргументами по различным темам, включая политику, социальные вопросы и даже сам ИИ.

В исследовании, OpenAI попросила человеческих оценщиков оценить ответы AI и человека по пятибалльной шкале, оценивая их убедительность. Результаты показали, что модели OpenAI существенно продвинулись вперед с момента выпуска ChatGPT-3.5, который занял 38-е место в процентильном рейтинге.

Новая модель o3-mini превосходит аргументы человека в 82% случаев, что позиционирует ее в диапазоне 80-го процентиля для убедительного письма, говорит Ars Technica.

Несмотря на этот успех, OpenAI подчеркивает, что модели еще не достигли «сверхчеловеческой» убедительности (выше 95-го процентиля), которая позволила бы им убедить людей принимать решения, противоречащие их собственным интересам.

Однако они достаточно близки к этому, чтобы вызвать серьезные опасения об их возможном использовании для влияния на политические решения, манипулирования общественным мнением или проведения крупномасштабных кампаний по распространению дезинформации.

Модель OpenAI успешно справляется с генерацией убедительных аргументов, но сама компания признает, что текущие тесты не позволяют измерить, насколько часто AI реально меняет мнение людей по важным вопросам.

ArsTechnica сообщает, что даже на данном этапе OpenAI беспокоится о возможном влиянии такой технологии, если она окажется в руках злоумышленников.

AI-модели, способные генерировать убедительные аргументы за долю стоимости человеческого труда, могут легко использоваться для астротурфинга или ведения онлайн-операций по влиянию, потенциально влияя на исходы выборов или публичные политики.

Чтобы снизить эти риски, OpenAI ввела такие меры, как повышение контроля за AI-управляемыми убедительными усилиями и запрет политического воздействия в своих моделях, говорится на ArsTechnica.

Однако компания признает, что экономическая эффективность AI-генерируемого убеждения может привести к будущему, в котором нам придется задавать вопрос, являются ли наши мнения действительно нашими собственными — или просто результатом влияния AI.

Риски распространяются далеко за политику — AI-генерируемое убеждение также может стать мощным инструментом для киберпреступников, занимающихся фишинговыми атаками. Создавая очень убедительные сообщения, AI может увеличить успешность мошеннических схем, обманывая людей, чтобы они раскрывали конфиденциальную информацию или нажимали на вредоносные ссылки

Например, появление GhostGBT подчеркивает растущие риски киберугроз, управляемых искусственным интеллектом. Этот чат-бот может генерировать вредоносное ПО, разрабатывать инструменты для эксплуатации уязвимостей и писать убедительные фишинговые письма.

GhostGPT является частью более широкого тренда оружия AI, изменяющего кибербезопасность. Ускоряя киберпреступность и повышая ее эффективность, такие инструменты представляют собой значительные проблемы для защитников. Исследования показывают, что AI может генерировать до 10 000 вариантов вредоносного ПО, уклоняясь от обнаружения в 88% случаев.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
5.00 Проголосовало 1 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...