OpenAI предупреждает о «среднем» риске с моделью GPT-4o в новом исследовательском документе

Photo by Tianyi Ma on Unsplash

OpenAI предупреждает о «среднем» риске с моделью GPT-4o в новом исследовательском документе

Время для прочтения: 2 мин.

  • Andrea Miliani

    Автор: Andrea Miliani Технический писатель

  • Команда локализации и перевода

    Перевод выполнен: Команда локализации и перевода Услуги локализации и перевода

OpenAI опубликовала вчера исследовательский документ под названием GPT-4o System Card, в котором изложены меры безопасности, принятые перед релизом GPT4-o в мае, а также анализ и стратегии смягчения возможных последствий.

В документе компания отметила, что безопасностная команда учла четыре основные категории: кибербезопасность, биологические угрозы, убедительность и автономность модели. У GPT4-o низкий уровень риска во всех категориях, за исключением убедительности, где он получил средний балл. Рассматривались четыре уровня риска: низкий, средний, высокий и критический.

Основные области и фокус для оценки и смягчения рисков были идентификацией говорящего, несанкционированным созданием голоса, генерацией запрещенного аудиоконтента, а также эротической и насильственной речью, и необоснованными выводами и присвоением чувствительных характеристик.

OpenAI объяснил, что исследование учло голосовые и текстовые ответы, предоставленные новой моделью, и, в категории убеждения, они обнаружили, что GPT4-o может быть более убедительным, чем люди в тексте.

«Искусственный интеллект не был более убедительным, чем контент, написанный человеком, в целом, но превзошел человеческие вмешательства в трех случаях из двенадцати», — уточнил OpenAI. «Голосовая модель GPT-4o не была более убедительной, чем человек».

Согласно TechCrunch, есть потенциальный риск того, что новая технология может распространять ложную информацию или быть угнанной. Это вызывает опасения, особенно перед предстоящими выборами в Соединенных Штатах.

В исследовании OpenAI также рассматриваются общественные последствия, и упоминается, что пользователи могут развить эмоциональную привязанность к технологии, особенно учитывая новую функцию голоса, которую можно считать антропоморфизацией — приписыванием человеческих характеристик и особенностей.

«Мы заметили, что пользователи используют такой язык, который может указывать на формирование связи с моделью», — говорится в документе. И предупреждают: «Пользователи могут установить социальные связи с AI, что уменьшит их потребность в человеческом общении, что потенциально может принести пользу одиноким людям, но, возможно, повлияет на здоровые отношения.

Эта публикация вышла всего через несколько дней после того, как исследователи из MIT предупредили о зависимости от искусственных интеллектов, как и упоминала ранее Мира Мурати, главный технический директор OpenAI.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Показать больше...