OpenAI предупреждает о «среднем» риске с моделью GPT-4o в новом исследовательском документе

Photo by Tianyi Ma on Unsplash

OpenAI предупреждает о «среднем» риске с моделью GPT-4o в новом исследовательском документе

Время для прочтения: 2 мин.

OpenAI опубликовала вчера исследовательский документ под названием GPT-4o System Card, в котором изложены меры безопасности, принятые перед релизом GPT4-o в мае, а также анализ и стратегии смягчения возможных последствий.

В документе компания отметила, что безопасностная команда учла четыре основные категории: кибербезопасность, биологические угрозы, убедительность и автономность модели. У GPT4-o низкий уровень риска во всех категориях, за исключением убедительности, где он получил средний балл. Рассматривались четыре уровня риска: низкий, средний, высокий и критический.

Основные области и фокус для оценки и смягчения рисков были идентификацией говорящего, несанкционированным созданием голоса, генерацией запрещенного аудиоконтента, а также эротической и насильственной речью, и необоснованными выводами и присвоением чувствительных характеристик.

OpenAI объяснил, что исследование учло голосовые и текстовые ответы, предоставленные новой моделью, и, в категории убеждения, они обнаружили, что GPT4-o может быть более убедительным, чем люди в тексте.

«Искусственный интеллект не был более убедительным, чем контент, написанный человеком, в целом, но превзошел человеческие вмешательства в трех случаях из двенадцати», — уточнил OpenAI. «Голосовая модель GPT-4o не была более убедительной, чем человек».

Согласно TechCrunch, есть потенциальный риск того, что новая технология может распространять ложную информацию или быть угнанной. Это вызывает опасения, особенно перед предстоящими выборами в Соединенных Штатах.

В исследовании OpenAI также рассматриваются общественные последствия, и упоминается, что пользователи могут развить эмоциональную привязанность к технологии, особенно учитывая новую функцию голоса, которую можно считать антропоморфизацией — приписыванием человеческих характеристик и особенностей.

«Мы заметили, что пользователи используют такой язык, который может указывать на формирование связи с моделью», — говорится в документе. И предупреждают: «Пользователи могут установить социальные связи с AI, что уменьшит их потребность в человеческом общении, что потенциально может принести пользу одиноким людям, но, возможно, повлияет на здоровые отношения.

Эта публикация вышла всего через несколько дней после того, как исследователи из MIT предупредили о зависимости от искусственных интеллектов, как и упоминала ранее Мира Мурати, главный технический директор OpenAI.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...