OpenAI предупреждает о «среднем» риске с моделью GPT-4o в новом исследовательском документе
OpenAI опубликовала вчера исследовательский документ под названием GPT-4o System Card, в котором изложены меры безопасности, принятые перед релизом GPT4-o в мае, а также анализ и стратегии смягчения возможных последствий.
В документе компания отметила, что безопасностная команда учла четыре основные категории: кибербезопасность, биологические угрозы, убедительность и автономность модели. У GPT4-o низкий уровень риска во всех категориях, за исключением убедительности, где он получил средний балл. Рассматривались четыре уровня риска: низкий, средний, высокий и критический.
Основные области и фокус для оценки и смягчения рисков были идентификацией говорящего, несанкционированным созданием голоса, генерацией запрещенного аудиоконтента, а также эротической и насильственной речью, и необоснованными выводами и присвоением чувствительных характеристик.
OpenAI объяснил, что исследование учло голосовые и текстовые ответы, предоставленные новой моделью, и, в категории убеждения, они обнаружили, что GPT4-o может быть более убедительным, чем люди в тексте.
«Искусственный интеллект не был более убедительным, чем контент, написанный человеком, в целом, но превзошел человеческие вмешательства в трех случаях из двенадцати», — уточнил OpenAI. «Голосовая модель GPT-4o не была более убедительной, чем человек».
Согласно TechCrunch, есть потенциальный риск того, что новая технология может распространять ложную информацию или быть угнанной. Это вызывает опасения, особенно перед предстоящими выборами в Соединенных Штатах.
В исследовании OpenAI также рассматриваются общественные последствия, и упоминается, что пользователи могут развить эмоциональную привязанность к технологии, особенно учитывая новую функцию голоса, которую можно считать антропоморфизацией — приписыванием человеческих характеристик и особенностей.
«Мы заметили, что пользователи используют такой язык, который может указывать на формирование связи с моделью», — говорится в документе. И предупреждают: «Пользователи могут установить социальные связи с AI, что уменьшит их потребность в человеческом общении, что потенциально может принести пользу одиноким людям, но, возможно, повлияет на здоровые отношения.
Эта публикация вышла всего через несколько дней после того, как исследователи из MIT предупредили о зависимости от искусственных интеллектов, как и упоминала ранее Мира Мурати, главный технический директор OpenAI.
Оставьте комментарий
Отменить