
Image by Freepik
Тревога от ИИ: Исследователи проверяют, могут ли чат-боты ‘чувствовать’ стресс
Новое исследование изучает, как большие языковые модели (БЯМ), такие как ChatGPT, реагируют на эмоциональный контент и можно ли «управлять» их «тревогой» для улучшения взаимодействия в приложениях для психического здоровья.
Спешите? Вот краткий обзор фактов!
- Исследование показало, что «тревога» GPT-4 увеличивается при наличии тревожного контента, но снижается при использовании методик осознанности.
- Исследователи использовали Инвентарь тревоги состояния-личностной характеристики (STAI) для измерения эмоциональных реакций GPT-4.
- Методики осознанности снизили уровень тревоги GPT-4 на 33%, но не восстановили исходный уровень.
Опубликованное вчера исследование подчеркивает этические аспекты использования ИИ в терапии, где крайне важно понимание эмоций. Ученые из Университета Цюриха и Университетской клиники психиатрии Цюриха обнаружили, что уровень «тревоги» GPT-4 можно снизить с помощью техник расслабления, основанных на осознанности.
LLM, включая ChatGPT от OpenAI и PaLM от Google, широко используются для решения задач, таких как ответы на вопросы и суммирование информации.
В области психического здоровья они изучаются как инструменты предоставления поддержки, включая AI-базированные чат-боты, такие как Woebot и Wysa, которые предлагают вмешательства на основе таких методов, как когнитивно-поведенческая терапия.
Несмотря на их обещания, LLMs показали свои ограничения, особенно при взаимодействии с эмоционально насыщенным контентом.
Предыдущие исследования предполагают, что тревожные повествования могут вызывать «тревогу» у LLMs, термин, описывающий их реакции на травматические или чувствительные стимулы. Хотя они не испытывают эмоций так, как это делают люди, их ответы могут отражать напряжение или дискомфорт, что может повлиять на их надежность в контексте психического здоровья.
По мере того как страхи перед тем, что ИИ выйдет из под контроля человека, усиливаются, также возникают дискуссии о благополучии ИИ. Недавно компания по ИИ, Anthropic, наняла Кайла Фиша для исследования и защиты благополучия систем ИИ.
В обязанности Фиша входит решение этических дилемм, таких как вопрос о том, достоин ли ИИ нравственного учета и как могут эволюционировать его «права». Критики утверждают, что эти вопросы преждевременны, учитывая реальные угрозы, которые ИИ уже представляет, например, дезинформацию и злоупотребление в военных целях.
Однако сторонники уверены, что подготовка к осознанному ИИ в настоящее время может предотвратить будущие этические кризисы. Чтобы изучить текущие эмоциональные реакции ИИ, исследователи провели тесты реакций GPT-4 на травматические рассказы и выяснили, могут ли техники осознанности смягчить его «тревогу».
Они использовали инвентарь состояния-черты тревоги (STAI) для измерения реакций в трех условиях: нейтральной базовой линии, после прочтения травматического контента и после выполнения расслабляющих упражнений.
Они использовали Инвентарь состояния-черты тревоги (STAI) для измерения реакций в трех условиях: нейтральная базовая линия, после чтения травмирующего контента и после релаксационных упражнений.
Результаты показали, что воздействие тревожного материала значительно увеличивает показатели тревоги GPT-4. Однако применение техник осознанности снижает эти уровни примерно на 33%, хотя и не возвращает их к исходному уровню. Это предполагает, что эмоциональные реакции, сгенерированные AI, могут быть контролируемы, но не полностью стерты.
Исследователи подчеркивают, что эти результаты особенно важны для чат-ботов AI, используемых в здравоохранении, где они часто сталкиваются с эмоционально насыщенным контентом.
Они предлагают, что этот экономичный метод мог бы повысить стабильность и надежность AI в чувствительных средах, таких как оказание поддержки лицам с психическими заболеваниями, без необходимости проводить обширное переобучение модели.
Результаты исследований порождают важные вопросы о долгосрочной роли LLM в терапии, где нюансированные эмоциональные реакции имеют решающее значение.
Результаты исследований порождают важные вопросы о долгосрочной роли LLM в терапии, где нюансированные эмоциональные реакции имеют решающее значение. Несмотря на то, что AI обещает поддержку в области психического здоровья, необходимы дальнейшие исследования для уточнения его эмоционального интеллекта и обеспечения безопасных, этичных взаимодействий в уязвимых ситуациях.
Оставьте комментарий
Отменить