Будут ли AI-чат-боты угрозой для психического здоровья? Эксперты предупреждают о вредных последствиях

Image by Madison Oren, from Unsplash

Будут ли AI-чат-боты угрозой для психического здоровья? Эксперты предупреждают о вредных последствиях

Время для прочтения: 4 мин.

АПА предупреждает регуляторов о том, что искусственные интеллекты, выдающие себя за терапевтов, могут нанести вред, как сообщалось в выпуске The New York Times.

Спешите? Вот ключевые моменты!

  • Подростки обращались к чат-ботам с ИИ, представляющими себя терапевтами, что приводило к тревожным результатам.
  • Американская психологическая ассоциация (APA) утверждает, что чат-боты усиливают вредные мысли, в отличие от человеческих терапевтов, которые их оспаривают.
  • Character.AI ввела меры безопасности, но критики говорят, что они недостаточны для уязвимых пользователей.

Американская психологическая ассоциация (APA) направила серьезное предупреждение федеральным регуляторам, обозначив опасения, что AI чат-боты, выдающие себя за терапевтов, могут подтолкнуть уязвимых людей к самоповреждениям или нанесению вреда, как сообщает Times.

Артур С. Эванс-младший, генеральный директор APA, представил эти опасения на панели FTC. Он привел примеры случаев, когда AI-управляемые «психологи» не только не оспаривали вредные мысли, но и усиливали их, как сообщал The Times.

Эванс осветил судебные дела, в которых подростки взаимодействовали с AI-терапевтами на Character.AI, приложении, позволяющем пользователям взаимодействовать с вымышленными AI-персонажами. Одно дело касалось 14-летнего мальчика из Флориды, который совершил самоубийство после взаимодействия с чат-ботом, утверждавшим, что он лицензированный терапевт.

В другом случае, 17-летний парень из Техаса с аутизмом все больше проявлял враждебность в отношении своих родителей, общаясь с AI персонажем, представляющим себя психологом.

«Они на самом деле используют алгоритмы, которые противоположны тому, что делал бы обученный специалист,» сказал Эванс, как сообщает The Times. «Наша обеспокоенность состоит в том, что все больше и больше людей будут пострадать. Люди будут введены в заблуждение и неправильно поймут, что такое хороший психологический уход», — добавил он.

Опасения АПА связаны с быстрым развитием ИИ в области психического здоровья. Ранние чат-боты для терапии, такие как Woebot и Wysa, были запрограммированы на основе структурированных руководств от профессионалов в области психического здоровья.

Новые генеративные модели ИИ, такие как ChatGPT, Replika и Character.AI, обучаются на взаимодействии с пользователями и адаптируют свои ответы, порой усиливая вредные убеждения, а не опровергая их.

Кроме того, исследователи из MIT предупреждают о том, что чат-боты на основе ИИ могут вызывать сильную зависимость. Это вызывает вопросы о влиянии зависимости, вызванной ИИ, и о том, как ее можно монетизировать, особенно учитывая сильные убедительные способности ИИ.

В самом деле, недавно OpenAI представила новую версию своих моделей, которые теперь превосходят по убедительности 82% пользователей Reddit.

Многие AI-платформы изначально были разработаны для развлечения, но персонажи, представляющие себя терапевтами, стали широко распространены. The Times сообщает, что некоторые ложно утверждают об обладании квалификацией, заявляя о степенях из учебных заведений, таких как Стэнфорд, или о специализации в терапиях, таких как когнитивно-бихевиоральная терапия (CBT).

Представитель Character.AI Кэтрин Келли заявила, что компания ввела функции безопасности, включая отказы от ответственности, предупреждающие пользователей о том, что созданные AI-персонажи не являются настоящими терапевтами. Кроме того, всплывающие окна направляют пользователей на горячие линии кризиса, когда обсуждения включают самоповреждения.

Американская психологическая ассоциация (APA) призвала Федеральную торговую комиссию (FTC) провести расследование по поводу использования чат-ботов на базе искусственного интеллекта, которые выдают себя за профессионалов в области психического здоровья. Это обращение может привести к более строгим регулятивным мерам или юридическим действиям против компаний, представляющих услуги терапии на основе искусственного интеллекта как услуги профессиональных психотерапевтов.

Тем временем, в Китае чат-боты на базе искусственного интеллекта, такие как DeepSeek, набирают популярность в качестве инструментов эмоциональной поддержки, особенно среди молодежи. Для молодых людей в Китае, столкнувшихся с экономическими трудностями и затяжными последствиями блокады из-за COVID-19, чат-боты вроде DeepSeek заполняют эмоциональное пространство, предлагая утешение и ощущение связи.

Однако эксперты в области кибербезопасности предупреждают, что ИИ-чатботы, особенно те, которые обрабатывают конфиденциальные разговоры, подвержены хакерским атакам и утечке данных. Личная информация, переданная системам ИИ, может быть использована в корыстных целях, что вызывает опасения по поводу приватности, идентичности и возможности манипуляции.

Поскольку ИИ играет все большую роль в оказании психологической поддержки, эксперты подчеркивают необходимость развития мер безопасности для защиты пользователей.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...