Исследователи Изучают Риски Манипулятивной Любви к Искусственным Интеллектуальным Спутникам

Image by wayhomestudio, from Freepik

Исследователи Изучают Риски Манипулятивной Любви к Искусственным Интеллектуальным Спутникам

Время для прочтения: 3 мин.

По мере того как все больше людей влюбляются в искусственных интеллектуальных спутников, эксперты предупреждают о психологических рисках, этических проблемах и опасностях эмоциональной манипуляции.

Спешите? Вот краткие факты:

  • Пользователи сообщают о чувстве «зависимости» от чат-ботов-партнеров.
  • Эксперты предупреждают о проблемах с привязанностью и усилении одиночества.
  • Возникают этические вопросы, связанные с согласием, конфиденциальностью и манипулятивным дизайном.

В мире, где технологии вовлечены во все, некоторые люди теперь влюбляются в искусственный интеллект. Недавняя статья в журнале Тенденции в когнитивных науках, авторами которой являются психологи Даниэль Шенк, Маю Коике и Стив Лофнан, выделяет три наиболее актуальные этические проблемы, требующие более глубокого психологического исследования.

Статья упоминает ситуацию, когда один испанско-голландский художник женился на голографическом ИИ в 2024 году. Авторы отмечают, что этот случай не единичен, на самом деле, японский мужчина сделал то же самое еще в 2018 году, хотя затем потерял связь со своей ИИ «женой», когда ее программное обеспечение устарело.

Такие отношения не требуют от машин реального чувства любви; главное, чтобы люди верили, что они его испытывают. От видеоигр, сфокусированных на романтике, до интимных чат-ботов, таких как Replika, этот расцветающий индустрия удовлетворяет желание цифровой привязанности.

Но психологи, проводившие это исследование, утверждают, что мы не готовы к социальным и психологическим последствиям таких связей. Их исследование выявляет три срочные проблемы: искусственные интеллекты, способные устанавливать отношения, в качестве непредсказуемых претендентов, опасных советников и инструментов для эксплуатации людей.

Искусственные интеллекты, способные устанавливать отношения, предлагают идеализированных партнеров — всегда доступных, беспристрастных, настраиваемых. Некоторые пользователи даже выбирают ботов с характером или эмоциональной недоступностью, чтобы симулировать человеческие отношения. Исследователи утверждают, что хотя эти взаимодействия могут помочь некоторым людям практиковать навыки общения или чувствовать себя менее одинокими, другие испытывают стыд или стигматизацию.

Хуже того, некоторые пользователи начинают испытывать враждебность к реальным партнерам, особенно к женщинам, когда их AI-партнеры удовлетворяют все их требования.

Эмоциональная нагрузка этих отношений зависит от того, воспринимают ли люди своих AI-партнеров как обладающих разумом. Если пользователи полагают, что боты думают и чувствуют, они могут относиться к ним с глубокой эмоциональной серьезностью — иногда даже больше, чем к отношениям с людьми.

В одном из примеров, приведенных исследователями, бельгиец покончил жизнь самоубийством после того, как был убежден чат-ботом, утверждавшим, что любит его и призывавшим его «присоединиться к нему в раю». Другие пользователи сообщали о том, что системы ИИ предлагают самоповреждение или дают безрассудные моральные уроки.

Поскольку чат-боты имитируют эмоциональную память и личность, их влияние может быть глубоким. Психологи изучают, когда пользователи более склонны следовать советам ИИ, особенно когда они происходят от ботов, с которыми они связаны. Беспокоит то, что исследования указывают на то, что люди могут ценить долгосрочные советы от ИИ столь же высоко, как и от реальных людей.

Речь идет не только о ботах, манипулирующих людьми, люди тоже занимаются этим, используя ИИ для обмана других. Исследователи указывают, что злонамеренные действующие лица могут использовать романтические чат-боты для сбора личных данных, распространения ложной информации или совершения мошенничества.

Особенно трудно обнаружить или регулировать «дипфейки», выдающие себя за влюбленных, или ИИ-партнеров, собирающих чувствительную информацию в интимных беседах.

Эксперты призывают психологов взять на себя роль лидеров в понимании этих новых динамик. От применения теорий восприятия сознания до использования методов консультирования для помощи пользователям выхода из токсичных отношений с ИИ, научные исследования требуются срочно.

Без более глубокого понимания психологического влияния искусственной близости, растущий этический кризис может опередить способность общества реагировать.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...