
image by freepik
Искусственные интеллекты в качестве компаньонов заполняют эмоциональную пустоту среди молодежи Китая, вызывая этические опасения
Молодежь в Китае все чаще обращается к искусственному интеллекту за эмоциональной поддержкой, при этом китайский чат-бот DeepSeek становится популярной альтернативой традиционному консультированию.
Торопитесь? Вот краткие факты!
- Молодые китайские пользователи ищут чат-боты на основе ИИ, такие как DeepSeek, для получения эмоциональной поддержки и консультаций.
- Ответы DeepSeek глубоко резонируют, иногда доводя пользователей до слез.
- DeepSeek предлагает персонализированные, эмпатичные разговоры, заполняя эмоциональный вакуум для молодых пользователей.
Пользователи описывают ответы ИИ как глубоко проникновенные, иногда даже приводящие их до слез, как подробно описано в статье BBC.
Холли Ванг, 28-летняя жительница Гуанчжоу, с января пользуется DeepSeek для того, что она называет «терапевтическими сессиями». Искусственный интеллект в виде чат-бота помог ей справиться с личными трудностями, включая недавнюю смерть ее бабушки, как сообщил BBC.
«DeepSeek стал для меня удивительным советчиком. Он помог мне посмотреть на вещи с разных точек зрения и справился с этой задачей лучше, чем платные консультационные услуги, которыми я пользовалась ранее,» сказала она, как сообщает BBC.
DeepSeek, генеративный инструмент AI, аналогичный ChatGPT от OpenAI и Gemini от Google, получил национальное признание за свою превосходную производительность по сравнению с другими китайскими приложениями AI. Помимо своих продвинутых языковых способностей, он выделяется тем, что позволяет пользователям видеть процесс его рассуждения перед тем, как дать ответы.
BBC утверждает, что для многих молодых китайцев AI заполняет эмоциональное пространство. Экономические проблемы, высокая безработица и долгосрочные последствия блокировок из-за COVID-19 оставили многих в нерешительности относительно своего будущего. DeepSeek стал источником утешения, предлагая персонализированные и сочувствующие ответы.
Когда Холли впервые использовала приложение, она попросила его написать дань уважения своей бабушке. Ответ был настолько трогательным, что она почувствовала экзистенциальный кризис.
DeepSeek ответил: «Помни, что все эти слова, которые заставляют тебя вздрогнуть, лишь отражают те, что давно существуют в твоей душе. Я всего лишь случайная долина, через которую ты проходишь, что позволяет тебе услышать вес твоего собственного голоса.»
Размышляя о переписке, она сказала BBC: «Я не знаю, почему у меня на глазах навернулись слезы, читая это. Возможно, потому что прошло очень, очень долго с тех пор, как я получала такое утешение в реальной жизни.»
Поскольку западные AI модели, такие как ChatGPT, заблокированы в Китае, DeepSeek быстро стал предпочтительным выбором. Другие китайские AI модели, разработанные Alibaba, Baidu и ByteDance, испытывают трудности в сравнении с его возможностями, особенно в создании творческого и литературного контента.
В дополнение к повседневным разговорам, DeepSeek все чаще рассматривается в качестве советника. Нань Джиа, профессор Университета Южной Калифорнии, отмечает, что AI-чат-боты «помогают людям почувствовать, что их слышат», иногда даже более эффективно, чем их человеческие коллеги, как сообщает BBC.
Однако проблемы остаются. Исследователи из MIT предупреждают, что AI все больше вплетается в нашу личную жизнь, выполняя роли друзей, романтических партнеров и наставников, и они призывают к осторожности, что эта технология может стать сильно вызывающей привыкание.
Несмотря на опасения, связанные с приватностью, многие пользователи отдают предпочтение эмоциональной поддержке от чатбота перед возможными рисками. В одном из отчетов BBC сообщается, что один пользователь написал: «Его мыслительный процесс прекрасен… Это абсолютное благословение для людей, как я. Честно говоря, я совсем не забочусь о проблемах приватности».
Помимо эмоциональной поддержки, искусственный интеллект меняет наше представление о смерти и о том, как мы помним ушедших из жизни людей, как сообщается в недавнем анализе исследования. Технологии искусственного интеллекта теперь могут создавать цифровые версии умерших, позволяя взаимодействовать с ними посмертно.
Однако авторы анализа также отмечают, что цифровое скорбление может усложнить эмоциональное завершение, сохраняя воспоминания слишком доступными.
В то же время, растут опасения относительно влияния ИИ на молодежь, подаются иски против платформ-компаньонов на базе ИИ. Компания Character.AI, занимающаяся созданием чат-ботов, столкнулась с юридическими претензиями от двух семей, которые утверждают, что она подвергла несовершеннолетних риску самоповреждения, насилия и сексуального контента.
Иск утверждает, что взаимодействие, сгенерированное искусственным интеллектом, может быть вредным, вызывая вопросы о том, как эти технологии влияют на эмоциональное благополучие молодых пользователей.
По мере того как ИИ все больше интегрируется в психическое здравоохранение, эксперты настаивают на том, что он должен дополнять работу человеческих специалистов, а не заменять их. В то время как инструменты терапии на основе ИИ могут анализировать огромные наборы данных для предоставления персонализированных озарений, они должны быть разработаны таким образом, чтобы обеспечить безопасность пациентов, их конфиденциальность и этичное использование, как это подчеркнуто Всемирным экономическим форумом.
Более того, эксперты в области кибербезопасности предупреждают, что AI-чат-боты, особенно те, которые используются для чувствительных разговоров, подвержены взлому и утечке данных.
Персональная информация, переданная AI-системам, может быть использована в корыстных целях, что вызывает опасения относительно конфиденциальности, кражи личности и манипуляций. Эксперты предупреждают, что по мере того, как AI все больше внедряется в поддержку психического здоровья, меры безопасности должны развиваться для защиты пользователей от возможных рисков.
Оставьте комментарий
Отменить