
Image by Freepik
Все больше подростков вводят в заблуждение контент, созданный с помощью искусственного интеллекта, показывает исследование
Все больше подростков испытывают трудности в различении подлинного и манипулированного контента в интернете, а мультимедиа, созданная с помощью искусственного интеллекта, только усугубляет путаницу.
Спешите? Вот краткий обзор!
- Многие подростки делали репосты контента, который позже оказывался фальшивым.
- Многие подростки не доверяют технологическим компаниям в вопросах заботы о их психическом здоровье.
- Большинство подростков поддерживают идею маркировки контента, сгенерированного с помощью искусственного интеллекта, для большей прозрачности.
В недавнем отчете подчеркивается, что 35% подростков были введены в заблуждение поддельным контентом, в то время как 22% признались в том, что распространяли контент, который позже оказался ложным, и 28% задавались вопросом, общаются ли они с человеком или чат-ботом.
Эти опыты значительно изменили доверие подростков к информации в Интернете. Исследование показало, что 72% подростков изменили свой подход к оценке цифрового контента после столкновения с обманчивым материалом.
Кроме того, более трети (35%) считают, что генеративный ИИ дальше подорвет доверие к информации в сети. Те, кто был введен в заблуждение ложным контентом, еще более скептичны, с 40% говорящих, что ИИ затруднит проверку точности, по сравнению с 27% тех, кто не имел подобного опыта.
Генеративный AI сталкивается с серьезными проблемами доверия среди подростков, особенно в академической среде. Почти двое из пяти (39%) учащихся, которые использовали AI для выполнения школьных заданий, сообщили о наличии неточностей в контенте, сгенерированном AI. Тем временем, 36% не заметили никаких проблем, и 25% были неуверены.
Это вызывает опасения о надежности AI в образовательном контексте, подчеркивая необходимость лучших инструментов и критических навыков мышления, чтобы помочь подросткам оценивать контент, сгенерированный AI.
Вне зависимости от ИИ, доверие к крупным технологическим компаниям остается низким. Около 64% подростков считают, что крупные техфирмы не ставят на первое место их психическое здоровье, и 62% думают, что эти компании не защитят безопасность пользователей, если это повредит их прибыли.
Более половины также сомневаются, что техгиганты принимают этичные решения в дизайне (53%), обеспечивают защиту личных данных (52%) или справедливо учитывают потребности различных пользователей (51%). Что касается ИИ, то 47% мало верят в то, что технологические компании принимают ответственные решения об его использовании.
Несмотря на эти опасения, подростки решительно поддерживают защитные меры для генеративного ИИ. Почти три из четырех (74%) выступают за гарантии приватности и прозрачности, в то время как 73% считают, что контент, созданный с помощью ИИ, должен быть помечен или иметь водяной знак. Кроме того, 61% хотят, чтобы создатели контента получали компенсацию, когда модели ИИ используют их работу для обучения.
CNN отмечает, что недоверие подростков к крупным технологическим компаниям отражает более широкое недовольство крупными американскими технологическими компаниями. Американские взрослые также сталкиваются с растущим количеством вводящего в заблуждение или фальшивого контента, усугубленного ослаблением цифровых гарантий.
Поскольку генеративный AI переосмысливает цифровой ландшафт, борьба с дезинформацией и восстановление доверия требуют сотрудничества между технологическими компаниями, образователями, законодателями и подростками.
Укрепление цифровой грамотности и внедрение прозрачных стандартов управления AI станут ключевыми для обеспечения более прозрачной и надежной онлайн-среды.
Оставьте комментарий
Отменить