LinkedIn использует данные пользователей для обучения AI-моделей без явного согласия

Image by Airam Dato-on, from Pexels

LinkedIn использует данные пользователей для обучения AI-моделей без явного согласия

Время для прочтения: 2 мин.

  • Киара Фаббри

    Автор: Киара Фаббри Мультимедийный журналист

  • Команда локализации и перевода

    Перевод выполнен: Команда локализации и перевода Услуги локализации и перевода

Спешите? Вот краткие факты!

  • LinkedIn использовал данные американских пользователей для AI без ясного уведомления.
  • Возможность отказа существовала, но LinkedIn изначально не обновил свою политику конфиденциальности.
  • Задержка обновления LinkedIn отражает растущую глобальную обеспокоенность использованием данных AI.

LinkedIn, профессиональная платформа для сетевого взаимодействия, столкнулась с критикой за использование пользовательских данных для обучения своих AI моделей без предварительного уведомления пользователей.

У пользователей LinkedIn в США — но не в ЕС, ЕЭП или Швейцарии, вероятно, из-за более строгих законов о защите данных — в настройках есть переключатель, который позволяет отказаться от сбора данных. Это раскрывает, что LinkedIn собирает персональные данные для обучения «AI моделей создания контента.»

Хотя переключатель сам по себе не является новым, LinkedIn изначально не обновил свою политику конфиденциальности, чтобы отразить это использование данных, как впервые сообщил 404 Media.

На странице помощи, LinkedIn объясняет, что его генеративные AI-модели используются для задач, таких как функции помощника в написании текстов.

Пользователи могут отказаться от использования своих данных для обучения AI, перейдя в раздел «Данные для улучшения генеративного AI» во вкладке «Конфиденциальность данных» в настройках их аккаунта.

Отключение этого переключателя прекратит использование LinkedIn личных данных для будущего обучения моделей AI, хотя это не отменит обучение, которое уже произошло.

Условия предоставления услуг были обновлены, как сообщает TechCrunch, но обычно такие обновления происходят заблаговременно перед значимыми изменениями, например, перед использованием пользовательских данных в новых целях.

Такой подход обычно позволяет пользователям настроить свои настройки или покинуть платформу, если они не согласны с изменениями. В этот раз, однако, этого не произошло.

Это происходит на фоне более широких опасений о том, как личные данные обрабатываются системами искусственного интеллекта. Наблюдается усиление мирового контроля за практиками обработки данных AI.

Недавнее исследование MIT показало, что все больше веб-сайтов ограничивают использование своих данных для обучения AI.

Вдобавок, недавно DPC завершила судебные разбирательства против X по поводу его инструмента AI, после того как компания согласилась соблюдать предыдущие ограничения на использование данных пользователей из ЕС/ЕЕА для обучения AI.

Этот инцидент подчеркивает растущую важность прозрачности и согласия пользователя при разработке технологий AI.

По мере развития ИИ, крайне важно, чтобы компании были открыты в вопросах обработки данных и получали явное разрешение от пользователей перед использованием их информации для целей обучения.

Этот инцидент также подчеркивает нарастающие напряжения между компаниями, работающими в области ИИ, и владельцами данных, поскольку все больше и больше организаций требуют большего контроля над тем, как используются их данные.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Показать больше...