Университет Чикаго предлагает художникам защиту от ИИ с помощью Glaze и Nightshade
Спешите? Вот краткие факты!
- Glaze и Nightshade защищают работы художников от несанкционированного использования в обучении ИИ.
- Glaze маскирует изображения, чтобы предотвратить повторение стиля художника ИИ.
- Nightshade нарушает работу ИИ, добавляя «отравленные» пиксели, которые портят обучающие данные.
Художники противостоят эксплуатационным AI моделям с помощью инструментов Glaze и Nightshade, разработанных Беном Жао и его командой из лаборатории SAND Университета Чикаго, как сообщает сегодня MIT Technology Review.
Эти инструменты направлены на защиту работ художников от использования без их согласия для обучения AI моделей, практику, которую многие творцы считают кражей. Glaze, скачанный более 4 миллионов раз с момента его выпуска в марте 2023 года, маскирует изображения, добавляя тонкие изменения, которые не позволяют AI учиться на стиле художника, говорит MIT.
Паслен, «агрессивный» аналог, еще больше нарушает работу AI-моделей, внося невидимые изменения, которые могут искажать обучение AI, если они используются в процессе обучения, как отмечено MIT.
К этим инструментам вдохновили художники, которые обеспокоены быстрым развитием генеративного AI, который часто опирается на онлайн-изображения для создания новых работ. MIT сообщает, что фантастическая иллюстратор Карла Ортис и другие творцы выразили опасения о потере средств к существованию, поскольку AI-модели воспроизводят их уникальные стили без разрешения или оплаты.
Для художников публикация в Интернете является важной для обеспечения видимости и дохода, но многие задумывались об удалении своих работ, чтобы избежать их копирования для обучения ИИ, что могло бы помешать их карьере, как отмечает MIT.
Nightshade, запущенный через год после Glaze, предлагает более агрессивную защиту, сообщает MIT. Добавление «отравленных» пикселей к изображениям нарушает обучение ИИ, что приводит к искаженным результатам, если эти изображения скопированы.
Символическое воздействие Белены нашло отклик у художников, которые видят в этом поэтическое правосудие: если их работу украдут для обучения ИИ, она может повредить те самые системы, которые ее эксплуатируют.
MIT утверждает, что эти инструменты встретили некоторое скептическое отношение, так как художники изначально беспокоились о конфиденциальности данных. Чтобы решить эту проблему, SAND Lab выпустила версию Glaze, работающую в офлайн-режиме, что гарантирует отсутствие передачи данных и укрепляет доверие художников, опасающихся эксплуатации.
Лаборатория также недавно расширила доступ, заключив партнерство с Cara, новой социальной платформой, которая запрещает контент, сгенерированный искусственным интеллектом, как отмечено в MIT.
Жао и его команда ставят своей целью изменить баланс сил между отдельными создателями и компаниями, работающими в области искусственного интеллекта.
Предлагая инструменты, которые защищают творчество от больших корпораций, Жао надеется укрепить положение художников, позволяя им сохранять контроль над своими работами и переосмысливать этические нормы вокруг ИИ и интеллектуальной собственности, говорится в MIT.
Эта инициатива набирает обороты, но некоторые эксперты предостерегают, что предложенные инструменты могут не обеспечивать надежной защиты, поскольку хакеры и разработчики ИИ ищут способы обхода этих защитных мер, как отмечено в MIT.
Теперь, когда Glaze и Nightshade доступны бесплатно, лаборатория SAND Чжао продолжает возглавлять движение в защиту художественной целостности против расширяющегося влияния создания контента с помощью искусственного интеллекта.
Оставьте комментарий
Отменить