Четкая граница между реальными и созданными ИИ видео может исчезнуть в 2025 году
Контент, созданный с помощью ИИ, пришел, чтобы остаться. Он становится все лучше и лучше, и мы видели значительное улучшение технологий ИИ в 2024 году. Сможем ли мы отличить реальное от виртуального в 2025 году?
Недавно я спросила себя: «Это настоящая женщина?» — прищурившись немного — после того как увидела пост в Instagram. «Нет, это должно быть создано с помощью ИИ», — решила я через мгновение. Затем я сразу же задалась вопросом: Будем ли мы все еще способны отличить разницу в течение секунд в следующем году? Все признаки говорят о том, что нет, особенно в социальных сетях, как предполагают последние крупные разработки в области технологий ИИ.
Несколько дней назад глава Instagram, Адам Моссери, оставил сообщение, посвящённое этому вопросу на Threads. «Генеративный AI явно создаёт контент, который трудно отличить от записей реальности, и он стремительно совершенствуется», — написал он. Моссери публично признал, что в компании Meta у них возникают трудности с маркировкой контента, созданного AI, а также с контролем и мониторингом огромного количества медиа, которое делится каждую секунду на их социальных медиа-платформах.
Моссери отмыл руки Meta от ответственности и предупредил пользователей, что от них зависит, смогут ли они определить, является ли публикация реальной или нет. «Будет все более важно, чтобы зритель или читатель подходили с разборчивым умом к контенту, который представляется как репортаж или запись реальности», — добавил он.
Всего через несколько дней OpenAI выпустил Sora Turbo, мощный генератор видео на базе искусственного интеллекта, позволяющий пользователям Pro и Plus создавать реалистичные видео по текстовым подсказкам. Всего через несколько минут пользователи начали создавать увлекательные реалистичные видео и делиться ими в социальных сетях.
Именно когда казалось, что производство видео достигло нового уровня, Google объявил о своем последнем инструменте AI для видео, Veo 2, с более высоким разрешением и более длинными клипами, чем у Sora. Конечно, результаты, поделенные теми, кто имел доступ к передовой технологии, были еще более впечатляющими.
«Теперь никто не скажет, что это искусственный интеллект», — написал один из пользователей.
Все кончено.
Google Veo 2 просто смел конкурентов и стал новым королем мира медиа на базе искусственного интеллекта.
Теперь никто не скажет, что это искусственный интеллект.
10 диких примеров: pic.twitter.com/MKAN4Lwj6m
— el.cine (@EHuanglu) 17 декабря 2024
Это уже происходит
В 2024 году мы стали свидетелями того, как контент, созданный с помощью искусственного интеллекта, оказал влияние на население, выборы и пользователей социальных сетей.
В январе жители Нью-Гэмпшира получили звонок «от Джо Байдена», в котором их убеждали не голосовать на первичных выборах. За эту аферу стоял политический консультант Стив Крамер, который был оштрафован на 6 миллионов долларов за робозвонки с использованием искусственного интеллекта. Правительства начинают понимать воздействие, которое может оказать искусственный интеллект, и такие государства, как Сингапур, разрабатывают законы и стратегии, помогающие населению распознавать поддельные контенты.
В Венесуэле видео, созданные с помощью искусственного интеллекта, распространяют дезинформацию, но также помогают журналистам информировать через аватары искусственного интеллекта, обходя цензуру.
Людям все труднее отличить, что является реальным, а что нет, и винить в этом их нельзя: контент, созданный с помощью искусственного интеллекта, становится все лучше и лучше.
Все больше бизнесов в различных формах; текст, аудио и видео, растет на качественном контенте, сгенерированном AI. Многие создатели OnlyFans в настоящее время полагаются на чат-ботов для ведения разговоров со своими фанатами, работа, которая раньше была поручена работникам-фрилансерам из стран с низким уровнем дохода. Новые модели AI, специализирующиеся на техниках флирта, даже сгенерировали $1,000 на чаевые от своих последователей.
В апреле стартап Synthesia, поддерживаемый Nvidia, запустил AI-аватаров, способных выражать человеческие эмоции и говорить на 130 языках. TikTok позволяет компаниям создавать AI-генерируемую рекламу с использованием содержимого Getty Images, а теперь создатели YouTube могут использовать новую функцию AI авто-дублирования для перевода своего контента на 9 языков, а будущие обновления будут воспроизводить оригинальный голос.
Zoom работает над созданием AI-аватаров, которые выглядят как пользователи, чтобы помочь им записывать сообщения и даже участвовать в собраниях. Этот инструмент будет запущен в следующем году, но люди уже тестировали несколько инструментов, и компании уже могут создавать фотореалистичные AI-клоны.
Вы уверены, что во время последнего звонка через Zoom вы разговаривали с реальным человеком?
Как понять, было ли это создано AI? Пока
Мы живем в замешательстве в это цифровую эпоху. Фильтры могут сделать каждого похожим на модель с идеальной кожей, а коррекции, достойные Photoshop, доступны в один клик в Instagram или Snapchat — сколько людей захотят делиться своим «естественным» образом, со всеми недостатками, когда его можно улучшить за секунды? Мы видим все больше и больше объявлений с фотореалистичными изображениями, созданными искусственным интеллектом, постепенно убеждающими наши глаза в их знакомстве и «нормальности». И каждый день удивительные события по всему миру заставляют нас задаваться вопросом: что на самом деле реально, а что уже нет?
Крупные компании, занимающиеся искусственным интеллектом, работают над созданием водяных знаков, чтобы легче определять контент, созданный их AI. Google DeepMind запустил свою открытую систему водяных знаков в октябре для маркировки AI видео, текстов и аудио, а Meta также включила одну в свой инструмент для создания AI видео.
Однако эффективность такого подхода вызывает сомнения, начиная с того, что Meta признает, что они не могут пометить весь контент, созданный AI. Злоумышленники все еще могут найти способы удаления водяных знаков, и для создания более успешной системы необходимы дополнительные законы, партнерства и соглашения между социальными медиа компаниями и правительствами.
На данный момент, помимо доверия нашей интуиции, мы можем задать себе несколько вопросов перед тем, как делиться информацией в социальных сетях или верить тому, что видим:
- Следуя рекомендациям Моссери, рассмотрите следующее: Кто делится этой информацией? Это достоверный источник?
- Выглядит ли выражение лица или движения человека роботизированными? Несмотря на то, что аватары AI могут быть весьма реалистичными, все еще можно заметить странную жесткость или отсутствие эмоций — хотя стоит отметить, что некоторые компании, такие как Synthesia, уже работают над улучшением этого.
- Создан ли контент для того, чтобы вызвать сильную эмоциональную реакцию? Злонамеренные актеры знают, насколько легко мы распространяем негативные новости и взаимодействуем с эмоционально насыщенным материалом в социальных сетях, и исследования подтверждают это. Прежде чем делиться контентом, который заставил вашу кровь кипеть, чтобы вызвать такое же возмущение у других, подумайте, создан ли он для того, чтобы вызвать споры, или это на самом деле реальные новости или реальное событие.
- Можете ли вы подтвердить содержание с помощью других источников? Проверка у надежных источников никогда не помешает.
И, наконец, задавали ли вы себе — или вашему любимому чат-боту — вопрос о том, как улучшить ваше критическое мышление? Развитие критического мышления точно должно быть в числе новогодних решений каждого из нас.
Оставьте комментарий
Отменить