Четкая граница между реальными и созданными ИИ видео может исчезнуть в 2025 году

Photo by ActionVance on Unsplash

Четкая граница между реальными и созданными ИИ видео может исчезнуть в 2025 году

Время для прочтения: 6 мин.

Контент, созданный с помощью ИИ, пришел, чтобы остаться. Он становится все лучше и лучше, и мы видели значительное улучшение технологий ИИ в 2024 году. Сможем ли мы отличить реальное от виртуального в 2025 году?

Недавно я спросила себя: «Это настоящая женщина?» — прищурившись немного — после того как увидела пост в Instagram. «Нет, это должно быть создано с помощью ИИ», — решила я через мгновение. Затем я сразу же задалась вопросом: Будем ли мы все еще способны отличить разницу в течение секунд в следующем году? Все признаки говорят о том, что нет, особенно в социальных сетях, как предполагают последние крупные разработки в области технологий ИИ.

Несколько дней назад глава Instagram, Адам Моссери, оставил сообщение, посвящённое этому вопросу на Threads. «Генеративный AI явно создаёт контент, который трудно отличить от записей реальности, и он стремительно совершенствуется», — написал он. Моссери публично признал, что в компании Meta у них возникают трудности с маркировкой контента, созданного AI, а также с контролем и мониторингом огромного количества медиа, которое делится каждую секунду на их социальных медиа-платформах.

Моссери отмыл руки Meta от ответственности и предупредил пользователей, что от них зависит, смогут ли они определить, является ли публикация реальной или нет. «Будет все более важно, чтобы зритель или читатель подходили с разборчивым умом к контенту, который представляется как репортаж или запись реальности», — добавил он.

Всего через несколько дней OpenAI выпустил Sora Turbo, мощный генератор видео на базе искусственного интеллекта, позволяющий пользователям Pro и Plus создавать реалистичные видео по текстовым подсказкам. Всего через несколько минут пользователи начали создавать увлекательные реалистичные видео и делиться ими в социальных сетях.

Именно когда казалось, что производство видео достигло нового уровня, Google объявил о своем последнем инструменте AI для видео, Veo 2, с более высоким разрешением и более длинными клипами, чем у Sora. Конечно, результаты, поделенные теми, кто имел доступ к передовой технологии, были еще более впечатляющими.

«Теперь никто не скажет, что это искусственный интеллект», — написал один из пользователей.

Это уже происходит

В 2024 году мы стали свидетелями того, как контент, созданный с помощью искусственного интеллекта, оказал влияние на население, выборы и пользователей социальных сетей.

В январе жители Нью-Гэмпшира получили звонок «от Джо Байдена», в котором их убеждали не голосовать на первичных выборах. За эту аферу стоял политический консультант Стив Крамер, который был оштрафован на 6 миллионов долларов за робозвонки с использованием искусственного интеллекта. Правительства начинают понимать воздействие, которое может оказать искусственный интеллект, и такие государства, как Сингапур, разрабатывают законы и стратегии, помогающие населению распознавать поддельные контенты.

В Венесуэле видео, созданные с помощью искусственного интеллекта, распространяют дезинформацию, но также помогают журналистам информировать через аватары искусственного интеллекта, обходя цензуру.

Людям все труднее отличить, что является реальным, а что нет, и винить в этом их нельзя: контент, созданный с помощью искусственного интеллекта, становится все лучше и лучше.

Все больше бизнесов в различных формах; текст, аудио и видео, растет на качественном контенте, сгенерированном AI. Многие создатели OnlyFans в настоящее время полагаются на чат-ботов для ведения разговоров со своими фанатами, работа, которая раньше была поручена работникам-фрилансерам из стран с низким уровнем дохода. Новые модели AI, специализирующиеся на техниках флирта, даже сгенерировали $1,000 на чаевые от своих последователей.

В апреле стартап Synthesia, поддерживаемый Nvidia, запустил AI-аватаров, способных выражать человеческие эмоции и говорить на 130 языках. TikTok позволяет компаниям создавать AI-генерируемую рекламу с использованием содержимого Getty Images, а теперь создатели YouTube могут использовать новую функцию AI авто-дублирования для перевода своего контента на 9 языков, а будущие обновления будут воспроизводить оригинальный голос.

Zoom работает над созданием AI-аватаров, которые выглядят как пользователи, чтобы помочь им записывать сообщения и даже участвовать в собраниях. Этот инструмент будет запущен в следующем году, но люди уже тестировали несколько инструментов, и компании уже могут создавать фотореалистичные AI-клоны.

Вы уверены, что во время последнего звонка через Zoom вы разговаривали с реальным человеком?

Как понять, было ли это создано AI? Пока

Мы живем в замешательстве в это цифровую эпоху. Фильтры могут сделать каждого похожим на модель с идеальной кожей, а коррекции, достойные Photoshop, доступны в один клик в Instagram или Snapchat — сколько людей захотят делиться своим «естественным» образом, со всеми недостатками, когда его можно улучшить за секунды? Мы видим все больше и больше объявлений с фотореалистичными изображениями, созданными искусственным интеллектом, постепенно убеждающими наши глаза в их знакомстве и «нормальности». И каждый день удивительные события по всему миру заставляют нас задаваться вопросом: что на самом деле реально, а что уже нет?

Крупные компании, занимающиеся искусственным интеллектом, работают над созданием водяных знаков, чтобы легче определять контент, созданный их AI. Google DeepMind запустил свою открытую систему водяных знаков в октябре для маркировки AI видео, текстов и аудио, а Meta также включила одну в свой инструмент для создания AI видео.

Однако эффективность такого подхода вызывает сомнения, начиная с того, что Meta признает, что они не могут пометить весь контент, созданный AI. Злоумышленники все еще могут найти способы удаления водяных знаков, и для создания более успешной системы необходимы дополнительные законы, партнерства и соглашения между социальными медиа компаниями и правительствами.

На данный момент, помимо доверия нашей интуиции, мы можем задать себе несколько вопросов перед тем, как делиться информацией в социальных сетях или верить тому, что видим:

  • Следуя рекомендациям Моссери, рассмотрите следующее: Кто делится этой информацией? Это достоверный источник?
  • Выглядит ли выражение лица или движения человека роботизированными? Несмотря на то, что аватары AI могут быть весьма реалистичными, все еще можно заметить странную жесткость или отсутствие эмоций — хотя стоит отметить, что некоторые компании, такие как Synthesia, уже работают над улучшением этого.
  • Создан ли контент для того, чтобы вызвать сильную эмоциональную реакцию? Злонамеренные актеры знают, насколько легко мы распространяем негативные новости и взаимодействуем с эмоционально насыщенным материалом в социальных сетях, и исследования подтверждают это. Прежде чем делиться контентом, который заставил вашу кровь кипеть, чтобы вызвать такое же возмущение у других, подумайте, создан ли он для того, чтобы вызвать споры, или это на самом деле реальные новости или реальное событие.
  • Можете ли вы подтвердить содержание с помощью других источников? Проверка у надежных источников никогда не помешает.

И, наконец, задавали ли вы себе — или вашему любимому чат-боту — вопрос о том, как улучшить ваше критическое мышление? Развитие критического мышления точно должно быть в числе новогодних решений каждого из нас.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...