Отчет обнаружил, что ИИ-дезинформация не повлияла на европейские выборы 2024 года

Image by Vikasss, from Pixabay

Отчет обнаружил, что ИИ-дезинформация не повлияла на европейские выборы 2024 года

Время для прочтения: 3 мин.

Спешите? Вот основные факты!

  • Искусственный интеллект не повлиял на исходы европейских выборов.
  • Дезинформация, созданная с помощью ИИ, усилила существующие политические взгляды.
  • Недостоверная информация и путаница подорвали доверие к источникам.

Искусственно созданная дезинформация и дипфейки не повлияли на результаты выборов 2024 года в Великобритании, Европейском Союзе (ЕС) и Франции, согласно новому отчету Центра по технологиям и безопасности выборов (CETaS).

Несмотря на широко распространенные опасения о манипуляциях с помощью ИИ, исследование показало, что большинство дезинформации, созданной с помощью ИИ, укрепляло уже существующие политические убеждения, а не влияло на нерешительных избирателей.

Тем не менее, в отчете выражаются опасения по поводу более широких последствий использования ИИ, особенно в отношении этических проблем, которые он представляет в демократических процессах.

Отчет выявил 16 случаев распространения вирусной дезинформации на основе ИИ во время выборов в Великобритании и 11 случаев во время выборов в ЕС и Франции. В большинстве этих случаев, как утверждается в исследовании, были просто усилены уже существующие политические взгляды.

Однако последствия этих инцидентов с ИИ выявили образец дезинформации. Многие люди также были смущены, является ли контент, созданный ИИ, реальным, что подорвало доверие к онлайн-источникам.

В отчете говорится, что некоторые политики использовали ИИ в рекламных кампаниях без должной маркировки, поощряя нечестные избирательные практики.

В другом выводе отчет указывает на то, что рост сатиры, создаваемой с помощью ИИ, которую часто принимают за реальный контент, еще больше вводит избирателей в заблуждение, обнаруживая новый тип риска для целостности выборов.

Отчет подчеркивает роль как внутренних актеров, так и иностранного вмешательства в распространении дезинформации, основанной на ИИ. Однако он акцентирует внимание на том, что традиционные методы, такие как создание искусственного общественного мнения с помощью ботов и распространение дезинформации человеческими влиятельными лицами, имели гораздо большее влияние на избирателей, чем контент, созданный с помощью ИИ.

Хотя влияние ИИ на результаты выборов было незначительным, CETaS предупреждает о растущих рисках по мере того, как технология ИИ становится более доступной.

В докладе призывается правовые и регулирующие органы решить эти проблемы, предлагая необходимость балансировать свободу слова с борьбой против дезинформации, генерируемой ИИ. Он также подчеркивает важность четкой маркировки политического контента, созданного с помощью ИИ, чтобы предотвратить неэтичные практики ведения предвыборной кампании.

Окончательный отчет от CETaS, ожидаемый в ноябре 2024 года, будет сосредоточен на роли ИИ в выборах в США и предложит долгосрочные рекомендации по защите демократических процессов от угроз, связанных с ИИ.

Брифинг завершается признанием потенциально положительных применений ИИ. В отчете утверждается, что ИИ предоставил платформу для укрепления связи между избирателями и политическими кандидатами через синтетические онлайн-персоны.

Кроме того, генеративный AI помог проверяющим факты в приоритетном рассмотрении вводящих в заблуждение утверждений, сделанных кандидатами, помогая им определить, какие из них требуют срочного внимания.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...