Исследователи из Университета Кила анонсировали создание детектора фейковых новостей с точностью 99%

Image by memyselfaneye, from Pixabay

Исследователи из Университета Кила анонсировали создание детектора фейковых новостей с точностью 99%

Время для прочтения: 2 мин.

Исследователи из Университета Киел разработали инструмент, способный обнаруживать фейковые новости с точностью 99%, что представляет собой потенциальный ресурс для борьбы с растущей проблемой интернет-дезинформации. О разработке было объявлено университетом вчера.

Спешите? Вот краткие факты!

  • Исследователи из Университета Кила разработали инструмент, определяющий фейковые новости с точностью 99%.
  • Инструмент использует систему «ансамблевого голосования», объединяющую несколько моделей машинного обучения.
  • Инструмент оценивает содержание новостей, чтобы определить надежность источника.

Команда, в состав которой входят доктор Ученна Ани, доктор Сангита Сангита и доктор Патрисия Асово-Айободе из Школы компьютерных наук и математики, использовали различные методы машинного обучения для создания модели, способной анализировать содержание новостей и оценивать их надежность.

Инструмент использует подход «голосование ансамбля», который объединяет прогнозы от нескольких моделей машинного обучения для выработки общего суждения о том, является ли новостной ресурс достоверным. Первоначальное тестирование показало, что метод превосходит ожидания, определяя фейковые новости в 99% случаев.

Доктор Ани, лектор по кибербезопасности в Киле, подчеркнул проблемы, возникающие из-за дезинформации. Он отметил, что широкое распространение ложной информации подрывает общественный диалог и может влиять на отношение и поведение людей, создавая риски как для местной, так и для национальной безопасности.

Исследователи надеются совершенствовать модель по мере развития технологий искусственного интеллекта и машинного обучения, нацеленных на еще большую точность в выявлении ненадежного контента. Доктор Ани подчеркнул срочность разработки решений для обеспечения достоверности онлайн-платформ, особенно социальных медиа, где наиболее распространены ложные сведения.

Предварительные исследования организации, базирующейся в Берлине, Democracy Reporting International (DRI), которая способствует продвижению демократии, предупредили, что системы искусственного интеллекта, особенно открытые модели больших языковых систем (LLMs), представляют существенные риски для распространения ложной информации.

DRI утверждает, что эти риски возникают потому, что эти модели, такие как Dolly, Zephyr и Falcon, часто выпускаются без надежных защитных мер, что делает их уязвимыми для злоупотреблений.

Их доступность требует минимальных технических навыков, что позволяет злонамеренным действующим лицам манипулировать ими для создания ложных нарративов или речи ненависти. Этот низкий порог входа усиливает риск распространения дезинформации.

Кроме того, DRI сообщает, что открытые LLMs, такие как Zephyr, демонстрируют тревожные возможности, такие как создание структурированного, убедительного вредоносного контента в ответ на прямые или намекающие подсказки.

Такие результаты часто являются согласованными и контекстуально соответствующими, что делает их особенно опасными при формировании ложных повествований. Более того, предубеждения, заложенные в этих моделях, часто отражающие общественные предрассудки, еще больше увеличивают риск распространения вредных стереотипов.

Хотя инструмент все еще находится в стадии разработки, созданный в Университете Кила он представляет собой шаг в направлении решения более общей проблемы — дезинформации в цифровой коммуникации.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
5.00 Проголосовало 1 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...