
Image by memyselfaneye, from Pixabay
Исследователи из Университета Кила анонсировали создание детектора фейковых новостей с точностью 99%
Исследователи из Университета Киел разработали инструмент, способный обнаруживать фейковые новости с точностью 99%, что представляет собой потенциальный ресурс для борьбы с растущей проблемой интернет-дезинформации. О разработке было объявлено университетом вчера.
Спешите? Вот краткие факты!
- Исследователи из Университета Кила разработали инструмент, определяющий фейковые новости с точностью 99%.
- Инструмент использует систему «ансамблевого голосования», объединяющую несколько моделей машинного обучения.
- Инструмент оценивает содержание новостей, чтобы определить надежность источника.
Команда, в состав которой входят доктор Ученна Ани, доктор Сангита Сангита и доктор Патрисия Асово-Айободе из Школы компьютерных наук и математики, использовали различные методы машинного обучения для создания модели, способной анализировать содержание новостей и оценивать их надежность.
Инструмент использует подход «голосование ансамбля», который объединяет прогнозы от нескольких моделей машинного обучения для выработки общего суждения о том, является ли новостной ресурс достоверным. Первоначальное тестирование показало, что метод превосходит ожидания, определяя фейковые новости в 99% случаев.
Доктор Ани, лектор по кибербезопасности в Киле, подчеркнул проблемы, возникающие из-за дезинформации. Он отметил, что широкое распространение ложной информации подрывает общественный диалог и может влиять на отношение и поведение людей, создавая риски как для местной, так и для национальной безопасности.
Исследователи надеются совершенствовать модель по мере развития технологий искусственного интеллекта и машинного обучения, нацеленных на еще большую точность в выявлении ненадежного контента. Доктор Ани подчеркнул срочность разработки решений для обеспечения достоверности онлайн-платформ, особенно социальных медиа, где наиболее распространены ложные сведения.
Предварительные исследования организации, базирующейся в Берлине, Democracy Reporting International (DRI), которая способствует продвижению демократии, предупредили, что системы искусственного интеллекта, особенно открытые модели больших языковых систем (LLMs), представляют существенные риски для распространения ложной информации.
DRI утверждает, что эти риски возникают потому, что эти модели, такие как Dolly, Zephyr и Falcon, часто выпускаются без надежных защитных мер, что делает их уязвимыми для злоупотреблений.
Их доступность требует минимальных технических навыков, что позволяет злонамеренным действующим лицам манипулировать ими для создания ложных нарративов или речи ненависти. Этот низкий порог входа усиливает риск распространения дезинформации.
Кроме того, DRI сообщает, что открытые LLMs, такие как Zephyr, демонстрируют тревожные возможности, такие как создание структурированного, убедительного вредоносного контента в ответ на прямые или намекающие подсказки.
Такие результаты часто являются согласованными и контекстуально соответствующими, что делает их особенно опасными при формировании ложных повествований. Более того, предубеждения, заложенные в этих моделях, часто отражающие общественные предрассудки, еще больше увеличивают риск распространения вредных стереотипов.
Хотя инструмент все еще находится в стадии разработки, созданный в Университете Кила он представляет собой шаг в направлении решения более общей проблемы — дезинформации в цифровой коммуникации.
Оставьте комментарий
Отменить