Генеративный ИИ вызывает тревогу в научной среде, поскольку поддельные данные угрожают достоверности

Image by Freepik

Генеративный ИИ вызывает тревогу в научной среде, поскольку поддельные данные угрожают достоверности

Время для прочтения: 3 мин.

Спешите? Вот Краткие Факты!

  • Генеративный AI позволяет быстро создавать реалистичные, но поддельные научные данные и изображения.
  • Ученые испытывают трудности в обнаружении изображений, созданных с помощью AI, из-за отсутствия очевидных признаков манипуляций.
  • Фигуры, созданные с помощью AI, возможно, уже присутствуют в научных журналах.

Изображения, созданные искусственным интеллектом, вызывают большие опасения среди исследователей и издателей, поскольку новые генеративные инструменты AI удивительно облегчают создание поддельных научных данных и изображений, как отмечено в пресс-релизе Nature.

Этот прогресс угрожает достоверности академической литературы, эксперты опасаются всплеска исследований, созданных с помощью AI, которые могут быть сложно идентифицировать.

Яна Кристофер, аналитик по вопросам целостности изображений в издательстве FEBS Press в Германии, подчеркивает, что быстрое развитие генеративного искусственного интеллекта вызывает растущую тревогу по поводу его возможного неправильного использования в науке.

«Люди, работающие в моем направлении — целостность изображений и этика публикаций — все больше беспокоятся о возможностях, которые он предлагает», — сказала Джейн, как сообщает Nature.

Она отмечает, что, хотя некоторые журналы могут принимать текст, сгенерированный искусственным интеллектом, в соответствии с определенными руководящими принципами, изображения и данные, созданные AI, рассматриваются как пересечение границы, которое может серьезно повлиять на целостность исследования, как отмечено в Nature.

Обнаружение этих изображений, созданных AI, стало главной проблемой, говорит Nature. В отличие от предыдущих цифровых манипуляций, изображения, сгенерированные искусственным интеллектом, часто не имеют обычных признаков подделки, что затрудняет доказательство любого обмана.

Специалист по исследованию изображений Элизабет Бик и другие исследователи предполагают, что искусственным интеллектом созданные изображения, в частности, в молекулярной и клеточной биологии, уже могут присутствовать в опубликованных научных работах, как сообщает Nature.

Такие инструменты, как ChatGPT, теперь регулярно используются для написания научных статей, что можно определить по типичным фразам чат-ботов, оставленным без редактирования, но изображения, сгенерированные с помощью ИИ, гораздо сложнее обнаружить. В ответ на эти вызовы, технологические компании и научные учреждения разрабатывают инструменты для обнаружения, отмечает Nature.

Инструменты на базе искусственного интеллекта, такие как Imagetwin и Proofig, возглавляют процесс, обучая свои алгоритмы определять контент, созданный с помощью генеративного ИИ. Сооснователь Proofig Дрор Колодкин-Галь сообщает, что их инструмент успешно обнаруживает изображения, созданные с помощью ИИ, 98% времени, но он отмечает, что для подтверждения результатов все еще необходима проверка человеком, как сообщает Nature.

В издательском мире журналы, такие как Science, используют Proofig для первичного сканирования материалов, а издательский гигант Springer Nature разрабатывает собственные инструменты, Geppetto и SnapShot, для определения несоответствий в текстах и изображениях, как сообщает Nature.

Другие организации, такие как Международная ассоциация научных, технических и медицинских издателей, также запускают инициативы по борьбе с фабриками статей и обеспечению целостности исследований, как сообщает Nature.

Однако, эксперты предупреждают, что издателям необходимо действовать быстро. Кевин Патрик, специалист по изучению научных изображений, опасается, что, если принять меры слишком поздно, контент, сгенерированный с помощью искусственного интеллекта, может стать еще одной нерешенной проблемой в научной литературе, как сообщает Nature.

Несмотря на эти опасения, многие все еще надеются, что будущие технологии будут развиваться для обнаружения сегодняшних обманок, созданных AI, предлагая долгосрочное решение для обеспечения неприкосновенности академических исследований.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставьте комментарий

Loader
Loader Показать больше...