
Image by National Cancer Institute, from Unsplash
Google запускает ‘AI Co-Scientist’ для ускорения открытий и инноваций
Исследователи из Google представили новую систему ИИ, известную как AI co-scientist, созданную на платформе Gemini 2.0.
Спешите? Вот краткие факты!
- Система ИИ содержит специализированные агенты для генерации, ранжирования и уточнения исследовательских идей.
- Совместный учёный-ИИ использует коалицию специализированных агентов для различных исследовательских функций.
- Он показал обнадёживающие результаты, такие как предложение потенциальных лекарственных средств для лечения лейкемии.
Цель этой системы — улучшить научные и биомедицинские исследования, выполняя функции виртуального сотрудника для учёных.
Искусственный интеллект в роли совместного исследователя разработан для создания новых гипотез, предложения направлений исследований и поддержки долгосрочного научного планирования, что помогает ускорить процессы открытий в различных областях, включая переосмысление применения лекарств, определение целевых объектов для лечения и антимикробную устойчивость.
Основное новшество системы заключается в ее многоагентной архитектуре. Вместо того чтобы полагаться на одну модель ИИ, совместный исследователь на базе ИИ использует коалицию специализированных агентов, каждый из которых выполняет определенную функцию.
Эти агенты вдохновлены научным методом и работают вместе для генерации, уточнения и оценки гипотез. Например, агент «Генерации» предлагает новые идеи для исследований, в то время как агент «Ранжирования» сравнивает и ранжирует эти идеи на основе их потенциального влияния.
Агенты «Эволюции» и «Рефлексии» системы итеративно улучшают качество гипотез, анализируя обратную связь, в то время как агент «Мета-рецензии» контролирует общий процесс, обеспечивая соответствие цели исследования.
Этот совместный подход позволяет системе постоянно уточнять свои результаты. Разбивая поставленную научную задачу на управляемые задания, агент-супервайзер управляет рабочим процессом системы, распределяет ресурсы и гарантирует, что каждый специализированный агент выполняет свою роль.
В результате, Искусственный Интеллект в качестве совместного ученого со временем адаптирует свой подход, улучшая качество и новизну своих предложений.
Это самосовершенствование основано на автооценочной метрике Эло, которая контролирует качество генерируемых гипотез и оценивает, улучшает ли дополнительное вычислительное время производительность системы.
В тестах искусственный интеллект в роли со-ученого продемонстрировал сильную способность к формулированию новых и влиятельных исследовательских идей. Например, в области переназначения лекарств он предложил кандидатов для лечения острого миелоидного лейкоза (AML).
Эти предложения впоследствии были подтверждены экспериментальными исследованиями, подтвердившими потенциальную эффективность предложенных препаратов.
Аналогично, в области печеночной фиброза, совместный ученый ИИ определил эпигенетические цели с значительным терапевтическим потенциалом, поддерживающие экспериментальное подтверждение в человеческих органоидах печени.
Однако, помимо потенциальных преимуществ, недавний опрос выявляет ряд проблем, связанных с внедрением ИИ в исследования.
Несмотря на растущий интерес к инструментам ИИ, всего 45% из почти 5 000 опрошенных исследователей в настоящее время используют ИИ в своей работе, в основном для таких задач, как перевод и корректура.
Опасения относительно точности AI, его предвзятости и рисков для конфиденциальности широко распространены, и 81% респондентов выразили беспокойство. Более того, почти две трети участников опроса указали на недостаточную подготовку как на значительное препятствие для эффективного внедрения AI.
Исследователи также остаются осторожными в отношении способности AI справляться с более сложными задачами, такими как определение пробелов в литературе или рекомендация рецензентов.
По мере того, как инструменты ИИ, такие как ChatGPT, все больше интегрируются в рабочие процессы исследований, возникают проблемы, связанные с их использованием, особенно в части точности цитирования.
Например, недавнее исследование подчеркивает риски, связанные с генеративными инструментами ИИ, которые часто ошибочно атрибутируют или выдумывают цитаты. Из 200 проверенных статей, 153 содержали некорректные или неполные цитаты.
Этот вопрос вызывает опасения у исследователей, полагающихся на ИИ для подготовки рукописей и рецензирования, поскольку неточное источниковедение может подорвать доверие к этим инструментам. Издатели особенно уязвимы, поскольку ошибки в атрибуции могут навредить их репутации и подорвать достоверность их работы.
Эти проблемы подчеркивают необходимость более четких руководств и структурированного обучения для обеспечения ответственного использования ИИ в академической среде, поскольку исследователи стремятся сбалансировать энтузиазм и осторожность при принятии этой технологии.
Тем не менее, искусственный интеллект в роли совместного исследователя представляет собой значительный шаг вперед в усилении научных открытий, используя AI для помощи исследователям в изучении новых гипотез, их проверке и ускорении прогресса в различных областях.
Система в настоящее время доступна для оценки в рамках Программы доверенных тестеров, приглашая исследовательские организации оценить ее применимость и эффективность в реальных условиях.
Оставьте комментарий
Отменить