
Image generated with OpenAI
Мнение: ИИ-модели — загадочные «существа», и даже их создатели не полностью их понимают
Недавнее исследование Anthropic о работе модели Claude 3.5 Haiku обещает прорывные открытия и мгновенное прозрение в понимании работы передовых технологий ИИ. Но что они имеют в виду, говоря, что LLMs — это «живые организмы», которые «думают»?
Несколько дней назад Anthropic опубликовала две статьи с прорывными исследованиями о том, как работают Большие Языковые Модели (LLMs). Хотя технические разработки были интересными и актуальными, больше всего меня заинтересовал словарь, используемый экспертами в области ИИ.
В исследовании «О биологии большой языковой модели», ученые сравнили себя с биологами, которые изучают сложные «живые организмы», эволюционировавшие на протяжении миллиардов лет.
«Точно так же, хотя языковые модели генерируются простыми, разработанными людьми алгоритмами обучения, механизмы, рожденные из этих алгоритмов, кажутся довольно сложными», — написали ученые.
В последние несколько лет модели ИИ значительно эволюционировали. И мы наблюдали их стремительное развитие за последние несколько месяцев. Мы видели, как ChatGPT преобразовался из модели, работающей только с текстом, в разговорного партнера, а теперь — в многофункционального агента, который также может генерировать потрясающие изображения в стиле Studio Ghibli.
Но что, если современные модели ИИ достигают такого уровня развития, что даже их создатели не могут понять их процессы и системы? Существует множество тайн, окружающих технологии ИИ, которые могут быть актуальны для повторного рассмотрения или изучения в 2025 году.
Мистический парадокс «черного ящика» в моделях ИИ
Ведутся множественные дискуссии о принятии ИИ и грамотности в области ИИ, и о том, как те, кто понимает, как работают генеративные модели ИИ, меньше склонны рассматривать чат-ботов как своих «друзей» или «волшебные» приложения. Однако есть еще одна дискуссия — среди экспертов и людей, более знакомых с технологией — стоит ли сравнивать или рассматривать LLM как самостоятельные создания. Что касается последнего, есть особый ингредиент, тайна, известная как «парадокс черного ящика ИИ», который играет ключевую роль в обсуждении.
Системы глубокого обучения обучены распознавать элементы и тенденции таким же образом, как это делают люди. Так же, как мы учим детей распознавать образцы и присваивать определенные слова разным объектам, LLM обучены устанавливать уникальные связи и создавать сети, которые становятся все более и более сложными по мере их «роста».
Самир Равашдэ, доцент кафедры электротехники и компьютерных технологий, специализируется на искусственном интеллекте и объясняет, что аналогично изучению человеческого интеллекта, практически невозможно увидеть, как системы глубокого обучения принимают решения и делают выводы. Это то, что эксперты называют проблемой «черного ящика».
Модели ИИ бросают вызов пониманию человеком
Недавнее исследование Anthropic пролило свет на ситуацию с черным ящиком ИИ, объяснив, как его модель «думает» в определенных сценариях, которые ранее были неясными или даже полностью неверными. Даже если исследование базируется на модели Claude 3.5 Haiku, оно позволяет экспертам разработать инструменты и анализировать аналогичные характеристики в других моделях ИИ.
«Понимание природы этого интеллекта — серьезный научный вызов, который имеет потенциал переосмыслить наше представление о том, что значит ‘думать'», — говорится в статье, опубликованной исследователями из Anthropic.
Однако использование термина «думать» в отношении технологий AI вызывает возмущение у некоторых экспертов в этой области и является предметом критики исследования. Пользователь Reddit объяснил, почему это раздражает группу людей: «В статье много антропоморфизации, которая затемняет работу. Например, она постоянно использует слово ‘думать’, когда следовало бы сказать ‘вычислять’. Мы говорим о компьютерном программном обеспечении, а не о биологическом мозге.»
Хотя «гуманизированные» термины помогают людям, не обладающим техническими знаниями, лучше понять модели ИИ и вызывают дебаты в сообществе, правда в том, что, говорим мы «вычисляем» или «думаем», одна и та же проблема остается: у нас нет полного понимания или полной прозрачности в том, как работают LLM.
Чего ожидать от продвинутых моделей ИИ в ближайшем будущем
Можете ли вы представить, что игнорируете существование продвинутых технологий ИИ, таких как ChatGPT, DeepSeek, Perplexity или Claude — сейчас или в ближайшем будущем? Все признаки указывают на то, что нет пути назад. Генеративный и рассуждающий ИИ уже преобразовали нашу повседневную жизнь, и они будут только развиваться.
Почти каждый день в WizCase мы сообщаем о новом событии в индустрии — новой модели AI, новом инструменте AI, новой компании AI, которые имеют потенциал оказать большое влияние на наше общество. Идея сделать перерыв, чтобы сначала лучше понять эти передовые модели и принципы их работы — или хотя бы немного замедлиться — кажется невозможной, учитывая быстрый темп гонки AI и участие в ней правительств и самых могущественных компаний мира.
“Модели AI все больше влияют на нашу жизнь и работу, мы должны достаточно хорошо их понимать, чтобы гарантировать, что их воздействие будет положительным”, — говорится в докладе компании Anthropic. Даже если это звучит немного нереалистично, исследователи остаются оптимистами: “Мы уверены, что наши результаты здесь, и траектория прогресса, на которую они опираются, являются волнующим доказательством того, что мы можем справиться с этим вызовом”.
Но насколько быстро эти открытия могут на самом деле продвигаться? В статье также отмечается, что результаты охватывают лишь несколько областей и конкретных случаев, и построить более общие выводы невозможно. Так что, вероятно, не достаточно быстро.
В то время как регуляторы вводят меры, такие как Акт ЕС об искусственном интеллекте, требуя большей прозрачности, и привлекая обвинения и резкие замечания от крупных технологических компаний за якобы замедление прогресса, мощные модели искусственного интеллекта продолжают развиваться.
Как общество, мы должны стремиться найти баланс между углублением нашего понимания работы этих технологий и их применением таким образом, чтобы они приносили значимые преимущества и способствовали прогрессу наших сообществ. Возможно ли это? Идея просто молиться или надеяться, что эти «создания» останутся «этичными» и «добрыми», сейчас не кажется такой утопичной.
Оставьте комментарий
Отменить