Виртуальные сотрудники могут войти в состав трудовых коллективов в этом году, предсказывает генеральный директор OpenAI
Агенты искусственного интеллекта, способные самостоятельно выполнять задачи, могут присоединиться к рабочей силе уже в этом году, тем самым преобразуя бизнес-операции, по словам генерального директора OpenAI Сэма Альтмана.
Спешите? Вот краткие факты!
- AI-агент OpenAI «Operator» будет автоматизировать задачи, такие как написание кода и бронирование путешествий.
- McKinsey прогнозирует, что к 2030 году может быть автоматизировано 30% рабочего времени в США.
- Альтман выражает уверенность в создании искусственного общего интеллекта (AGI) и сверхинтеллекта.
В блоге, опубликованном в понедельник, Альтман заявил, что виртуальные сотрудники, работающие на основе искусственного интеллекта, могут радикально изменить продуктивность компании, выполняя задачи, традиционно решаемые людьми. The Guardian указывает, что Microsoft, крупнейший спонсор OpenAI, уже внедрил агентов на основе искусственного интеллекта, при этом консалтинговый гигант McKinsey стал одним из первых, кто применил эту технологию.
«Мы верим, что в 2025 году мы можем увидеть, как первые AI-агенты «вступают в рабочую силу» и существенно меняют результаты работы компаний. Мы продолжаем верить в то, что постепенное предоставление отличных инструментов в руки людей приводит к отличным, широко распространенным результатам,» — написала Альтман в своем блоге.
По данным отчетов, OpenAI готовится к запуску AI-агента, имеющего кодовое имя «Оператор,» уже в этом месяце. Ожидается, что этот инструмент будет автоматизировать такие задачи, как написание кода или бронирование путешествий от имени пользователей. Этот шаг следует за выпуском Microsoft’s Copilot Studio, Anthropic’s Claude 3.5 Sonnet, AI-агентов Meta с физическими телами, и новыми AI-функциями в Slack от Salesforce.
Компания McKinsey уже разрабатывает агента для оптимизации клиентских запросов, включая планирование последующих встреч. Фирма прогнозирует, что к 2030 году до 30% рабочих часов в экономике США могут быть автоматизированы, как отметил The Guardian.
Глава отдела искусственного интеллекта Microsoft, Мустафа Сулейман, также выразил оптимизм относительно агентов, способных принимать решения о покупках. В интервью WIRED он описал, как стал свидетелем «поразительных демонстраций» искусственного интеллекта, самостоятельно осуществляющего транзакции, но признал сложности в разработке. Сулейман предсказал, что эти продвинутые возможности могут появиться «через несколько кварталов, а не лет».
Блог Альтмана также затронул вопрос уверенности OpenAI в создании искусственного общего интеллекта (AGI) — AI систем, превосходящих человеческий интеллект. «Теперь мы уверены, что знаем, как создать AGI в том виде, как мы его традиционно понимаем,» — написал он.
Взглянув дальше AGI, Альтман описал амбиции OpenAI для «сверхинтеллекта», который он описал как инструменты, способные значительно ускорить научное открытие и инновации.
«Суперинтеллектуальные инструменты могут кардинально ускорить научные открытия и инновации, далеко превосходя то, на что мы способны сами, и в свою очередь, значительно увеличить изобилие и процветание», — написала Альтман, выразив энтузиазм по поводу будущего, где такие прогрессивные шаги переосмысливают человеческий потенциал.
Быстрый рост AI в рабочей силе имеет широкие последствия для производительности бизнеса и экономики. Однако, по мере развития AI агентов, появляются новые риски в области безопасности.
Недавний опрос, опубликованный на Medium, выявил уязвимости, такие как непредсказуемые многоэтапные пользовательские запросы, сложности внутреннего исполнения, изменчивость операционных окружений и взаимодействие с ненадежными внешними сущностями.
Непонятные или неполные пользовательские запросы могут вызывать непреднамеренные действия, в то время как внутренние процессы агентов искусственного интеллекта часто не обладают наблюдаемостью в реальном времени, что затрудняет обнаружение угроз безопасности. Более того, агенты, работающие в различных средах, могут проявлять нестабильное поведение, а доверие внешним сущностям без должной проверки может подвергнуть агентов атакам.
Эти проблемы подчеркивают необходимость прочных систем безопасности для защиты агентов искусственного интеллекта и обеспечения их безопасного развертывания в реальных условиях.
Оставьте комментарий
Отменить