Оркестрационный Слой Корпоративного ИИ: Weekend-Хак Раскрывает Будущее ИИ-Инфраструктуры

13

Недавний проект Андрея Карпати, бывшего директора по ИИ в Tesla и основателя OpenAI, незаметно выявил критически важный, но до сих пор не определённый слой в современном программном обеспечении: оркестрационное промежуточное ПО между корпоративными приложениями и быстро развивающимися моделями ИИ. Этот эксперимент, получивший название «LLM Council» (Совет ЛЛМ), демонстрирует, что маршрутизация и агрегация моделей ИИ на удивление просты, но превращение этого в корпоративное решение — вот где кроется настоящая сложность.

Взлёт Оркестрации ИИ

Для технических руководителей проект Карпати — это не просто забава, а чертёж того, как компании будут подходить к инвестициям в ИИ-инфраструктуру в 2026 году. Основная идея проста: вместо того, чтобы полагаться на одно проприетарное решение ИИ, компании могут интегрировать несколько моделей — GPT-5.1, Gemini 3.0 Pro, Claude Sonnet 4.5, Grok 4 — в систему, которая оценивает, критикует и синтезирует ответы. Такой подход обеспечивает гибкость и позволяет избежать привязки к поставщику.

Как Работает LLM Council: ИИ Судит ИИ

LLM Council работает в три этапа:

  1. Параллельная Генерация: Запрос пользователя отправляется одновременно нескольким моделям ИИ.
  2. Взаимный Обзор: Каждая модель критикует ответы своих коллег, обеспечивая уровень контроля качества, редко встречающийся в стандартных чат-ботах.
  3. Синтез: Обозначенная «Председатель ЛЛМ» (в настоящее время Gemini 3) объединяет ответы и рейтинги в окончательный, авторитетный ответ.

Карпати обнаружил, что модели часто предпочитают ответы друг друга своим собственным, что указывает на потенциальную склонность к многословности и определённым риторическим стилям. Это поднимает ключевой вопрос: может ли ИИ надёжно оценивать ИИ, не согласовываясь с человеческими потребностями в краткости и точности?

Техническая Архитектура: Минималистичная, Но Эффективная

LLM Council построен на «тонком» стеке: FastAPI (Python-фреймворк), React/Vite (фронтенд) и JSON-файлы для хранения данных. Ключевым элементом является OpenRouter, агрегатор API, который нормализует запросы между поставщиками моделей. Это позволяет системе заменять модели, отредактировав всего одну строку кода, защищая её от привязки к поставщику.

Этот подход свидетельствует о растущей тенденции: рассматривать передовые модели как взаимозаменяемые компоненты, а не монолитные зависимости. Если Meta или Mistral выпустят лучшую модель на следующей неделе, её можно интегрировать за считанные секунды.

Отсутствующие Элементы: Безопасность, Соответствие Нормам и Надёжность

В то время как основная логика элегантна, LLM Council не хватает важных корпоративных функций: аутентификации, удаления PII (персонально идентифицируемой информации), контроля соответствия нормативным требованиям и надёжной обработки ошибок. Эти недостатки определяют ценностное предложение коммерческих поставщиков ИИ-инфраструктуры, таких как LangChain и AWS Bedrock. Они продают «укрепление» вокруг основной логики — меры безопасности, наблюдаемость и соответствие нормативным требованиям, которые превращают необработанный скрипт в жизнеспособную платформу.

Код Карпати демонстрирует, что техническая задача не в маршрутизации запросов, а в управлении данными и обеспечении корпоративного уровня надёжности.

Будущее Кода: Эфемерный и Сгенерированный ИИ

Провокационное заявление Карпати о том, что «код теперь эфемерный, а библиотеки устарели», указывает на радикальный сдвиг. Вместо того, чтобы поддерживать жёсткие внутренние инструменты, инженеры могут генерировать собственные, одноразовые решения с помощью ИИ. Это ставит стратегический вопрос: должны ли компании покупать дорогие программные пакеты или давать инженерам возможность создавать индивидуальные инструменты за меньшую стоимость?

Проблема Согласования: Машинное Против Человеческого Суждения

Эксперимент LLM Council подчёркивает критический риск: расхождение между машинным и человеческим суждением. Если оценщики ИИ вознаграждают многословные, развёрнутые ответы, в то время как клиенты хотят краткие решения, показатели будут показывать успех, но удовлетворённость клиентов резко упадёт. Полная зависимость от ИИ для оценки ИИ — это стратегия, полная скрытых проблем согласования.

В заключение, weekend-хак Карпати демонтирует оркестрацию ИИ, доказывая, что базовая функциональность доступна. Реальная проблема заключается в создании управляющего слоя — безопасности, соответствия нормативным требованиям и надёжности, которые превращают необработанный скрипт в корпоративную платформу. Вопрос для технологических лидеров не в том, интегрировать ли ИИ, а в том, как обуздать его дикий потенциал с помощью ответственной разработки.