Niedawny projekt Andreia Karpathy’ego, byłego dyrektora ds. sztucznej inteligencji w Tesli i założyciela OpenAI, po cichu zidentyfikował krytyczną, ale wciąż niezdefiniowaną warstwę współczesnego oprogramowania: oprogramowanie pośredniczące w zakresie orkiestracji pomiędzy aplikacjami korporacyjnymi a szybko rozwijającymi się modelami sztucznej inteligencji. Eksperyment nazwany Radą LLM pokazuje, że routing i agregacja modeli sztucznej inteligencji jest zaskakująco prosta, ale prawdziwą złożoność stanowi przekształcenie go w rozwiązanie dla przedsiębiorstw.
Powstanie orkiestracji AI
Dla dyrektorów technologicznych projekt Karpathy’ego to coś więcej niż tylko zabawa, ale plan podejścia firm do inwestycji w infrastrukturę sztucznej inteligencji w 2026 r. Podstawowa idea jest prosta: zamiast polegać na jednym zastrzeżonym rozwiązaniu AI, firmy mogą zintegrować wiele modeli – GPT-5.1, Gemini 3.0 Pro, Claude Sonnet 4.5, Grok 4 – w systemie, który ocenia, krytykuje i syntetyzuje odpowiedzi. Takie podejście zapewnia elastyczność i pozwala uniknąć uzależnienia od dostawcy.
Jak działa Rada LLM: AI ocenia AI
Rada LLM działa w trzech etapach:
- Generowanie równoległe: Żądanie użytkownika jest wysyłane jednocześnie do wielu modeli AI.
- Recenzja partnerska: każdy model krytykuje odpowiedzi innych osób, zapewniając poziom kontroli jakości rzadko spotykany w standardowych chatbotach.
- Synteza: Wyznaczony na „przewodniczącego LLM” (obecnie Gemini 3) łączy odpowiedzi i oceny w ostateczną, wiarygodną odpowiedź.
Karpathy odkrył, że modelki często wolały odpowiedzi innych od własnych, co wskazuje na potencjalną skłonność do gadatliwości i pewnych stylów retorycznych. Rodzi to kluczowe pytanie: czy sztuczna inteligencja może wiarygodnie ocenić sztuczną inteligencję bez narażania ludzkich potrzeb w zakresie zwięzłości i precyzji?
Architektura techniczna: minimalistyczna, ale wydajna
LLM Council jest zbudowany na „cienkim” stosie: FastAPI (framework Pythona), React/Vite (frontend) i plikach JSON do przechowywania danych. Kluczowym elementem jest OpenRouter, agregator API, który normalizuje żądania pomiędzy dostawcami modeli. Pozwala to systemowi na zastępowanie modeli poprzez edycję tylko jednej linii kodu, chroniąc go przed uzależnieniem od dostawcy.
Podejście to wskazuje na rosnącą tendencję do postrzegania wiodących modeli jako elementów wymiennych, a nie monolitycznych zależności. Jeśli Meta lub Mistral wypuszczą w przyszłym tygodniu lepszy model, można go zintegrować w ciągu kilku sekund.
Brakujące elementy: bezpieczeństwo, zgodność i niezawodność
Chociaż podstawowa logika jest elegancka, Radzie LLM brakuje ważnych funkcji dla przedsiębiorstwa: uwierzytelniania, usuwania danych osobowych (PII), monitorowania zgodności i niezawodnej obsługi błędów. Te niedociągnięcia definiują propozycję wartości komercyjnych dostawców infrastruktury AI, takich jak LangChain i AWS Bedrock. Sprzedają „wzmocnienie” podstawowej logiki – środków bezpieczeństwa, obserwowalności i zgodności – które zamieniają surowy skrypt w realną platformę.
Kod Karpathy’ego pokazuje, że wyzwaniem technicznym nie jest routing żądań, ale zarządzanie danymi i zapewnienie niezawodności na poziomie przedsiębiorstwa.
Przyszłość kodu: efemeryczna i wygenerowana sztuczna inteligencja
Prowokacyjne stwierdzenie Karpathy’ego, że „kod jest obecnie efemeryczny, a biblioteki przestarzałe”, wskazuje na radykalną zmianę. Zamiast utrzymywać sztywne narzędzia wewnętrzne, inżynierowie mogą generować własne, jednorazowe rozwiązania z wykorzystaniem sztucznej inteligencji. Nasuwa się strategiczne pytanie: czy firmy powinny kupować drogie pakiety oprogramowania, czy też zapewniać inżynierom możliwość tworzenia niestandardowych narzędzi po niższych kosztach?
Problem dopasowania: maszyna kontra ocena człowieka
Eksperyment Rady LLM uwydatnia krytyczne ryzyko: rozbieżność między oceną maszynową a oceną człowieka. Jeśli osoby oceniające sztuczną inteligencję nagradzają rozwlekłe i długie odpowiedzi, gdy klienci chcą zwięzłych rozwiązań, wskaźniki pokażą sukces, ale zadowolenie klientów spadnie. Całkowite poleganie na sztucznej inteligencji w ocenie sztucznej inteligencji to strategia obarczona ukrytymi problemami z dopasowaniem.
Podsumowując, weekendowy hack Karpatiego demontuje orkiestrację AI, udowadniając, że podstawowa funkcjonalność jest dostępna. Prawdziwym wyzwaniem jest zbudowanie warstwy kontrolnej — bezpieczeństwa, zgodności i niezawodności, która przekształca surowy skrypt w platformę dla przedsiębiorstw. Pytaniem do liderów technologii nie jest to, czy zintegrować sztuczną inteligencję, ale jak wykorzystać jej dziki potencjał poprzez odpowiedzialny rozwój.


















































