Krajobraz sztucznej inteligencji się zmienia. Choć duże modele językowe (LLM) wykazują imponujące możliwości, przełożenie tej mocy na spójne, rzeczywiste działanie pozostaje poważnym wyzwaniem. Wąskim gardłem nie jest inteligencja, ale zarządzanie inteligencją, zwłaszcza w przypadku złożonych, długoterminowych problemów inżynieryjnych. Random Labs, startup z San Francisco, wspierany przez Y Combinator, wierzy, że ma rozwiązanie: Slate V1, pierwszy autonomiczny agent kodu „roju”.
Problem systemów i wzrost przepływów pracy w agencjach
Przez lata narzędzia wspomagające kodowanie oparte na sztucznej inteligencji miały trudności z oknami kontekstowymi i utrzymaniem spójności w przypadku długotrwałych projektów. Samo użycie potężnego LLM na złożonej bazie kodu często skutkuje fragmentarycznymi, niewiarygodnymi wynikami. Slate rozwiązuje ten problem, wdrażając zasadniczo odmienne podejście: rozproszoną, równoległą platformę wykonawczą inspirowaną biologicznymi umysłami rojów i projektem systemu operacyjnego.
Jak działa tkanie. Łupek
Slate nie postrzega modeli sztucznej inteligencji jako monolitycznych rozwiązań problemów. Zamiast tego dzieli zadania na osobne, łatwe do zarządzania „wątki”, które są kierowane do wyspecjalizowanych agentów roboczych – potencjalnie wykorzystując różne LLM na różnych etapach. Wykorzystuje to to, co Random Labs nazywa „nadmiarem wiedzy” – niezrealizowany potencjał modeli, gdy nie są one przytłoczone jednoczesnymi wymaganiami strategicznymi i taktycznymi.
System wykorzystuje język specyficzny dla domeny (DSL) oparty na TypeScript do koordynowania tych przepływów, pełniąc rolę centralnego „rdzenia” zarządzającego przepływem wykonywania, podczas gdy „procesy robocze” obsługują określone operacje. Naśladuje to system operacyjny, traktując ograniczone okno kontekstowe LLM jako cenną pamięć RAM, którą należy mądrze zarządzać.
Pamięć epizodyczna i wykonywanie równoległe
Kluczową innowacją jest „pamięć epizodyczna” Slate’a. W przeciwieństwie do tradycyjnych narzędzi AI, które opierają się na utracie kompresji przeszłych interakcji, Slate kompresuje w krótkie podsumowania tylko udane wywołania narzędzi i wyniki. Podsumowania te są przesyłane bezpośrednio do orkiestratora, wspierając spójną inteligencję „roju”.
Architektura ta pozwala na ogromną równoległość. Na przykład programista może użyć Claude’a Sonneta do zorganizowania złożonych refaktoryzacji, podczas gdy GPT-5.4 wykonuje kod, a GLM 5 jednocześnie sprawdza dokumentację. To selektywne wdrażanie modeli zapewnia efektywność kosztową: korzystanie z wydajnych modeli tylko wtedy, gdy wymagana jest ich strategiczna głębia, oraz korzystanie z tańszych modeli do prostszych zadań.
Strategia komercyjna i przyszła integracja
Random Labs działa obecnie w oparciu o model kredytu oparty na wykorzystaniu, z narzędziami rozliczeniowymi w czasie rzeczywistym dla profesjonalnych zespołów. Firma planuje bezpośrednią integrację z Codexem OpenAI i Claude Code firmy Anthropic, pozycjonując Slate jako lepszą warstwę orkiestracyjną, a nie konkurencję dla natywnych interfejsów tych modeli.
Wczesne wyniki stabilności
Wewnętrzne testy wykazały, że Slate jest wyjątkowo stabilny. Wczesna wersja przeszła 2/3 testów zadania make-mips-interpreter, testu, w którym nawet najnowocześniejsze narzędzia LLM często zawodzą w ponad 80% przypadków. Ta stabilność w połączeniu z możliwością skalowania jako organizacji sugeruje, że Slate wykracza poza zwykłe narzędzie i staje się partnerem do współpracy dla programistów.
Slate V1 reprezentuje zmianę we wspomaganiu kodowania AI, odchodząc od interfejsów opartych na czacie i w stronę zorganizowanych, rozproszonych przepływów pracy. W przyszłości inżynierowie w dużej mierze będą kierować tymi „umysłami roju”, delegując złożone zadania wyspecjalizowanym agentom AI pracującym zgodnie.
