Dyrektor generalny Meta Mark Zuckerberg opracowuje asystenta AI, którego zadaniem będzie przejęcie części jego obowiązków zarządczych z pominięciem tradycyjnych hierarchii korporacyjnych w celu usprawnienia gromadzenia informacji i podejmowania decyzji. Rozwój ten, opisany po raz pierwszy w The Wall Street Journal, podkreśla rosnący trend w Dolinie Krzemowej, gdzie firmy agresywnie integrują sztuczną inteligencję na wszystkich poziomach swojej działalności, łącznie z najwyższymi.
Meta Wewnętrzne systemy AI
Strategia Meta obejmuje nie tylko jedno narzędzie AI, ale cały zestaw systemów wewnętrznych. Należą do nich „Second Brain”, wyszukiwarka i organizator dokumentów oparta na sztucznej inteligencji, oraz „My Claw”, który umożliwia komunikację między współpracownikami za pośrednictwem agentów AI. Warto zauważyć, że Meta utworzyła nawet wewnętrzną grupę do przesyłania wiadomości, w której boty AI współdziałają autonomicznie, rodząc pytania dotyczące nadzoru i kontroli.
Posunięcie to następuje w związku z publicznymi oświadczeniami samego Zuckerberga na temat odbudowy personelu Meta w oparciu o wydajność opartą na sztucznej inteligencji. Podczas niedawnej rozmowy telefonicznej dotyczącej wyników finansowych powiedział, że narzędzia AI „wzmocnią pozycję jednostek i uproszczą struktury organizacyjne”, umożliwiając pojedynczym, wysoko wykwalifikowanym osobom realizację projektów, które wcześniej wymagały dużych zespołów. Odzwierciedla to szersze skupienie się na maksymalizacji produktywności poprzez przyjęcie sztucznej inteligencji.
Powstanie „Tokenmaxxingu”
Podejście firmy wpisuje się w coraz popularniejsze w Dolinie Krzemowej zjawisko „Tokenmaxxing”, gdzie inżynierowie prześcigają się, by jak najlepiej wykorzystać sztuczną inteligencję w swojej pracy. Jak po raz pierwszy doniósł The New York Times, w tej grze o status priorytetowo traktowane są surowe dane (mierzone w „tokenach”) kosztem jakości wyników, co może prowadzić do lekkomyślnego przyjęcia sztucznej inteligencji.
Niektórzy inżynierowie przyznają, że niezastosowanie obecnie sztucznej inteligencji może stanowić ryzyko dla kariery. Gergely Orosz, inżynier oprogramowania, zauważa: „W dużych firmach technologicznych ryzykowne staje się niezastosowanie sztucznej inteligencji w przyspieszonym tempie, niezależnie od jakości wyniku”.
Ryzyko i spory
Dążenie do autonomii sztucznej inteligencji nie jest pozbawione zagrożeń. Meta przejęła niedawno start-upy zajmujące się sztuczną inteligencją, takie jak Manus i Moltbook, z których ten ostatni udostępniał wirusowe posty od botów AI oferujących „obalenie” ludzi. Eksperci ds. bezpieczeństwa ostrzegają, że niekontrolowani agenci AI mogą prowadzić do wycieków danych lub nieprzewidywalnych zachowań.
„Największa lekcja jest taka, że gdy połączysz półautonomicznych agentów z rzeczywistymi danymi i rzeczywistymi usługami, będziesz musiał traktować platformę jako infrastrukturę krytyczną” – ostrzega Adam Peruta, profesor na Uniwersytecie Syracuse, który specjalizuje się w bezpieczeństwie sztucznej inteligencji.
Obecna trajektoria wskazuje na przyszłość, w której podejmowanie decyzji wykonawczych będzie w coraz większym stopniu delegowane sztucznej inteligencji, ale długoterminowe konsekwencje dla ładu korporacyjnego, bezpieczeństwa pracy i nadzoru ludzkiego pozostają niejasne. Tempo tych zmian rodzi podstawowe pytania o to, kto kontroluje technologię i jak zapobiegać niezamierzonym konsekwencjom.





























