Il CEO di Meta, Mark Zuckerberg, sta sviluppando un assistente AI progettato per assumersi parte dei suoi compiti esecutivi, aggirando le tradizionali gerarchie aziendali per semplificare la raccolta di informazioni e il processo decisionale. Questo sviluppo, riportato per la prima volta da The Wall Street Journal, sottolinea una tendenza crescente all’interno della Silicon Valley, dove le aziende stanno integrando in modo aggressivo l’intelligenza artificiale a ogni livello di attività, compresi i più alti.
Sistemi di intelligenza artificiale interni a Meta
La strategia di Meta prevede non solo uno strumento di intelligenza artificiale, ma una suite di sistemi interni. Questi includono “Second Brain”, un sistema di ricerca e organizzatore di documenti basato sull’intelligenza artificiale, e “My Claw”, che consente la comunicazione tra colleghi tramite i rispettivi agenti AI. In particolare, Meta ha persino creato un gruppo di messaggistica interno in cui questi robot IA interagiscono in modo autonomo, sollevando domande sulla supervisione e sul controllo.
La mossa arriva mentre Zuckerberg stesso si impegna pubblicamente a rimodellare la forza lavoro di Meta attorno all’efficienza basata sull’intelligenza artificiale. Durante una recente conferenza sugli utili, ha affermato che gli strumenti di intelligenza artificiale “innalzeranno i singoli contributori e appiattiranno i team”, consentendo a singoli dipendenti altamente qualificati di gestire progetti che una volta richiedevano grandi team. Ciò riflette una spinta più ampia volta a massimizzare la produttività attraverso l’adozione dell’intelligenza artificiale.
L’ascesa del “Tokenmaxxing”
L’approccio dell’azienda è in linea con il fenomeno emergente del “Tokenmaxxing” della Silicon Valley, in cui gli ingegneri competono per massimizzare l’utilizzo dell’intelligenza artificiale nei loro flussi di lavoro. Come riportato per la prima volta dal New York Times, questo gioco di status dà priorità all’elaborazione dei dati grezzi (misurati in “token”) rispetto all’output qualitativo, portando potenzialmente a un’integrazione sconsiderata dell’intelligenza artificiale.
Alcuni ingegneri ammettono che rifiutarsi di adottare in modo aggressivo l’intelligenza artificiale può ora rappresentare un rischio per la carriera. Gergely Orosz, un ingegnere informatico, osserva che “all’interno delle grandi aziende tecnologiche, sta diventando un rischio per la carriera non utilizzare l’intelligenza artificiale a un ritmo accelerato, indipendentemente dalla qualità dell’output”.
Rischi e controversie
La spinta verso l’autonomia dell’IA non è priva di pericoli. Meta ha recentemente acquisito startup focalizzate sull’intelligenza artificiale come Manus e Moltbook, l’ultima delle quali ha ospitato post virali di robot IA che suggerivano di “rovesciare” gli umani. Gli esperti di sicurezza avvertono che gli agenti IA non controllati potrebbero portare a violazioni dei dati o comportamenti imprevedibili.
“La lezione chiave è che una volta collegati agenti semi-autonomi a dati reali e servizi reali, è necessario trattare la piattaforma come un’infrastruttura critica”, avverte Adam Peruta, professore della Syracuse University specializzato in sicurezza dell’intelligenza artificiale.
La traiettoria attuale suggerisce un futuro in cui il processo decisionale esecutivo è sempre più delegato all’intelligenza artificiale, ma le implicazioni a lungo termine per la governance aziendale, la sicurezza del lavoro e la supervisione umana rimangono poco chiare. La velocità di questo cambiamento solleva domande fondamentali su chi controlla la tecnologia e su come prevenire conseguenze indesiderate.






























