La novità è un’app desktop per macOS che funge da centro di comando per lavorare con più agenti AI in parallelo. In un’unica interfaccia puoi avviarli, vedere cosa fanno, rivedere le modifiche e intervenire quando serve. L’obiettivo è dare un modo ordinato per dirigere lavori lunghi e paralleli, superando la frammentazione di finestre e strumenti. OpenAI inquadra Codex come l’interfaccia che mancava per dirigere, supervisionare e collaborare con agenti che possono lavorare per ore, giorni o settimane su attività end-to-end. Il cambio di fase è chiaro: dalla domanda “cosa possono fare i modelli?” si passa a “come li gestiamo bene su scala?”. L’app organizza i thread per progetto, così si passa da un’attività all’altra senza perdere contesto; mostra le differenze di codice (diff), consente commenti e apre direttamente l’editor quando serve intervenire a mano.
Un elemento pratico è il supporto integrato ai worktree: più agenti possono lavorare sullo stesso repository senza conflitti, perché ognuno opera su una copia isolata del codice. Il team può esplorare alternative e decidere cosa integrare, senza toccare lo stato locale. L’adozione è facilitata: l’app riprende cronologia e configurazioni dalla CLI Codex e dall’estensione IDE, così chi ha già progetti in corso entra subito nel flusso. Codex non si ferma alla scrittura di codice: con le “skill” diventa un agente che usa il codice per compiere azioni sul computer, come raccogliere e sintetizzare informazioni, risolvere problemi, scrivere documenti o far girare workflow. Le skill impacchettano istruzioni, risorse e script per collegarsi a strumenti e completare compiti secondo gli standard del team, con un’interfaccia dedicata alla loro creazione e gestione.
Nella dimostrazione, Codex ha costruito un gioco web partendo da un unico prompt, utilizzando una skill di generazione immagini e una di sviluppo web, lavorando in autonomia per milioni di token e ricoprendo i ruoli di design, sviluppo e test. L’app include una libreria di skill per strumenti già diffusi: trasformare design da Figma in codice, gestire backlog su Linear, distribuire su Vercel, Cloudflare, Netlify e Render, generare immagini con una skill dedicata e consultare la documentazione aggiornata delle API di OpenAI. Accanto alle skill, “Automations” permette di pianificare esecuzioni in background: si combinano istruzioni e, se serve, skill, con un orario definito; i risultati finiscono in una coda di revisione per riprendere il controllo quando necessario. Infine, la “personalità” dell’agente è selezionabile: uno stile asciutto e pragmatico o una modalità più conversazionale ed empatica, a parità di capacità. Tutti i dettagli sono nella fonte ufficiale OpenAI
Automations sposta in background task necessari ma onerosi: triage di issue, riepilogo di fallimenti CI, brief quotidiani di release, controlli ricorrenti. Pianificarli rende più regolari i controlli e libera capacità del team per attività a valore. La gestione parallela accelera il ciclo decisionale: più agenti esplorano soluzioni alternative su copie isolate dello stesso codice, facendo emergere opzioni più solide; il team valuta e decide cosa integrare. La revisione dei diff e l’intervento manuale, senza bloccare gli agenti, mantengono il controllo umano dove serve. La personalità configurabile migliora l’ergonomia: c’è chi preferisce scambi rapidi e secchi e chi vuole più contesto; poter scegliere aiuta l’adozione senza imporre uno stile unico. Il collegamento continuo con ambienti e strumenti usati ogni giorno – dalla gestione del lavoro alla distribuzione in cloud – riduce attriti e chiude il ciclo fino alla messa in produzione.
Per i responsabili di prodotto e tecnologia, la direzione suggerita è costruire un layer di orchestrazione tra agenti capaci e processi reali: standardizzare workflow con skill condivise, indirizzare lavori lunghi e paralleli, e affidare routine ad automazioni per un “metabolismo operativo” più affidabile. Ulteriori spunti e l’elenco completo delle skill disponibili sono indicati nella fonte OpenAI e nel relativo repository open source citato