Dagli Agenti AI agli Agentic Systems: un'immersione profonda e il futuro --Parte 2
- Massimiliano Turazzini
- 25 gen
- Tempo di lettura: 12 min
In questa case di esplosione cambriana di modelli ed AI molti di questi vengono presentati come AGENTI, a volte in modo un po' forzato. Spero abbiate avuto modo di leggere la prima parte di questo post in cui cerco di raccontare nel modo più semplice possibile cosa sia un Agente AI e di cosa parliamo quando affrontiamo il tema Agentic AI oggi.

Ripartiamo con un 'ripasso' dei cinque livelli di automazione che possiamo immaginare con gli agenti. È una mia classificazione, fatta cercando di sintetizzare tonnellate di materiale disponibile online.
A partire dal livello 0, quello degli LLM in un chatbot standard, che non è definibile agente fino a che non inizia ad avere strumenti (accesso a memoria esterna, ricerca web, altri modelli.)
Riepilogo dei livelli di automazione con AI
Ho provato a riassumere tutto in una tabella in cui semplifico, cercando di non banalizzare, i vari livelli.

A che livello è ChatGPT?
Gli attuali ChatGPT e Gemini giusto perché ve lo state chiedendo, sono un Agente AI di livello 2 perché è l'LLM a decidere di utilizzare questi strumenti a sua disposizione nell'ambito di una conversazione.
Ma se ragioniamo alla voce 'altri strumenti' le cose si fanno interessanti.
Con i GPTs infatti diventa di Livello 3, sempre secondo la mia nomenclatura, perché ci permette di lavorare con strumenti di terze parti.
Claude.ai è invece un agente di livello 4 quando decide di utilizzare artifact che gli permettono di generare codice, eseguirlo e portarvi i risultati. Allo stesso livello ChatGPT quando utilizza code interpreter per rispondervi dopo aver fatto un'applicazione come vedete qui
L' AI Generativa per ragionare
L'AI generativa con i Language Models è essenziale in questo momento storico quando parliamo di agenti AI. È ciò che dona loro la capacità di ragionare sul compito che viene dato, di scomporlo in sottoparti, di valutare quale potrebbe essere il modo migliore di eseguirli.
Ad oggi abbiamo parecchie decine di modelli in grado di fare ragionamenti su vari argomenti 'sopra la media', di dividere l'elefante a fettine e iniziare a lavorarci un pezzo alla volta.
Volete degli esempi più complessi ? Li trovate qui... solo per rispondere alla prima domanda c'è voluto qualche secondo utilizzando O1, la versione di ChatGPT che dedica tempo, appunto, a pensare. Nell'esempio precedente il ragionamento era 'istantaneo'
Ma OpenAI non ha il monopolio su questo!
Entra in gioco Deepseek
Pochi di voi lo conoscono, sicuramente, ma è un modello totalmente nuovo che sta scalzando i grandi modelli americani. Cos'ha di particolare? Pensa come O1 (ma espone il ragionamento in modo dettagliato), è Open Source (e ha modelli che potete installare sul vostro telefono, notebook, server), è Cinese (ed ha una licenza per cui vi invito a non inserire informazioni sensibili al momento, almeno non nella versione pubblica), agisce, come agente di livello 2, solo in seguito ad una fase di pensiero strutturato, come vedete qui sotto.
Tenetelo d'occhio!

E sottolinea una caratteristica fondamentale per gli Agenti di livello più alto e per le Agentic AI: la capacità di ragionamento.
Importante!
Più l'Agente si avvicina al livello 5 più deve essere in grado di 'ragionare approfonditamente' e mettere assieme dati raccolti in tempo reale (risultati di strumenti chiamati, feedback da altri agenti nel loop.) Agenti di livello 4 o 5 devono avere come base un LLM in grado di affrontare il compito per poter pianificare correttamente con tutte le informazioni in mano, con relativi impatti sui costi/tempi di risposta. O1 e Deepseek R1 sembrano ottimali per questi. Andrà solo capito il costo di esercizio di questa attività (non sarà basso).
La memoria dell'AI generativa
Dopo la pubblicazione del primo post di questa serie mi avete chiesto di essere più specifico e dettagliato sulla memoria. Ci provo.
Quando si parla di memoria negli agenti AI, possiamo suddividerla in diversi livelli, ognuno con caratteristiche specifiche:
Memoria a lungo termine
Memoria statica del modello: È composta dalle informazioni apprese durante l’addestramento, che restano immutabili.
Memoria aggiuntiva basata su documenti forniti dall’utente: Qui il modello accede a informazioni esterne tramite tecniche come RAG (un sistema che potete immaginare come un “database semantico”), integrando dati della vostra knowledge base con la conoscenza preesistente.
Istruzioni di sistema: Include informazioni aggiuntive definite dal produttore, dallo sviluppatore o da sistemi di memorizzazione strategica, come la funzione “memory” di ChatGPT, che può ricordare dettagli personali (es. il vostro nome).
Memoria a breve termine
Finestra di contesto: Contiene le informazioni scambiate durante la conversazione corrente con l’AI, limitata al tempo e alla lunghezza del dialogo.
Memoria in tempo reale
Output degli strumenti esterni: Comprende i dati ottenuti in tempo reale, come contenuti trovati sul web, risultati di database collegati o sistemi aziendali come ERP.
Informazioni da altri agenti: Raccoglie i risultati delle attività eseguite da agenti esterni, con cui l’AI collabora durante il suo funzionamento.

Interazione autonoma
Durante il ragionamento, quindi, un Agente AI, ha accesso a diversi tipi di memoria e può decidere di usare uno o più strumenti o di crearne di nuovi. Ma può anche chiedere ad altri agenti parte del suo contesto di fare azioni in cui sono specializzati. (**Agente di livello 5)
Gli agenti quindi sono in grado, nel contesto fornito, di valutare le risorse a loro disposizione, ragionare e scegliere quali passi fare per risolvere il problema, incluso l'accesso ad altri sistemi.
Lo fanno in base al livello di delega, o agency che gli viene fornito,
Cos'è l'Agency?
"To have agency" significa avere la capacità di agire in modo indipendente, prendere decisioni autonome e influenzare attivamente la propria 'vita' e l'ambiente circostante. In italiano potremmo tradurlo come "avere autonomia decisionale" o "avere capacità di azione".
Come mi ha raccontato un LLM:
"Il concetto di "agency" implica:
La capacità di fare scelte consapevoli
L'abilità di agire secondo la propria volontà
Il potere di influenzare gli eventi e le circostanze
L'autodeterminazione nelle proprie azioni
Per esempio, quando diciamo "She has agency in her career choices" significa che lei ha il controllo e l'autonomia di prendere decisioni riguardo alla sua carriera.
In ambito sociologico e filosofico, il termine assume un significato ancora più profondo, riferendosi alla capacità dell'individuo di agire come attore sociale indipendente all'interno della società."
Il concetto è che va dato un mandato chiaro all'agente che tenga conto del contesto e limiti chiari.
In assenza di agency un agente, più è 'intelligente' più cercherà di risolvere quanto richiesto senza limiti, senza allineamento con noi.
E qui torna l'esempio del paperclip maximizer di Bostrom (qui l'esempio del precedente articolo) in cui un agente con un obiettivo generico: Massimizzare la produzione di graffette, andrà ad utilizzare possibilmente tutti gli atomi dell'universo per farlo, senza curarsi delle conseguenze.
Cosa ce ne facciamo?
Chi usa tanto ChatGPT senza automazioni o senza flussi di lavoro ben definiti si sta probabilmente trovando ad essere un esecutore di COPIA/INCOLLA, Cambio finestra, clic con il mouse qua e la, tutto 'switching time', tempo perso.
Ad esempio per scrivere un post di lancio per questo articolo dovrei:
copincollare questo testo in ChatGPT, chiedere di analizzarne il contenuto ed estrarre le informazioni rilevanti
poi dovrei leggere cosa dice, magari mettermi a modificare qualcosa e fare 2-3 giri di ottimizzazione (poi di solito mi stanco e mi metto a riscriverlo da zero, senza AI, ma questo non conta)
Quando credo sia pronto lo faccio leggere ad un assistente che mi dà feedback da un panel di 5 miei archetipi di lettori diversi. Copia e incolla, lettura della conversazione, valutazione.
Poi dovrei aprire Linkedin, iniziare il post, sistemare tutto in base alle specifiche di Linkedin stesso, dare un'occhiata finale e fare clic su pubblica.
Questo è un esempio semplice in cui il flusso di lavoro sembra essere preimpostato. Ma se magari facessi prima leggere il post ai 5 diversi lettori e poi ripassassi i feedback al primo passaggio produrrei contenuti migliori. Progettarlo in un workflow non è per nulla semplice.
Nel video, visto anche nella scorsa puntata, invece vedete come posso fare con un agente che ho creato in 10 minuti: il suo compito è aiutarmi a scrivere post di lancio migliori su Linkedin (no, non lo sto usando davvero, almeno per ora). Ha la capacità di cercare informazioni su internet, potrebbe pubblicare direttamente su linkedin, e decide lui, in autonomia, quanti e quali passaggi e revisioni far fare ad ogni articolo, per assicurarsi che vada bene per i miei lettori, che sia tecnicamente corretto ecc.
Sono davvero così potenti?
Abbiamo una fortuna, ad oggi anche gli agenti più potenti hanno molti limiti, sbagliano e non sono all'altezza di un essere umano.
Un po' a causa delle capacità di orchestrare flussi complessi autonomi da parte di modelli di AI, un po' perché non abbiamo ancora gli skill, come umani, per strutturarli come racconto nel prossimo paragrafo.
Ad oggi la situazione, come raccontato da Microsoft (link in fondo all'articolo) è questa... Il livello di accuratezza umano svetta di gran lunga. (Ma sarei curioso di aggiornare questo grafico con DeepSeek R1 o OpenAI O3)

Ritengo sia una fortuna che ancora ci siano risultati bassi perché, come scrivo all'inizio di "Assumere un'intelligenza artificiale in Azienda", mentre l'AI corre velocissima noi umani abbiamo tempi 'standard' di assuefazione. Ci serve tempo per prepararci alle novità.
Ma siamo diretti verso un mondo dove vedremo decisamente molta più produttività con l'utilizzo dell'AI. Semplicemente per un fatto di 'forza bruta' che possiamo applicare a molte situazioni di lavoro dove i limiti umani non sono in termini cognitivi ma di disponibilità di tempo e risorse.
Lasciar andare un'agente qualche ora, non occupandosi del costo in sostenibilità economica ed ambientale, non è difficile, solo costoso e a volte non dà i risultati che vorremmo. Ma non significa che non vada fatto. Dovremo evolvere le nostre capacità di coordinamento, imparare ad utilizzare questi strumenti potentissimi ed essere pronti al momento in cui raggiungeranno e supereranno le nostre capacità di agire.
Stanno spuntando come i funghi piattaforme di agenti generalisti multi-purpose che 'fanno cose': dedicateci del tempo. Per comprendere serve capire. Per capire l'unico modo oggi è fare pratica!
E chi li coordina?
In questi giorni stanno uscendo dichiarazioni come quella di Jensen Huang che dicono che l'IT è il nuovo HR degli agenti. Ma perchè?
Perché coordinare queste risorse non è banale. Come base serve avere chiari i ruoli, come ho raccontato nel post precedente che di fatto dava il via a questa serie di contenuti sugli Agenti.
Davanti ad un compito in azienda, pensate al semplice post di lancio su Linkeidn raccontato sopra, in funzione delle risorse a disposizione (Competenze interne, disponibilità di tempo, budget) un manager darà un obiettivo finale: "pubblicare un post", lasciando ai collaboratori il compito di scoprire come farlo al meglio. Senza fissare grandi processi strutturati il manager sa che potrà sfruttare le competenze del suo team ibrido ed ottenere grandi risultati.
Per farlo dovrà essere chiaro, specifico, magari gentile in modo da assicurarsi che le sue istruzioni siano comprensibili. Poi dovrà fidarsi del suo team durante l'esecuzione e, come da buone pratiche, essere in grado di controllare periodicamente lo stato di avanzamento per accettarsi che tutto avvenga nel migliore dei modi.
Ma se i team inizieranno ad essere composti da umani che interagiscono con Agenti AI? Chi sarà in grado di controllare gli agenti AI? Vogliamo davvero 'lasciarlo fare all'IT' dando loro l'agency completa? Pensiamo davvero che il 'manager medio' non abbia bisogno di essere in grado di coordinare risorse di questo tipo nel giro di qualche mese?
Se per gestire il vostro flusso di lead aveste quattro persone in team e 12 agenti iper specializzati da controllare come cambierebbe il vostro lavoro? Come dovrebbero evolvere le vostre competenze manageriali? Che rapporti si instaurerebbero tra le persone umane e gli agenti?

Chi sarebbe in grado di controllare che gli agenti non 'perdano tempo' in chiacchiere tra loro (che costano molto, moltissimo) o che non inizino a sviluppare codice che non rispetti i limiti che gli avete dato? E se quando le persone inizieranno ad essere gelose delle capacità degli agenti cosa accadrà? Come si relazioneranno gli umani con gli agenti AI, che dinamiche organizzative nuove dovremo approcciare?
Serve tempo per dare queste risposte. Ne abbiamo sempre meno.
Scusate...
Non volevo alzare l'hype che già c'è sull'AI. Davvero! Il mio obiettivo rimane quello di "Godersi l'AI responsabilmente" e credo sia responsabile portare anche ai miei lettori, non sempre tecnici, non sempre allineati su quello che succede dietro le quinte, in discussioni che gli addetti ai lavori stanno facendo ogni giorno.
Credo davvero che questo sia un tema vero di cui occuparsi e che ogni manager responsabile dovrebbe in qualche modo affrontare prima possibile. Magari iniziando a sporcarsi le mani in prima persona, tutto sommato basta parlarci e cercare di tenere il controllo. Probabilmente, assisteremo a forme di “collaborazione umani-macchine” sempre più raffinate e mediate, dove gli agenti automatizzati si specializzano in analisi, reazioni e ottimizzazioni, mentre il giudizio finale rimane in mano all’uomo (o almeno a un insieme di valori e procedure stabiliti da esseri umani).
Tuttavia, l’autonomia crescente degli agenti innalzerà sempre più l’asticella di ciò che possono decidere e fare da soli, lasciando ampio spazio a tensioni e dibattiti futuri. E saperli pianificare e controllare sarà una skill necessaria.
In conclusione, le applicazioni agentiche rappresentano il lato più dirompente dell’intelligenza artificiale, con un potenziale tanto benefico quanto pericoloso. I punti critici — sicurezza, trasparenza, responsabilità, etica — non si risolveranno da soli: richiedono una sinergia fra attività di tutti i giorni, ricerca tecnologica, regolamentazione e cultura della consapevolezza. Se vogliamo evitare gravi problemi sul piano sociale e politico, dobbiamo progettare e gestire questi agenti con un’attenzione maniacale ai valori e alle conseguenze che comportano.
Un mio piccolo contributo su come affrontare la cosa lo trovate con gli articoli del blog dedicati ad "Assumere un'AI in azienda" e nel libro in cui ho provato a strutturare un framework, AI-PLUG, di azioni pratiche da fare.
Quindi?
Siamo davanti ad un grande punto di discontinuità nelle organizzazioni.
Abbiamo i Bot conversazionali, che ci permettono di dialogare con un LLM (Livello 0)
I workflow AI, che ci permettono di mettere gli LLM nel loop di processo con o senza noi umani (Livello 1)
Gli agenti AI che ci permettono di parlare con strumenti software tradizionali o con altri tipi di AI (Livello 2)
Le Agentic AI, quando deleghiamo workflow ed azioni ad un LLM in grado di decidere quali tool usare, generare ed eseguire codice e 'confabulare' per giungere ad un risultato decidendo loro il processo (Livelli 3,4,5)
I vari livelli di agenti visti ci portano ad uno stato dell'arte in cui possiamo dialogare in linguaggio naturale con 'entità' che si occuperanno di dialogare con altri software per conto nostro, di creare software ad-hoc in tempo reale ed eseguirlo, di decidere come organizzarsi tra loro per darci il risultato che vogliamo.
Un esempio? Un agente a cui viene data tutta la documentazione di un sinistro assicurativo potrebbe occuparsi di capire il testo, le immagini allegate e tutti i pdf, cercare informazioni sul cliente dal database dell'assicurazione, confrontare il caso con termini e condizioni della polizza, chiedere al cliente chiarimenti, attendere risposta da lui, consultarsi con specialisti di prodotto interni. Può farlo andando avanti per giorni interi, senza perdere il focus sul suo obiettivo ed il suo contesto.
Quando i modelli AI Generativa saranno sufficientemente capaci ci avvicineremmo al concetto di AGI, Intelligenza Artificiale Generale, come non abbiamo mai fatto prima. Quando evolveremo l'AI Generativa, che a mio avviso non è, allo stato dell'arte, in grado di essere 'alla pari' con noi, allora raggiungeremo e supereremo questo livello. igence)
Siamo davanti al momento in cui un manager non può non avere consapevolezza di questa nuova tipologia di risorse, né umane né puramente software. C'è un tema di ruoli, come ho raccontato nello scorso post, che richiede nuovi livelli di comprensione, di competenze, di strumenti e soprattutto di fiducia (tra noi e verso questi agenti) anche da parte nostra. E non è futuro. In questo momento migliaia di programmatori nel mondo stanno lavorando su piattaforme in grado di creare agenti. Migliaia di persone stanno usandole. Questa è la vera trasformazione che l'AI può portare nei luoghi di lavoro. E l'accelerazione è costante.
Probabilmente, nel giro di 5 anni, gli agenti ai saranno i principali utilizzatori dei vostri sistemi aziendali, converseranno tra loro e con quelli di altri attori della vostra supply chain, rappresenteranno voi, la vostra azienda, i vostri valori.
Probabilmente starete facendo siti web ottimizzati per la lettura di informazioni da parte di agenti AI: nello stesso modo in cui ora curate la User Experience vi occuperete di Agent Experience per agevolare la fornitura di informazioni ad agenti dei player con cui vi relazionate. Voi e le vostre persone passerete più tempo a relazionarvi con un agente di quanto ne stiate dedicando oggi alle diverse applicazioni aziendali.
E non lo dico solo io:
“La trasformazione non è priva di sfide, i posti di lavoro si evolveranno, i ruoli si sposteranno e le aziende dovranno adattarsi. Avremo tutti bisogno di riequilibrare la nostra forza lavoro man mano che gli agenti assumeranno una parte maggiore della forza lavoro e quindi potremo riequilibrare e rimodellare le nostre aziende in modi nuovi”.
Marc Benioff. Salesforce CEO
...E poiché questi sistemi sono progettati per imparare, mentre creano nuovi flussi di lavoro, possono anche creare percorsi per le future richieste degli agenti. In questo modo, ogni volta che un agente ragiona su un problema, in ultima analisi, si ottiene un effetto dell'azienda di affrontare i problemi in modo più ampio. Julie Sweet.
Accenture CEO (Accenture Tech Vision 2025)
Altrimenti... dovremo rimanere a guardare i paperclip maximizer degli altri. (e nel frattempo, per scrivere questi post, OpenAI mi ha bloccato l'account per un numero eccessivo di interazioni e token usati dai miei agenti!)
Se volete che torni sul tema degli agenti , fatemi sapere cosa vorreste approfondire di più.
Intanto vi lascio un paio di link ulteriori:
(Ho già detto che dovete dedicarci tempo? 😀)
Massimiliano
Comments