top of page

AI Generativa: breve storia del prossimo futuro!

OpenAI ha da poco presentato una propria classificazione dei sistemi di AI per capire a quali livelli ‘medi’ sia un modello di AI rispetto ad un ‘classico cervello umano’.

Questa classificazione è per ora nelle mani dei dipendenti di OpenAI ma qualche tempo fa Reuters l’ha in parte pubblicata in vista delle prossime versioni di modelli di OpenAI.

Mi sono stancato di aspettare la versione pubblica e perchè un po' di concetti mi facevano urlare dentro ed… eccomi qua.


 

EDIT - Circa 10 ore dopo la pubblicazione dell'articolo qualcosa è già cambiato! https://openai.com/o1/ Se non è futuro prossimo questo !


 





I cinque livelli di AI secondo OpenAI

La classificazione va da Livello 1 a Livello 5, e paragona l'AI ai cervelli umani più o meno evoluti. Questo documento rappresenta una sorta di roadmap per il futuro dell'intelligenza artificiale, definendo obiettivi ambiziosi ma anche fornendo un quadro utile per comprendere come i creatori di AI vedono questo mondo e come credono possa evolvere.


Ecco un riassunto minimale.


Livello

Descrizione

Level 1: Conversational AI

Gli attuali sistemi AI di OpenAI, come ChatGPT, si trovano a questo livello. Questi sistemi eccellono nel dialogo naturale, simile a quello umano, dimostrando una comprensione di base e la capacità di rispondere a una vasta gamma di domande e richieste.

Level 2: Problem-Solving Virtuosos

Al livello 2, incontriamo i "Reasoners" - sistemi AI capaci di affrontare problemi complessi con la competenza di esperti umani. Raggiungere questo livello segna un momento cruciale, poiché rappresenta la transizione dal semplice imitare il comportamento umano a dimostrare un vero e proprio ingegno intellettuale.



Secondo OpenAI oggi siamo a questo livello.

Level 3: Autonomous Agents

Il livello 3 prevede gli "Agents" - sistemi AI capaci di operare autonomamente per lunghi periodi. Questi agenti potrebbero rivoluzionare le industrie assumendo compiti complessi, prendendo decisioni e adattandosi alle circostanze mutevoli senza supervisione costante.

Level 4: Innovators and Creators

Al livello 4, l'AI entra nel regno degli "Innovators". I sistemi a questo stadio possiedono la creatività e l'ingegnosità per sviluppare idee e soluzioni rivoluzionarie.


Raggiungere il livello 4 significherebbe un significativo balzo in avanti, segnando la capacità dell'AI di guidare l'innovazione e il progresso in vari campi.

Level 5: Organizational Equivalents

Il livello più alto della roadmap di OpenAI è il livello 5, dove i sistemi AI possono funzionare come intere organizzazioni.



Questi sistemi AI "Organizational" possiedono il pensiero strategico, l'efficienza operativa e l'adattabilità necessari per gestire sistemi complessi e raggiungere obiettivi organizzativi. Sebbene ancora lontano, il livello 5 rappresenta l'ambizione ultima dei ricercatori AI.

Sembra non si parli direttamente di AGI, Intelligenza Artificiale Generale, quella in grado di operare esattamente come un essere umano nei più alti percentili di ‘intelligenza’, nonostante Open AI si autodefinisca “Ricerca pionieristica sulla via dell'AGI”. Dovremmo anche capire se si parla ancora di GPT o se stanno emergendo nuove architetture, fondamentali per far evolvere l'AI.

Bonus

Per rendere questo post più pratico e farvi capire cosa è facile fare oggi ho fatto un artifact con Claude per riassumere i 5 livelli di AI secondo OpenAI. (Cos’è un’Artifact?)


Riflessioni

  1. Il cervello umano continua a essere il punto di riferimento massimo per misurare l’intelligenza. Questo punto è cruciale: siamo davvero l’intelligenza più avanzata dell'universo conosciuto? O siamo solo la migliore che conosciamo? Questa domanda non è solo filosofica ma pratica; la nostra arroganza potrebbe portarci a errori fatali. La questione della nostra posizione nell'universo dell'intelligenza rimane aperta e richiede una dose di umiltà che mi sembra manchi un po’.

  2. La definizione di intelligenza, anche in ambito umano, mi sta sempre più stretta, la sua classificazione mi preoccupa perchè riduttiva. Forse è ‘umanità’ la parola su cui dovremmo riflettere per confrontarci con le macchine, unita alla parola natura.

    E nella natura umana, tra le varie abilità, caratteristiche e sfumature, c’è anche l’intelligenza, ovvero le intelligenze. Howard Gardner, psicologo americano, ha introdotto la teoria delle intelligenze multiple, che include altre capacità come l'intelligenza cinestetico-spaziale, interpersonale, intrapersonale, musicale e spirituale. Limitare l'intelligenza alla pura logica e problem-solving rischia di creare entità pericolose e, oserei dire, incompiute. Se riduciamo l’AI ad un’entità che si preoccupa solo dell’intelligenza intesa come capacità di ricevere e risolvere problemi logici senza empatia, senza pathos, senza propriocettività, senza la capacità di intermediare le situazioni con le emozioni, senza una propria cultura ed un vissuto, senza aspirazioni di miglioramento e cerchiamo un benchmark per capire quanto l’AI possa assomigliare a noi… beh, stiamo dimenticando parecchi componenti della ricetta e rischiamo di creare un golem pericoloso.

    Come direbbe un caro amico psichiatra che sta studiando le patologie psichiatriche delle varie AI in circolazione, nella migliore ipotesi staremmo creando entità soggette ad una lunga lista di problemi psichiatrici: Disturbo Ossessivo Compulsivo della Personalità, Disturbo della personalità Schizoide, Disturbo Antisociale di Personalità (con tendenze manipolatorie) ecc.

  3. Fino a che punto riusciremo a capire il livello di intelligenza di un’AI?

    In un bellissimo libro che consiglio a tutti, Vita 3.0 di Mark Tegmark, ad un certo punto si parla di AGI e l’autore fa un paragone meraviglioso: Immaginate che un gruppo di bambini dell’asilo (Noi esseri umani) abbia imprigionato l’ultimo adulto sulla terra (Una Super Intelligenza Artificiale). Lo hanno imprigionato perché possiede il sapere che a loro manca, perché li possa guidare a ripopolare la terra ecc.

    Bene, fino a che punto questi bambini dell’asilo potrebbero comprendere il pensiero dell’adulto super-intelligente? Come classificherebbero le sue iniziative? Cosa si aspetterebbero da lui? Come giudicherebbero le sue capacità? Quali stratagemmi potrebbero studiare per mantenerlo sotto controllo? Dalla prospettiva di un bambino dell’asilo un adulto è un bravo adulto quando li fa giocare, li nutre, li fa divertire. E questo adulto diventa un genio se è capace di creare case di marzapane, giochi coinvolgenti e canzoncine allegre. I bambini non sanno cosa stia nella mente più evoluta di un adulto, e le loro aspettative sarebbero molto basse. Ma noi sappiamo che un essere umano adulto è ben di più. E l’adulto, in quella situazione di prigionia, farebbe senz’altro qualcosa di inaspettato per i bambini, che si accorgerebbero presto che è incontrollabile.

    Classificare ora le AI, in questo stadio iniziale, finché il paragone è tra adulti (l’umanità) e bambini (l’AI) può funzionare.

    Ma mano a mano che l’AI si avvicinerà alla nostra ‘intelligenza’ come potremo valutarne i comportamenti, i parametri, le motivazioni? Come potremo capirla se già ad oggi non è chiaro esattamente perché i modelli di linguaggio di grandi dimensioni (LLM) funzionino come funzionano? Dal mio punto di vista, già il Livello 3, AI in grado di ragionare e operare autonomamente per lunghi periodi per ottenere un fine, è una fase che rischia paurosamente di sfuggirci di mano.


Torniamo su OpenAI

Nell’evoluzione della potenza delle AI circolano voci riguardo a Strawberry, quello che potrebbe essere il ‘vecchio progetto Q*’ che tanto ha spaventato tutto il board e forse ha generato l’uscita in disaccordo di un sacco di persone che hanno fondato OpenAI e ci lavoravano a livelli strategici. (Mia speculazione personale).

Strawberry dovrebbe essere il progetto che ci porta al livello 3: quello di agenti autonomi ‘realmente’ in grado di pensare a lungo termine e non solo a seguito di un prompt.

Per chiudere su Strawberry: il progetto è stato presentato alle agenzie di sicurezza statunitensi, evidenziando il suo potenziale nei settori della sicurezza nazionale e delle tecnologie avanzate. "Strawberry" sta inoltre aprendo la strada a un'AI ancora più sofisticata, denominata "Orion", che promette di spingere ulteriormente i limiti dell'AI. C'è anche la possibilità che una versione semplificata di "Strawberry" venga integrata in ChatGPT già questo autunno, offrendo agli utenti un assaggio di questa tecnologia all'avanguardia. Leggevo in questi giorni che OpenAI sta valutando un pricing vicino ai 2.000 dollari al mese per questa nuova creatura. Un costo di 100 volte più alto dell’attuale Chat GPT Plus! Chissà! EDIT: Per ora ha rilasciato una preview con i modelli o1 (Credo che o stia per Orion)

Ma non voglio scrivere di speculazioni, solo riflettere sul fatto che ogni gradino di evoluzione dell’AI, probabilmente, porterà con se una crescita, ed un impatto, esponenziale. E stiamo parlando di pochi anni, non decenni.

Le implicazioni etiche qui sono enormi e, dati gli interessi (investimenti fatti) in gioco direi che vale la pena iniziare a dedicare del tempo a capire meglio questa AI Generativa (o ciò che saranno definiti i prossimi livelli).

Quando? Sembra tra un paio di settimane (oggi è il 12 settembre 2024). Vedremo.


Cos’altro c’è

Nel frattempo, altri giganti tecnologici stanno facendo progressi significativi.

Alibaba ha presentato Qwen2-VL, un modello AI che supera GPT-4 in termini di comprensione visiva e supporto multilingue. Questo modello può analizzare immagini e video lunghi con notevole precisione e dettaglio, riconoscendo e interpretando testo in multiple lingue all'interno delle immagini.

Google, non da meno, ha aggiornato Gemini introducendo assistenti AI personalizzabili e capacità avanzate di generazione di immagini. Con il nuovo modello Imagen 3, gli utenti possono creare immagini di alta qualità in vari stili, dal fotorealistico ai dipinti classici. Queste funzionalità stanno gradualmente diventando disponibili per gli utenti di Gemini Advanced, Business ed Enterprise.


Questi sviluppi indicano che, anche se spero che si esca presto dall’hype sull’AI, siamo ancora nelle prime ore del mattino della nuova era dell'AI, dove le capacità di comprensione, ragionamento e creazione stanno raggiungendo livelli sempre più avanzati.



Quindi…

Forse la consapevolezza di questi gradini iniziali servirà ad aiutarci a definire dei limiti?

Siamo in uno stadio di crescita in cui, anche solo per le centinaia di miliardi di dollari investiti, è impossibile fermare la ricerca. E lo posso accettare.


D’altra parte però i dilemmi etici che genera un agente di livello 3 meritano riflessioni più profonde di quelle fatte fino ad ora.


Permettetemi di terminare con una battuta: l’unica speranza è che quando l’AI giungerà al livello 4 si renda conto lei per noi di quale siano le strade da seguire e… di quali siano i successivi 100 livelli. E ci dia una mano a superarli. Insieme.


Che ne pensate?


A presto!

Massimiliano

Comments


bottom of page