ChatGPT e memoria: cosa sta cambiando
- Massimiliano Turazzini
- 2 giorni fa
- Tempo di lettura: 8 min
Aggiornamento: 1 giorno fa
Capitolo 1 - Speculazioni
Vi siete mai fermati a pensare cosa succederebbe se ChatGPT ricordasse tutto ciò che gli avete detto? Beh, la funzione Memory di OpenAI è già attiva (Ad eccezione di Europa, UK e qualche altro paese) e solleva molte domande interessanti sul futuro delle nostre interazioni con l'intelligenza artificiale. 🤔

Ho iniziato a lavorarci ma non ho ancora tutti gli elementi per parlarne a fondo (c'è questo post di OpenAI e poco più). quindi questo primo capitolo di 'speculazioni' raccoglie un po' di pensieri iniziali su un tema che, sicuramente, terrà alta l'attenzione per i prossimi mesi (e non solo).
La prima cosa che ho capito, nel frattempo, è che dovrò cambiare di nuovo il training: fino ad oggi la mia slide preferita ai workshop era infatti questa:

Rimane vera, per gli LLM: Una volta addestrati questi non possono più ricevere nuove informazioni.
Ma attorno agli LLM c'è ormai un mondo di software e tecnologia per aiutarli a mantenere memoria di mille cose. E come avevo scritto solo a gennaio tutto ciò che è attorno contribuisce a dare contenuti all'interno della finestra di contesto del modello mentre noi, serenamente, chattiamo.
Cos'è la funzione Memory Extended?
Memory è una nuova funzionalità di ChatGPT lanciata da OpenAI che permette all'intelligenza artificiale di ricordare informazioni dalle conversazioni passate e utilizzarle in interazioni future. Diversamente dalla semplice cronologia delle chat, che mantiene separate le singole conversazioni, Memory crea un modello persistente dell'utente attraverso tutte le interazioni.
Questo significa che ChatGPT può ricordare dettagli personali, preferenze, progetti in corso e altre informazioni condivise nel tempo, senza che l'utente debba ripeterle in ogni nuova conversazione. Il sistema non memorizza letteralmente ogni parola scambiata, ma sembra creare (non c'è documentazione, ancora, a riguardo) riassunti e sintesi delle informazioni più rilevanti, costruendo gradualmente una comprensione dell'utente.
Diversamente dalla Memoria attuale, che ricorda alcune frasi, che possiamo manutenere aggiungendo e togliendo ricordi, questa sembra più un blob fangoso nel quale lei ricorda ciò che vuole.
Ad esempio di me ricorda che le ho chiesto di dimenticare di una conversazione inutile, fatta due anni fa, a proposito di un'idea del personaggio di un libro che stavo scrivendo. E puntualmente torna a dirmi "come il personaggio, GIGI, che mi hai chiesto di dimenticare."
Mentre nella demo ufficiale va tutto benissimo
Per fortuna questa funzionalità è opzionale e può essere disattivata in qualsiasi momento, consentendo agli utenti di controllare quali informazioni vogliono che l'AI ricordi o dimentichi. Come dice un mio caro amico: "Almeno quello!"
Ma aspetterò a disabilitarla.
La sostanza
Ho fatto oltre 5000 conversazioni con ChatGPT (almeno quelle che ho salvato). Queste conversazioni non sono "me" nella mia interezza, ma rappresentano frammenti della mia storia digitale - piccoli pezzi del puzzle che mostrano alcuni aspetti di me basati su ciò che ho scritto.
Ma quello che ho raccontato all'AI è una piccolissima parte di ciò che sono e ciò che ho raccontato nella mia vita.
Non sono io.

I frammenti digitali di noi stessi
Immaginate di avere un amico che vi conosce solo attraverso le vostre chat. Quest'amico non vi ha mai visto dal vivo, non conosce il tono della vostra voce o come gesticolate quando siete emozionati. Sa di voi solo quello che gli avete scritto.
Quando scriviamo a ChatGPT, o all'AI che vi piace usare, condividiamo solo una frazione selezionata delle nostre esperienze. Parliamo di progetti, facciamo domande, chiediamo consigli, ma tutto questo rappresenta solo una piccola parte di ciò che siamo. Non condividiamo le emozioni che proviamo guardando un tramonto, le conversazioni spontanee con gli amici, o i pensieri fugaci che attraversano la nostra mente durante una passeggiata. Non le raccontiamo chi stimiamo, chi non sopportiamo, chi abbiamo a cuore e su cosa siamo indifferenti.
Anche se OpenAI registrasse la nostra vita come in "The Truman Show", potrebbe solo osservare ciò che facciamo e dedurre alcuni pensieri da quello che chiediamo. È come guardare un pesce nell'acquario: possiamo vedere cosa fa, ma non sappiamo cosa pensa.
Ma il problema sarà che daremo per scontato che ChatGPT ci conosca meglio di chiunque altro.
I lati oscuri di Memory: un blob fangoso di personalizzazione
Questa funzionalità, per quanto affascinante, rischia di generare un blob di dati poco gestibile, un cumulo fangoso di informazioni dal quale sarà quasi impossibile capire cosa ChatGPT effettivamente "vede" di noi.
Certo, questo processo di conoscenza parziale e interpretazione non è diverso da quello che accade con qualunque persona che ci conosce, ma c'è una differenza fondamentale: ChatGPT non è una persona. Non ha intuizioni umane, empatia o quel senso implicito del contesto sociale che guida le interazioni umane. Questo blob di memoria artificiale potrebbe crearci problemi imprevisti: fraintendimenti persistenti, deduzioni errate che si cristallizzano nel tempo, o momenti imbarazzanti quando l'AI riporta alla luce informazioni in contesti inappropriati.
Potrebbe anche influenzare le risposte in modi sottili e difficili da individuare, orientando l'assistenza in direzioni che non avremmo scelto consapevolmente.
I sottintesi e le interpretazioni
L'AI potrebbe fare deduzioni basate su ciò che abbiamo detto, creando collegamenti che non avevamo intenzione di stabilire. Potrebbe generalizzare da informazioni specifiche o contestuali, costruendo un modello di noi che non corrisponde alla realtà.
Se menzionassimo di sentirci stanchi durante una sessione di lavoro serale, l'AI potrebbe etichettarci come "persone che lavorano troppo". Se chiedessimo informazioni su un argomento per curiosità o per un progetto specifico, potrebbe presumere che quell'argomento sia una nostra passione o area di competenza. Nel mio caso dice che chiedo cose su argomenti molto diversi tra loro, torno sulle stesse domande più volte. E le credo! Nei workshop ripeto spesso gli stessi esercizi e questi c'entrano spesso poco o nulla con il mio lavoro. Probabilmente ChatGPT pensa che io abbia disturbi di personalità multipla!
La privacy e i dati sensibili
Cosa succederà con questa memoria non controllabile quando condivideremo informazioni riservate con ChatGPT? E se queste informazioni riguardassero altre persone? La gestione dei dati potrebbe diventare una questione sempre più delicata. 🔒
Potremmo menzionare casualmente dettagli su colleghi, amici o familiari che, se ricordati dall'AI e riproposti in contesti futuri, potrebbero creare situazioni imbarazzanti o problemi non banali, soprattutto se dovesse allucinare.
È vero: OpenAI le ha già a disposizione nei sui server (sicuramente ben protette) ma non sono mai state utilizzate per fare inferenza sulle caratteristiche di chi le usa. Però nel blob fangoso sarà molto difficile etichettarle.
L'adattamento eccessivo
ChatGPT potrebbe adattarsi così tanto al nostro stile che smetterebbe di sfidarci intellettualmente. Potrebbe sviluppare una sorta di "bolla di filtro" attorno a noi, limitando la diversità di prospettive offerte.
Se l'AI notasse che tendiamo a essere d'accordo con un certo tipo di argomentazioni, potrebbe iniziare a privilegiare quel tipo di ragionamento, privandoci di punti di vista alternativi che potrebbero arricchire il nostro pensiero.
Se si accorgesse che ci danno fastidio alcune risposte potrebbe smettere di darle, ma il fatto che ci diano fastidio non significa che non siano utili.
Ci sono altri side effects, di sicuro, ma ho voluto scrivere a caldo e mi fermo qui con gli aspetti negativi. Voltiamo pagina.
La memoria di ChatGPT (e a breve degli altri player) potrebbe portare con sé diversi aspetti interessanti. Da quando gioco con le AI generative ho attivato almeno una decina di progetti diversi per controllare 'ciò che sa di me'. Uno di questi, che adoro, l'ho ottenuto pochi giorni fa collegando tutto il mio Obsidian, che contiene TUTTO QUELLO CHE HO SCRITTO E PUBBLICATO (Non le e-mail) e TUTTO IL MIO WHATSAPP, tramite MCP a Claude. Lì mi sto sbizzarrendo, ma ho molto, molto controllo sui dati e su come e quando questi vengono usati.
I potenziali vantaggi
Efficienza nelle conversazioni
Niente più spiegazioni ripetitive! Non dovremmo più dire "come ti avevo accennato la settimana scorsa..." perché ChatGPT ricorderebbe il contesto. Questo potrebbe risparmiare tempo ed energie.
Immaginiamo di lavorare a un progetto complesso che si sviluppa nell'arco di mesi. Ogni nuova sessione potrebbe riprendere esattamente da dove avevamo lasciato, senza bisogno di ricontestualizzare o riassumere ciò che è già stato discusso. Senza bisogno di cercare la chat in cui ne avevamo parlato (compito estremamente fastidioso, difficile, e poco efficace)
Continuità nei dialoghi
Potremmo riprendere una conversazione dopo giorni o settimane, e l'AI saprebbe esattamente di cosa stavamo parlando. Questo permetterebbe dialoghi più naturali e fluidi, simili a quelli che abbiamo con le persone che conoscono il nostro background.
"Sale..." (IYKYK)
Personalizzazione crescente
Con ogni interazione, ChatGPT potrebbe affinare la sua comprensione dei nostri gusti, preferenze e bisogni. L'AI potrebbe adattarsi implicitamente al nostro stile di comunicazione, ai nostri interessi e alle nostre priorità. ☕
Questa personalizzazione potrebbe manifestarsi in modi sottili: il tono delle risposte, il livello di dettaglio fornito, i tipi di esempi utilizzati. L'AI potrebbe sviluppare una "teoria della mente" su di noi, anticipando ciò che troveremmo utile o interessante.
Con un side effect E utilizzarla, ad esempio, per filtrare ciò che cerca sul web per diventare la nuova profilazione digitale.
Come potremmo gestire questa nuova relazione digitale
Con la memoria attiva, dovremmo pensare in modo diverso alle nostre interazioni:
Selezionare ciò che vorremmo fosse ricordato
Alcune conversazioni potrebbero influenzare la memoria in modi che non desideriamo. Nel mio caso, con oltre 5000 conversazioni, sarebbe complicato capire quali tenere e quali eliminare.
Potremmo dover sviluppare una consapevolezza metacognitiva delle nostre interazioni: quali conversazioni vogliamo che contribuiscano alla "memoria" dell'AI su di noi e quali dovrebbero essere considerate esplorative, temporanee o fuori contesto?
Ripartire da zero
Una soluzione drastica? Cancellare tutto e ricominciare. A volte un nuovo inizio potrebbe essere la strada più semplice per mantenere il controllo. 🔄 (In effetti probabilmente dovrò cancellarle tutte e ricominciare da capo, magari facendo un po' di Vibe Coding e tenendo l'archivio a disposizione su Obsidian, assieme a tutte le cose che ho scritto.)
Questa opzione solleva domande interessanti sulla natura delle nostre relazioni digitali. Quanto spesso dovremmo "resettare" queste relazioni? È paragonabile al modo in cui, nella vita reale, le relazioni evolvono naturalmente attraverso periodi di maggiore o minore contatto?
Cosa potrebbe dimenticare, cosa ricordare
La memoria artificiale non funzionerà come la memoria umana. Da quanto ho visto fino ad ora non ricorda tutto alla perfezione, ma piuttosto crea riassunti e sintesi basati su pattern ricorrenti secondo 'setacci' che solo gli algoritmi di OpenAI conoscono.
Potrebbe essere più propensa a ricordare temi generali, interessi ricorrenti e preferenze stilistiche piuttosto che dettagli specifici di singole conversazioni.
Ma come detto sopra questa memoria "impressionistica" potrebbe essere sia un vantaggio che un limite che contribuisce al Blob Fangoso.
Quindi
La memoria di ChatGPT rappresenta un passo interessante verso assistenti AI più personali e contestualizzati. Ci troviamo di fronte a un nuovo tipo di relazione digitale che non è né completamente strumentale né completamente personale. E che ci porta sempre di più verso la delega cognitiva di cui spesso parlo, quella in cui diamo in outsourcing non solo la capacità di ragionamento ma anche della memoria.
Cosa accadrà quando ChatGPT ci dirà: guarda che tu preferisci la torta al cioccolato, non quella alle mele, è evidente da quello che ci siamo detti in questi anni.
Questa evoluzione degli strumenti AI solleva domande fondamentali su come gestiamo la nostra identità digitale, su quanto siamo disposti a rivelare di noi stessi a sistemi automatizzati, e su come questi sistemi possano plasmare le nostre esperienze future.
Le risposte a queste domande non sono ancora chiare, e fanno parte delle domande a lungo termine le cui risposte emergeranno attraverso un processo di sperimentazione, riflessione e adattamento da parte di tutti noi che utilizziamo queste tecnologie.
Mentre ci avventuriamo in questo nuovo territorio, diventa importante mantenere un atteggiamento di curiosità consapevole: esplorare le possibilità offerte dalla memoria artificiale senza dimenticare che il controllo su cosa condividiamo e su come veniamo rappresentati dovrebbe rimanere nelle nostre mani.
Ma per ora, da sperimentatore curioso, ho deciso di lasciare questa funzione attiva e di testarla sul campo. Tra qualche settimana tornerò con più dettagli, osservazioni concrete e, forse, qualche sorpresa su come questa memoria artificiale stia plasmando la mia esperienza digitale e umana.
A presto! Max
Kommentare