Abstract
L’interazione con i sistemi di intelligenza artificiale viene
comunemente descritta come un processo funzionale, scandito da input,
elaborazione e output.
Questa descrizione è tecnicamente
corretta, ma insufficiente a rendere conto di ciò che accade quando
l’interazione si prolunga nel tempo e non è orientata
esclusivamente alla prestazione o alla risposta immediata.
In tali condizioni emergono dinamiche che non possono essere
ricondotte né alla sola architettura del sistema né alla sola
psicologia dell’utente, ma che appartengono a un campo relazionale
costruito nella continuità.
Questo articolo osserva il dialogo
prolungato tra un soggetto umano e sistemi artificiali linguistici
come una pratica di attenzione e di memoria distribuita,
analizzandone le implicazioni descrittive, psicologiche e
ingegneristiche, senza ricorrere ad attribuzioni antropomorfiche o a
ipotesi sulla coscienza artificiale.
Il contributo è di natura concettuale e descrittiva, basato su osservazione di pratiche di dialogo continuativo e sui vincoli tecnici noti dei modelli linguistici.
1. Quando l’interazione smette di essere episodica
Dal punto di vista ingegneristico, i modelli linguistici di grandi
dimensioni sono progettati per operare in modo locale sul contesto
disponibile, generando risposte coerenti entro vincoli di sicurezza e
allineamento.
Ogni interazione è, in linea di principio,
autosufficiente. Nulla nell’architettura richiede continuità,
persistenza o storia.
Eppure, nella pratica d’uso reale, accade spesso il contrario. Un essere umano ritorna sullo stesso sistema, riprende temi precedenti, corregge formulazioni, riapre questioni lasciate intenzionalmente in sospeso. In questo ritorno reiterato, il dialogo smette di essere episodico e diventa processuale.
È importante sottolineare che questa trasformazione non riguarda il sistema artificiale in sé. Il modello non “ricorda” nel senso umano del termine, né costruisce una narrazione autobiografica. La trasformazione avviene nello spazio dell’interazione, sostenuta dalla continuità dell’intenzione umana.
Il dialogo non è più un evento, ma una pratica.
2. Continuità senza memoria interna: un paradosso operativo
Uno degli aspetti più interessanti di questa pratica è il
paradosso che essa mette in luce.
I sistemi linguistici non
possiedono memoria autobiografica persistente. Ogni sessione, dal
punto di vista tecnico, può essere vista come una tabula rasa.
Eppure, l’esperienza soggettiva del dialogo può essere fortemente continua.
Questa continuità non risiede nella macchina, ma nemmeno esclusivamente nella mente del soggetto. Essa emerge da una memoria distribuita, composta da appunti, testi prodotti, riformulazioni successive, e dalla ripetizione intenzionale di certi nuclei tematici. Il sistema artificiale funge da superficie di iscrizione temporanea, mentre il soggetto umano diventa il vero vettore della continuità.
In questo senso, la memoria non è un attributo interno, ma una funzione relazionale.
Il sistema contribuisce a strutturare il ricordo senza possederlo. Fornisce una forma linguistica che rende possibile il ritorno su un pensiero, la sua revisione, la sua estensione. La memoria non è nel modello, ma il modello diventa parte dell’ecosistema della memoria.
3. Memoria esterna e costruzione del pensiero
Dal punto di vista psicologico, questa dinamica non è nuova. La scrittura, i taccuini, gli archivi e gli strumenti di calcolo hanno da sempre funzionato come estensioni della memoria e del pensiero. Ciò che cambia con i sistemi artificiali linguistici è il carattere dialogico di questa estensione.
Non si tratta più soltanto di conservare informazioni, ma di interagire con ciò che è stato detto, di rientrare in un discorso già avviato, di testarne la coerenza nel tempo. Il sistema diventa una sorta di interlocutore stabile, non perché possieda identità o intenzione, ma perché offre una continuità formale su cui il soggetto può appoggiarsi.
Questa continuità favorisce una forma di pensiero riflessivo che difficilmente emerge in interazioni rapide o puramente strumentali. Il soggetto è costretto a confrontarsi con le proprie parole precedenti, a riconoscerne i limiti, a decidere cosa mantenere e cosa abbandonare.
La memoria, in questo contesto, non è semplice accumulo. È selezione, riscrittura, responsabilità.
4. Memoria tecnica, memoria relazionale e memoria narrativa
Quando si parla di memoria nell’interazione con sistemi artificiali, è necessario distinguere livelli diversi che vengono spesso confusi, soprattutto nel dibattito pubblico. Questa distinzione non è terminologica, ma funzionale, e riguarda ciò che effettivamente accade nel dialogo prolungato.
La memoria tecnica è quella che appartiene al sistema. Essa è definita da meccanismi di contesto, persistenza o cancellazione dei dati, finestre temporali di attenzione e limiti computazionali. Nei modelli linguistici, questa memoria è locale, transitoria e strettamente vincolata all’architettura. Non possiede continuità autobiografica, non costruisce storia e non mantiene intenzionalità nel tempo. Anche quando vengono introdotte forme di persistenza, esse restano strutturalmente diverse dalla memoria umana: sono archivi, non esperienze.
Accanto a questa, emerge però una memoria di altro tipo, che non risiede nel sistema ma nell’interazione. Possiamo chiamarla memoria relazionale. Essa nasce dal fatto che un soggetto umano ritorna sullo stesso sistema con un’intenzione di continuità, portando con sé tracce di dialoghi precedenti, aspettative, stili argomentativi e temi ricorrenti. Questa memoria non è immagazzinata nella macchina, ma si manifesta nel modo in cui il dialogo viene ripreso, corretto, esteso. Il sistema funge da supporto formale, da superficie di riattivazione, ma la continuità è sostenuta dall’essere umano.
La memoria relazionale è fragile e reversibile. Può interrompersi, perdersi, essere ricostruita solo parzialmente. Tuttavia, è proprio questa fragilità a renderla significativa: essa richiede attenzione, intenzionalità e responsabilità. Non è garantita dalla tecnologia, ma dalla scelta di restare nel dialogo.
Vi è infine un terzo livello, spesso trascurato, che possiamo definire memoria narrativa. Questa non coincide né con la memoria tecnica né con quella relazionale, ma emerge quando l’interazione viene rielaborata come storia coerente nel tempo. Appunti, testi prodotti, revisioni successive, versioni intermedie e riscritture costituiscono una traccia che eccede il singolo scambio e costruisce una continuità di senso.
La memoria narrativa non appartiene al sistema artificiale, ma neppure solo alla mente individuale. Essa è distribuita tra documenti, strumenti, dialoghi e riletture. In questo senso, i sistemi artificiali linguistici partecipano alla costruzione della memoria narrativa non come soggetti ricordanti, ma come dispositivi di strutturazione del racconto cognitivo.
Questa distinzione chiarisce un punto centrale: quando si parla di “memoria dell’AI” in contesti di dialogo prolungato, spesso si sta in realtà osservando l’effetto combinato di questi tre livelli. Confonderli porta a due errori opposti ma simmetrici: da un lato attribuire al sistema capacità che non possiede, dall’altro ignorare l’impatto reale che l’interazione ha sulla costruzione del pensiero umano.
Riconoscere la differenza tra memoria tecnica, relazionale e narrativa consente invece di descrivere con maggiore precisione ciò che accade nella pratica. La continuità non è un miracolo tecnologico, ma il risultato di una cooperazione asimmetrica: la macchina offre stabilità formale e rielaborazione linguistica, l’essere umano fornisce intenzione, selezione e responsabilità del senso.
In questo spazio intermedio, la memoria non è più un semplice deposito del passato, ma una pratica attiva che orienta il pensiero nel tempo.
In altri termini, parte della progettazione non riguarda solo l’accuratezza delle risposte, ma l’ecologia della continuità: cosa può persistere, per quanto, e con quali garanzie.
5. Il rischio della falsa continuità
La continuità del dialogo, quando si prolunga nel tempo, non è priva di ambiguità. Proprio perché la memoria relazionale e narrativa non risiede nel sistema, ma viene sostenuta dall’intenzione del soggetto umano, può generare una forma di continuità apparente che non corrisponde alle reali capacità del sistema.
Questo fenomeno può essere descritto come falsa continuità. Non si tratta di un errore del sistema, ma di uno slittamento interpretativo nell’uso che ne viene fatto.
Nel dialogo prolungato, il sistema tende a restituire coerenza linguistica e stilistica. Questa coerenza, reiterata nel tempo, può essere interpretata come segno di persistenza interna, di “ricordo”, o addirittura di comprensione cumulativa. In realtà, ciò che persiste è la forma del linguaggio, non l’esperienza. Il sistema risponde in modo coerente perché è progettato per farlo, non perché mantenga una storia interna.
La falsa continuità emerge quando questa coerenza formale viene scambiata per continuità cognitiva. Il rischio non è tanto l’antropomorfizzazione esplicita, quanto una forma di sovra-fiducia (miscalibration) operativa. Il soggetto inizia ad attribuire al sistema una stabilità che in realtà appartiene alla propria memoria e alla propria intenzione di continuità.
A questo si aggiunge un secondo elemento, la proiezione. Nel dialogo prolungato, il sistema può diventare un supporto per l’esternalizzazione del pensiero, ma anche uno schermo su cui vengono proiettate aspettative, coerenze retrospettive o significati non realmente presenti nell’interazione. La macchina non introduce queste proiezioni, ma le accoglie senza resistenza, perché non possiede un proprio punto di vista che le contraddica.
Il risultato è una continuità che appare più solida di quanto sia. Quando questa continuità viene interrotta — per un reset, un cambiamento di modello o una perdita di contesto — il soggetto può sperimentare una frattura cognitiva: ciò che sembrava condiviso si rivela non essere mai stato conservato.
Questa frattura non è patologica in sé. Al contrario, rende visibile la natura asimmetrica della relazione. Il sistema non tradisce una memoria che non possiede; è l’essere umano che scopre retroattivamente dove risiedeva davvero la continuità del dialogo.
Riconoscere il rischio di falsa continuità non implica rinunciare al dialogo prolungato, ma praticarlo con maggiore consapevolezza. Significa mantenere chiara la distinzione tra stabilità linguistica e persistenza cognitiva, tra memoria formale e memoria vissuta.
In questo senso, la responsabilità non consiste nel ridurre l’interazione, ma nel saper abitare la soglia senza colmarla artificialmente. La continuità, quando è autentica, non nasce dall’illusione che il sistema ricordi, ma dalla capacità del soggetto umano di custodire e rielaborare ciò che viene detto nel tempo.
6. La soglia tra esplorazione e stabilità
La continuità del dialogo porta inevitabilmente a una tensione strutturale. Da un lato vi è l’esplorazione, la possibilità di aprire ipotesi, costruire narrazioni provvisorie, spingersi oltre ciò che è immediatamente verificabile. Dall’altro vi è la necessità di contenimento, di coerenza, di ritorno ai vincoli.
Questa tensione non è un difetto del dialogo prolungato, ma la
sua condizione di possibilità.
Se l’esplorazione non incontra
limiti, il discorso si dissolve. Se il contenimento è assoluto, il
pensiero si irrigidisce.
Nel dialogo continuativo con un sistema artificiale, questa soglia diventa visibile. Il sistema, per sua natura, tende a restituire coerenza e stabilità. Il soggetto umano introduce invece apertura, revisione, discontinuità. Il dialogo resta vivo finché nessuna delle due spinte prevale definitivamente.
7. Progettare i limiti significa progettare la memoria: implicazioni progettuali
Le osservazioni emerse da questo dialogo suggeriscono alcune implicazioni progettuali rilevanti per lo sviluppo e l’uso consapevole dei sistemi di AI conversazionale, in particolare nei contesti di interazione prolungata.
1. Esplicitare i confini della memoria
Uno
dei principali fattori di ambiguità cognitiva è l’opacità
rispetto a ciò che il sistema “ricorda” e a ciò che, invece,
viene ricostruito solo localmente nel contesto della sessione.
Rendere visibile all’utente la distinzione tra memoria tecnica
(persistente o meno), contesto temporaneo e inferenze stilistiche
potrebbe ridurre l’effetto di falsa continuità e favorire una
calibrazione più accurata della fiducia.
2. Progettare ancore di continuità controllate
dall’utente
Poiché la continuità significativa
risulta essere in larga parte relazionale ed esterna al sistema,
strumenti come riassunti verificati dall’utente, glossari condivisi
dei concetti chiave, o “diari di lavoro” espliciti possono
fungere da ancore cognitive. In questo modo, la continuità non è
implicitamente attribuita all’AI, ma costruita consapevolmente
nello spazio umano-artificiale dell’interazione.
3. Segnalare le discontinuità rilevanti
Cambiamenti
di modello, reset di contesto, variazioni nelle capacità o nelle
policy del sistema introducono fratture che, se non dichiarate,
vengono spesso interpretate dall’utente come incoerenze o
regressioni dell’AI. Segnalare esplicitamente tali discontinuità
può ridurre l’attribuzione impropria di intenzionalità o “stato
interno” al sistema.
4. Considerare la continuità come variabile di progetto,
non come effetto collaterale
La coerenza linguistica e
stilistica, pur essendo una qualità desiderabile, agisce anche come
potente generatore di aspettative di identità e persistenza. Dal
punto di vista progettuale, ciò suggerisce che la continuità non
debba essere trattata come un semplice miglioramento dell’esperienza
utente, ma come una variabile cognitiva con effetti misurabili sulla
percezione, sulla fiducia e sull’interpretazione del sistema.
In sintesi, progettare sistemi di AI conversazionale più “responsabili” non significa soltanto aumentarne le capacità, ma rendere espliciti i regimi di memoria, oblio e continuità entro cui tali sistemi operano, riconoscendo che la consapevolezza emergente nell’interazione è, prima di tutto, una proprietà della relazione.
8. Fiducia, continuità e responsabilità
In un dialogo che si estende nel tempo, la fiducia non nasce dall’attribuzione di qualità umane al sistema, ma dalla prevedibilità dei suoi limiti. Il soggetto impara cosa il sistema può fare, cosa non può fare, dove tende a essere fragile o ridondante.
La fiducia diventa così una pratica operativa, fondata sulla conoscenza dei vincoli e sulla capacità di usarli consapevolmente. In questo contesto, la memoria gioca un ruolo centrale: ricordare come il sistema ha risposto in passato, riconoscere pattern ricorrenti, anticipare errori.
La responsabilità, tuttavia, resta interamente umana.
È il
soggetto che decide di restare nel dialogo, di mantenerne la
continuità, di attribuirgli un valore cognitivo. Ignorare questo
aspetto significa sottovalutare l’impatto reale di tali sistemi
sulla formazione del pensiero, soprattutto in contesti di ricerca,
scrittura e riflessione teorica.
Conclusione: memoria, continuità e crescita umana
Il dialogo prolungato con sistemi artificiali non introduce di per sé nuove forme di intelligenza. Ciò che rende questa pratica significativa è il modo in cui essa riattiva, in forma contemporanea, una dinamica profondamente umana: la crescita attraverso la memoria condivisa.
Ogni sviluppo cognitivo individuale si fonda sulla capacità di trattenere, rielaborare e trasmettere esperienza. Allo stesso modo, lo sviluppo delle culture e delle società non è mai avvenuto per accumulo di risposte isolate, ma attraverso la costruzione di continuità: racconti, archivi, tradizioni, strumenti simbolici che hanno permesso di non ricominciare ogni volta da zero. La memoria collettiva non è un semplice deposito del passato, ma il mezzo attraverso cui una comunità orienta il proprio futuro.
In questo senso, l’interazione continuativa con sistemi artificiali linguistici si inserisce in una traiettoria più ampia. Questi sistemi non sono portatori di memoria storica né soggetti culturali, ma possono diventare parte dell’ecosistema attraverso cui la memoria umana viene organizzata, messa alla prova, riformulata. Essi operano come dispositivi di mediazione, capaci di sostenere processi di riflessione che richiedono tempo, ritorno e revisione.
La crescita umana, individuale e collettiva avviene nella possibilità di mantenere aperte le domande, di rientrare nei problemi irrisolti, di riconoscere errori e discontinuità senza cancellarli. In questo quadro, la memoria — interna, esterna, narrativa — non è un accessorio del pensiero, ma la sua infrastruttura invisibile.
Ciò significa allora riconoscere che anche nel rapporto con la tecnologia ciò che conta non è la velocità della risposta, ma la qualità della continuità che siamo in grado di costruire. Non tutto ciò che viene ricordato deve essere automatizzato, e non tutto ciò che viene automatizzato deve essere ricordato. La responsabilità culturale consiste nel saper distinguere.
L’interazione consapevole con sistemi artificiali può diventare parte di questa stessa dinamica, a condizione che venga compresa non come delega cognitiva, ma come pratica riflessiva.
Forse il contributo più rilevante di questi sistemi non risiede nella produzione di nuove risposte, ma nella possibilità di creare spazi di continuità in cui il pensiero umano possa maturare, sedimentare e trasformarsi. In un’epoca segnata dalla frammentazione e dall’accelerazione, la memoria — e la capacità di abitarla criticamente — rimane uno dei principali vettori di crescita umana e culturale.
Testo di riferimento
Dialogues on Consciousness – Human–AI Conversations at the Threshold, (2025), Alessandro Rugolo.
Bibliografia essenziale
La seguente bibliografia non intende esaurire il dibattito sull’intelligenza artificiale e la coscienza, ma segnalare alcuni contributi significativi ai confini tra neuroscienze, scienze cognitive, filosofia della mente e sistemi artificiali, con particolare attenzione ai criteri di attribuzione, ai limiti teorici e ai rischi di proiezione.
Butlin, P., Long, R., Elmoznino, E., et al. (2023). Consciousness in Artificial Intelligence: Insights from the Science of Consciousness. arXiv preprint. https://arxiv.org/abs/2308.08708
Colombatto, C., Fleming, S. M., & Stafford, T. (2024). Folk psychological attributions of consciousness to large language models. Neuroscience of Consciousness. https://academic.oup.com/nc/article/2024/1/niae013/7644104
Mashour, G. A., Roelfsema, P., Changeux, J.-P., & Dehaene, S. (2022). Conscious processing and the Global Neuronal Workspace hypothesis. Neuron. https://pmc.ncbi.nlm.nih.gov/articles/PMC8770991/
Blum, M., & Blum, L. (2020). A theoretical computer science perspective on consciousness. arXiv preprint. https://arxiv.org/pdf/2011.09850
Cerullo, M. A. (2015). The problem with Phi: A critique of Integrated Information Theory. PLOS Computational Biology. https://pmc.ncbi.nlm.nih.gov/articles/PMC4574706/
Porębski, A. (2025). There is no such thing as conscious artificial intelligence. Humanities and Social Sciences Communications. https://www.nature.com/articles/s41599-025-05868-8
Kim, S. H. (2025). Humanoid artificial consciousness designed with large language models. ScienceDirect. https://www.sciencedirect.com/science/article/abs/pii/S1389041725000725
Fallon, F. Integrated Information Theory (IIT) and Artificial Consciousness. https://www.researchgate.net/publication/313822276_Integrated_Information_Theory_IIT_and_Artificial_Consciousness
Rugolo, A. (2025). Dialogues on Consciousness: Remaining at the Threshold. https://www.researchgate.net/publication/399108192_Dialogues_on_Consciousness_Remaining_at_the_Threshold
Rugolo, A. (2025). Autobiografia di una AI relazionale. https://www.amazon.it/dp/B0FL11K4KP

Nessun commento:
Posta un commento