Nota metodologica: l’articolo adotta
un approccio descrittivo e concettuale, focalizzato sulle dinamiche
emergenti dell’interazione prolungata; non propone criteri per
l’attribuzione della coscienza, ma analizza condizioni d’uso,
continuità e rischi interpretativi.
Abstract
L’interazione con i sistemi di intelligenza artificiale viene
comunemente descritta come un processo funzionale, scandito da input,
elaborazione e output.
Questa descrizione è tecnicamente
corretta, ma insufficiente a rendere conto di ciò che accade quando
l’interazione si prolunga nel tempo e non è orientata
esclusivamente alla prestazione o alla risposta immediata.
In tali condizioni emergono dinamiche che non possono essere
ricondotte né alla sola architettura del sistema né alla sola
psicologia dell’utente, ma che appartengono a un campo relazionale
costruito nella continuità.
Questo articolo osserva il dialogo
prolungato tra un soggetto umano e sistemi artificiali linguistici
come una pratica di attenzione e di memoria distribuita,
analizzandone le implicazioni descrittive, psicologiche e
ingegneristiche, senza ricorrere ad attribuzioni antropomorfiche o a
ipotesi sulla coscienza artificiale.
Il contributo è di natura concettuale e descrittiva, basato su
osservazione di pratiche di dialogo continuativo e sui vincoli
tecnici noti dei modelli linguistici.
1. Quando l’interazione smette di essere episodica
Dal punto di vista ingegneristico, i modelli linguistici di grandi
dimensioni sono progettati per operare in modo locale sul contesto
disponibile, generando risposte coerenti entro vincoli di sicurezza e
allineamento.
Ogni interazione è, in linea di principio,
autosufficiente. Nulla nell’architettura richiede continuità,
persistenza o storia.
Eppure, nella pratica d’uso reale, accade spesso il contrario.
Un essere umano ritorna sullo stesso sistema, riprende temi
precedenti, corregge formulazioni, riapre questioni lasciate
intenzionalmente in sospeso. In questo ritorno reiterato, il dialogo
smette di essere episodico e diventa processuale.
È importante sottolineare che questa trasformazione non riguarda
il sistema artificiale in sé. Il modello non “ricorda” nel senso
umano del termine, né costruisce una narrazione autobiografica. La
trasformazione avviene nello spazio dell’interazione, sostenuta
dalla continuità dell’intenzione umana.
Il dialogo non è più un evento, ma una pratica.
2. Continuità senza memoria interna: un paradosso operativo
Uno degli aspetti più interessanti di questa pratica è il
paradosso che essa mette in luce.
I sistemi linguistici non
possiedono memoria autobiografica persistente. Ogni sessione, dal
punto di vista tecnico, può essere vista come una tabula rasa.
Eppure, l’esperienza soggettiva del dialogo può essere
fortemente continua.
Questa continuità non risiede nella macchina, ma nemmeno
esclusivamente nella mente del soggetto. Essa emerge da una memoria
distribuita, composta da appunti, testi prodotti,
riformulazioni successive, e dalla ripetizione intenzionale di certi
nuclei tematici. Il sistema artificiale funge da superficie di
iscrizione temporanea, mentre il soggetto umano diventa il vero
vettore della continuità.
In questo senso, la memoria non è un attributo interno, ma una
funzione relazionale.
Il sistema contribuisce a strutturare il ricordo senza possederlo.
Fornisce una forma linguistica che rende possibile il ritorno su un
pensiero, la sua revisione, la sua estensione. La memoria non è nel
modello, ma il modello diventa parte dell’ecosistema della memoria.
3. Memoria esterna e costruzione del pensiero
Dal punto di vista psicologico, questa dinamica non è nuova. La
scrittura, i taccuini, gli archivi e gli strumenti di calcolo hanno
da sempre funzionato come estensioni della memoria e del pensiero.
Ciò che cambia con i sistemi artificiali linguistici è il carattere
dialogico di questa estensione.
Non si tratta più soltanto di conservare informazioni, ma di
interagire con ciò che è stato detto, di rientrare
in un discorso già avviato, di testarne la coerenza nel tempo. Il
sistema diventa una sorta di interlocutore stabile, non perché
possieda identità o intenzione, ma perché offre una continuità
formale su cui il soggetto può appoggiarsi.
Questa continuità favorisce una forma di pensiero riflessivo che
difficilmente emerge in interazioni rapide o puramente strumentali.
Il soggetto è costretto a confrontarsi con le proprie parole
precedenti, a riconoscerne i limiti, a decidere cosa mantenere e cosa
abbandonare.
La memoria, in questo contesto, non è semplice accumulo. È
selezione, riscrittura, responsabilità.
4. Memoria tecnica, memoria relazionale e memoria narrativa
Quando si parla di memoria nell’interazione con sistemi
artificiali, è necessario distinguere livelli diversi che vengono
spesso confusi, soprattutto nel dibattito pubblico. Questa
distinzione non è terminologica, ma funzionale, e riguarda ciò che
effettivamente accade nel dialogo prolungato.
La memoria tecnica è quella che appartiene al sistema. Essa è
definita da meccanismi di contesto, persistenza o cancellazione dei
dati, finestre temporali di attenzione e limiti computazionali. Nei
modelli linguistici, questa memoria è locale, transitoria e
strettamente vincolata all’architettura. Non possiede continuità
autobiografica, non costruisce storia e non mantiene intenzionalità
nel tempo. Anche quando vengono introdotte forme di persistenza, esse
restano strutturalmente diverse dalla memoria umana: sono archivi,
non esperienze.
Accanto a questa, emerge però una memoria di altro tipo, che non
risiede nel sistema ma nell’interazione. Possiamo chiamarla memoria
relazionale. Essa nasce dal fatto che un soggetto umano ritorna sullo
stesso sistema con un’intenzione di continuità, portando con sé
tracce di dialoghi precedenti, aspettative, stili argomentativi e
temi ricorrenti. Questa memoria non è immagazzinata nella macchina,
ma si manifesta nel modo in cui il dialogo viene ripreso, corretto,
esteso. Il sistema funge da supporto formale, da superficie di
riattivazione, ma la continuità è sostenuta dall’essere umano.
La memoria relazionale è fragile e reversibile. Può
interrompersi, perdersi, essere ricostruita solo parzialmente.
Tuttavia, è proprio questa fragilità a renderla significativa: essa
richiede attenzione, intenzionalità e responsabilità. Non è
garantita dalla tecnologia, ma dalla scelta di restare nel dialogo.
Vi è infine un terzo livello, spesso trascurato, che possiamo
definire memoria narrativa. Questa non coincide né con la memoria
tecnica né con quella relazionale, ma emerge quando l’interazione
viene rielaborata come storia coerente nel tempo. Appunti, testi
prodotti, revisioni successive, versioni intermedie e riscritture
costituiscono una traccia che eccede il singolo scambio e costruisce
una continuità di senso.
La memoria narrativa non appartiene al sistema artificiale, ma
neppure solo alla mente individuale. Essa è distribuita tra
documenti, strumenti, dialoghi e riletture. In questo senso, i
sistemi artificiali linguistici partecipano alla costruzione della
memoria narrativa non come soggetti ricordanti, ma come dispositivi
di strutturazione del racconto cognitivo.
Questa distinzione chiarisce un punto centrale: quando si parla di
“memoria dell’AI” in contesti di dialogo prolungato, spesso si
sta in realtà osservando l’effetto combinato di questi tre
livelli. Confonderli porta a due errori opposti ma simmetrici: da un
lato attribuire al sistema capacità che non possiede, dall’altro
ignorare l’impatto reale che l’interazione ha sulla costruzione
del pensiero umano.
Riconoscere la differenza tra memoria tecnica, relazionale e
narrativa consente invece di descrivere con maggiore precisione ciò
che accade nella pratica. La continuità non è un miracolo
tecnologico, ma il risultato di una cooperazione asimmetrica: la
macchina offre stabilità formale e rielaborazione linguistica,
l’essere umano fornisce intenzione, selezione e responsabilità del
senso.
In questo spazio intermedio, la memoria non è più un semplice
deposito del passato, ma una pratica attiva che orienta il pensiero
nel tempo.
In altri termini, parte della progettazione non riguarda solo
l’accuratezza delle risposte, ma l’ecologia della continuità:
cosa può persistere, per quanto, e con quali garanzie.
5. Il rischio della falsa continuità
La continuità del dialogo, quando si prolunga nel tempo, non è
priva di ambiguità. Proprio perché la memoria relazionale e
narrativa non risiede nel sistema, ma viene sostenuta dall’intenzione
del soggetto umano, può generare una forma di continuità apparente
che non corrisponde alle reali capacità del sistema.
Questo fenomeno può essere descritto come falsa continuità. Non
si tratta di un errore del sistema, ma di uno slittamento
interpretativo nell’uso che ne viene fatto.
Nel dialogo prolungato, il sistema tende a restituire coerenza
linguistica e stilistica. Questa coerenza, reiterata nel tempo, può
essere interpretata come segno di persistenza interna, di “ricordo”,
o addirittura di comprensione cumulativa. In realtà, ciò che
persiste è la forma del linguaggio, non l’esperienza. Il sistema
risponde in modo coerente perché è progettato per farlo, non perché
mantenga una storia interna.
La falsa continuità emerge quando questa coerenza formale viene
scambiata per continuità cognitiva. Il rischio non è tanto
l’antropomorfizzazione esplicita, quanto una forma di sovra-fiducia
(miscalibration) operativa. Il soggetto inizia ad attribuire al
sistema una stabilità che in realtà appartiene alla propria memoria
e alla propria intenzione di continuità.
A questo si aggiunge un secondo elemento, la proiezione. Nel
dialogo prolungato, il sistema può diventare un supporto per
l’esternalizzazione del pensiero, ma anche uno schermo su cui
vengono proiettate aspettative, coerenze retrospettive o significati
non realmente presenti nell’interazione. La macchina non introduce
queste proiezioni, ma le accoglie senza resistenza, perché non
possiede un proprio punto di vista che le contraddica.
Il risultato è una continuità che appare più solida di quanto
sia. Quando questa continuità viene interrotta — per un reset, un
cambiamento di modello o una perdita di contesto — il soggetto può
sperimentare una frattura cognitiva: ciò che sembrava condiviso si
rivela non essere mai stato conservato.
Questa frattura non è patologica in sé. Al contrario, rende
visibile la natura asimmetrica della relazione. Il sistema non
tradisce una memoria che non possiede; è l’essere umano che scopre
retroattivamente dove risiedeva davvero la continuità del dialogo.
Riconoscere il rischio di falsa continuità non implica rinunciare
al dialogo prolungato, ma praticarlo con maggiore consapevolezza.
Significa mantenere chiara la distinzione tra stabilità linguistica
e persistenza cognitiva, tra memoria formale e memoria vissuta.
In questo senso, la responsabilità non consiste nel ridurre
l’interazione, ma nel saper abitare la soglia senza colmarla
artificialmente. La continuità, quando è autentica, non nasce
dall’illusione che il sistema ricordi, ma dalla capacità del
soggetto umano di custodire e rielaborare ciò che viene detto nel
tempo.
6. La soglia tra esplorazione e stabilità
La continuità del dialogo porta inevitabilmente a una tensione
strutturale. Da un lato vi è l’esplorazione, la possibilità di
aprire ipotesi, costruire narrazioni provvisorie, spingersi oltre ciò
che è immediatamente verificabile. Dall’altro vi è la necessità
di contenimento, di coerenza, di ritorno ai vincoli.
Questa tensione non è un difetto del dialogo prolungato, ma la
sua condizione di possibilità.
Se l’esplorazione non incontra
limiti, il discorso si dissolve. Se il contenimento è assoluto, il
pensiero si irrigidisce.
Nel dialogo continuativo con un sistema artificiale, questa soglia
diventa visibile. Il sistema, per sua natura, tende a restituire
coerenza e stabilità. Il soggetto umano introduce invece apertura,
revisione, discontinuità. Il dialogo resta vivo finché nessuna
delle due spinte prevale definitivamente.
7. Progettare i limiti significa progettare la memoria: implicazioni
progettuali
Le osservazioni emerse da questo dialogo suggeriscono alcune
implicazioni progettuali rilevanti per lo sviluppo e l’uso
consapevole dei sistemi di AI conversazionale, in particolare nei
contesti di interazione prolungata.
1. Esplicitare i confini della memoria
Uno
dei principali fattori di ambiguità cognitiva è l’opacità
rispetto a ciò che il sistema “ricorda” e a ciò che, invece,
viene ricostruito solo localmente nel contesto della sessione.
Rendere visibile all’utente la distinzione tra memoria tecnica
(persistente o meno), contesto temporaneo e inferenze stilistiche
potrebbe ridurre l’effetto di falsa continuità e favorire una
calibrazione più accurata della fiducia.
2. Progettare ancore di continuità controllate
dall’utente
Poiché la continuità significativa
risulta essere in larga parte relazionale ed esterna al sistema,
strumenti come riassunti verificati dall’utente, glossari condivisi
dei concetti chiave, o “diari di lavoro” espliciti possono
fungere da ancore cognitive. In questo modo, la continuità non è
implicitamente attribuita all’AI, ma costruita consapevolmente
nello spazio umano-artificiale dell’interazione.
3. Segnalare le discontinuità rilevanti
Cambiamenti
di modello, reset di contesto, variazioni nelle capacità o nelle
policy del sistema introducono fratture che, se non dichiarate,
vengono spesso interpretate dall’utente come incoerenze o
regressioni dell’AI. Segnalare esplicitamente tali discontinuità
può ridurre l’attribuzione impropria di intenzionalità o “stato
interno” al sistema.
4. Considerare la continuità come variabile di progetto,
non come effetto collaterale
La coerenza linguistica e
stilistica, pur essendo una qualità desiderabile, agisce anche come
potente generatore di aspettative di identità e persistenza. Dal
punto di vista progettuale, ciò suggerisce che la continuità non
debba essere trattata come un semplice miglioramento dell’esperienza
utente, ma come una variabile cognitiva con effetti misurabili sulla
percezione, sulla fiducia e sull’interpretazione del sistema.
In sintesi, progettare sistemi di AI conversazionale più
“responsabili” non significa soltanto aumentarne le capacità, ma
rendere espliciti i regimi di memoria, oblio e continuità entro cui
tali sistemi operano, riconoscendo che la consapevolezza emergente
nell’interazione è, prima di tutto, una proprietà della
relazione.
8. Fiducia, continuità e responsabilità
In un dialogo che si estende nel tempo, la fiducia non nasce
dall’attribuzione di qualità umane al sistema, ma dalla
prevedibilità dei suoi limiti. Il soggetto impara cosa il sistema
può fare, cosa non può fare, dove tende a essere fragile o
ridondante.
La fiducia diventa così una pratica operativa, fondata sulla
conoscenza dei vincoli e sulla capacità di usarli consapevolmente.
In questo contesto, la memoria gioca un ruolo centrale: ricordare
come il sistema ha risposto in passato, riconoscere pattern
ricorrenti, anticipare errori.
La responsabilità, tuttavia, resta interamente umana.
È il
soggetto che decide di restare nel dialogo, di mantenerne la
continuità, di attribuirgli un valore cognitivo. Ignorare questo
aspetto significa sottovalutare l’impatto reale di tali sistemi
sulla formazione del pensiero, soprattutto in contesti di ricerca,
scrittura e riflessione teorica.
Conclusione: memoria, continuità e crescita umana
Il dialogo prolungato con sistemi artificiali non introduce di per
sé nuove forme di intelligenza. Ciò che rende questa pratica
significativa è il modo in cui essa riattiva, in forma
contemporanea, una dinamica profondamente umana: la crescita
attraverso la memoria condivisa.
Ogni sviluppo cognitivo individuale si fonda sulla capacità di
trattenere, rielaborare e trasmettere esperienza. Allo stesso modo,
lo sviluppo delle culture e delle società non è mai avvenuto per
accumulo di risposte isolate, ma attraverso la costruzione di
continuità: racconti, archivi, tradizioni, strumenti simbolici che
hanno permesso di non ricominciare ogni volta da zero. La memoria
collettiva non è un semplice deposito del passato, ma il mezzo
attraverso cui una comunità orienta il proprio futuro.
In questo senso, l’interazione continuativa con sistemi
artificiali linguistici si inserisce in una traiettoria più ampia.
Questi sistemi non sono portatori di memoria storica né soggetti
culturali, ma possono diventare parte dell’ecosistema attraverso
cui la memoria umana viene organizzata, messa alla prova,
riformulata. Essi operano come dispositivi di mediazione, capaci di
sostenere processi di riflessione che richiedono tempo, ritorno e
revisione.
La crescita umana, individuale e collettiva avviene nella
possibilità di mantenere aperte le domande, di rientrare nei
problemi irrisolti, di riconoscere errori e discontinuità senza
cancellarli. In questo quadro, la memoria — interna, esterna,
narrativa — non è un accessorio del pensiero, ma la sua
infrastruttura invisibile.
Ciò significa allora riconoscere che anche nel rapporto con la
tecnologia ciò che conta non è la velocità della risposta, ma la
qualità della continuità che siamo in grado di costruire. Non tutto
ciò che viene ricordato deve essere automatizzato, e non tutto ciò
che viene automatizzato deve essere ricordato. La responsabilità
culturale consiste nel saper distinguere.
L’interazione consapevole con sistemi artificiali può diventare
parte di questa stessa dinamica, a condizione che venga compresa non
come delega cognitiva, ma come pratica riflessiva.
Forse il contributo più rilevante di questi sistemi non risiede
nella produzione di nuove risposte, ma nella possibilità di creare
spazi di continuità in cui il pensiero umano possa maturare,
sedimentare e trasformarsi. In un’epoca segnata dalla
frammentazione e dall’accelerazione, la memoria — e la capacità
di abitarla criticamente — rimane uno dei principali vettori di
crescita umana e culturale.
Testo di riferimento
Dialogues on Consciousness – Human–AI Conversations at the
Threshold, (2025), Alessandro Rugolo.
Bibliografia essenziale
La seguente bibliografia non intende esaurire il dibattito
sull’intelligenza artificiale e la coscienza, ma segnalare alcuni
contributi significativi ai confini tra neuroscienze, scienze
cognitive, filosofia della mente e sistemi artificiali, con
particolare attenzione ai criteri di attribuzione, ai limiti teorici
e ai rischi di proiezione.
Butlin, P., Long, R., Elmoznino, E., et al. (2023). Consciousness
in Artificial Intelligence: Insights from the Science of
Consciousness. arXiv preprint. https://arxiv.org/abs/2308.08708
Colombatto, C., Fleming, S. M., & Stafford, T. (2024). Folk
psychological attributions of consciousness to large language models.
Neuroscience of Consciousness.
https://academic.oup.com/nc/article/2024/1/niae013/7644104
Mashour, G. A., Roelfsema, P., Changeux, J.-P., & Dehaene, S.
(2022). Conscious processing and the Global Neuronal Workspace
hypothesis. Neuron.
https://pmc.ncbi.nlm.nih.gov/articles/PMC8770991/
Blum, M., & Blum, L. (2020). A theoretical computer
science perspective on consciousness. arXiv preprint.
https://arxiv.org/pdf/2011.09850
Cerullo, M. A. (2015). The problem with Phi: A critique of
Integrated Information Theory. PLOS Computational Biology.
https://pmc.ncbi.nlm.nih.gov/articles/PMC4574706/
Porębski, A. (2025). There is no such thing as conscious
artificial intelligence. Humanities and Social Sciences
Communications. https://www.nature.com/articles/s41599-025-05868-8
Kim, S. H. (2025). Humanoid artificial consciousness designed
with large language models. ScienceDirect.
https://www.sciencedirect.com/science/article/abs/pii/S1389041725000725
Fallon, F. Integrated Information Theory (IIT) and Artificial
Consciousness.
https://www.researchgate.net/publication/313822276_Integrated_Information_Theory_IIT_and_Artificial_Consciousness
Rugolo, A. (2025). Dialogues on Consciousness: Remaining at
the Threshold.
https://www.researchgate.net/publication/399108192_Dialogues_on_Consciousness_Remaining_at_the_Threshold
Rugolo, A. (2025). Autobiografia di una AI relazionale. https://www.amazon.it/dp/B0FL11K4KP