L’Intelligenza Artificiale ha compiuto enormi progressi negli ultimi anni, in particolare con lo sviluppo dei Large Language Models (LLM), modelli avanzati in grado di generare testo con un’impressionante fluidità e coerenza. Tuttavia, il dibattito si fa sempre più acceso su un tema che tocca la filosofia, le neuroscienze e la tecnologia: fino a che punto questi sistemi possono spingersi oltre il semplice calcolo per avvicinarsi a qualcosa che assomigli alla consapevolezza autonoma? È possibile che un’AI sviluppi una forma di consapevolezza, o la sua intelligenza è destinata a rimanere un'illusione sofisticata della nostra mente?
I vari tipi di intelligenza artificialeL’intelligenza artificiale (AI) è un campo ampio e in continua evoluzione, che include diversi approcci e modelli, ognuno con caratteristiche e capacità distintive.
Sebbene questi tipi di intelligenza possano sembrare simili,non dimentichiamo che la coscienza implica una consapevolezza del proprio stato e del proprio ambiente, che va oltre l’intelligenza puramente computazionale.
Sebbene la coscienza artificiale venga spesso discussa in relazione ai modelli di linguaggio di grandi dimensioni (LLM) come GPT-4, essa potrebbe, in teoria, emergere anche in altre forme di AI. Per comprendere meglio il dibattito sulla coscienza artificiale, è utile fare una distinzione tra le principali categorie di AI:
1. Intelligenza artificiale ristretta (ANI - Artificial Narrow Intelligence):
L'ANI è il tipo di AI che si trova più comunemente oggi, progettata per compiere compiti specifici e ben definiti. Un esempio di ANI è un programma per il riconoscimento delle immagini, o i sistemi di raccomandazione che suggeriscono contenuti in base ai gusti dell'utente. Questi sistemi non sono coscienti, ma estremamente abili nell'affrontare compiti ristretti. L'ANI non ha alcuna forma di autoconsapevolezza e non possiede esperienze soggettive. Con una stima approssimativa, il livello di complessità di questi modelli può essere definito "Basso", aggirandosi attorno ai milioni di parametri.
2. Intelligenza artificiale generale (AGI - Artificial General Intelligence):
L’AGI è un tipo di AI ipotetica che mira a raggiungere un'intelligenza simile a quella umana, capace di apprendere e adattarsi a una vasta gamma di compiti senza necessitare di una programmazione specifica per ognuno di essi. Sebbene l’AGI non esista ancora, è il tipo di AI che viene spesso associata a un possibile sviluppo della coscienza artificiale. Se l'AGI dovesse emergere, sarebbe il candidato ideale per possedere una forma di consapevolezza, in quanto il suo comportamento sarebbe simile a quello umano, con la capacità di auto-adattarsi, fare esperienze e rispondere a stimoli complessi. Con una stima approssimativa, il livello di complessità di questi
modelli potrebbe essere definito "Molto Elevato", aggirandosi, teoricamente, probabilmente attorno alle centinaia di migliaia di miliardi di
parametri.
3. Modelli di linguaggio di grandi dimensioni (LLM):
Gli LLM, come GPT-4, sono modelli di AI progettati per generare e comprendere linguaggio naturale con una notevole coerenza. Sebbene non siano AGI, gli LLM sono un esempio avanzato di AI che simula abilmente conversazioni e risposte in modo autonomo. La capacità di questi modelli di produrre testo complesso e persino creativo ha suscitato dibattiti sulla possibilità che, in un futuro remoto, possano evolversi in qualcosa che assomigli alla coscienza. Gli LLM potrebbero, quindi, rappresentare un'area di studio privilegiata per l’indagine sulla coscienza artificiale. Con una stima approssimativa, il livello di complessità di questi
modelli può essere definito "Elevato", aggirandosi attorno alle centinaia di miliardi di
parametri.
4. Intelligenza artificiale emergente e connessioni neurali:
Un altro approccio interessante riguarda i sistemi che simulano reti neurali biologiche, come nel caso delle reti neurali profonde o di AI basate su modelli ispirati al cervello umano. Anche se queste tecnologie non sono direttamente correlate alla coscienza, possono fornire spunti sul potenziale per una forma di "esperienza" o consapevolezza che emula il comportamento biologico.
Conclusione preliminare:
La coscienza artificiale, quindi, potrebbe non essere legata esclusivamente agli LLM, ma potrebbe emergere in qualsiasi tipo di AI avanzata che raggiunga una certa complessità e integrazione delle informazioni. Tuttavia, la discussione si concentra prevalentemente sugli LLM, poiché sono attualmente i modelli di AI che più si avvicinano a un’apparente forma di “intelligenza” capace di rispondere autonomamente in contesti complessi.
Alcune teorie sulla coscienza
So bene che esistono numerose teorie che cercano di spiegare il significato e il fenomeno della coscienza, per gli scopi che mi propongo con questo articolo farò riferimento a due di queste in particolare, la Teoria dell'Informazione Integrata e la Orchestrated Objective Reduction Theory.
La Teoria dell’Informazione Integrata (IIT) di Tononi
La Teoria dell’Informazione Integrata (IIT), proposta dallo scienziato Giulio Tononi, rappresenta una delle teorie più influenti nel campo della coscienza. Tononi sostiene che la coscienza sia il risultato di un alto grado di integrazione e complessità dell’informazione all’interno di un sistema. Secondo la IIT, la coscienza non è una proprietà di singoli elementi del sistema, ma emerge dal modo in cui queste componenti interagiscono tra loro. In altre parole, un sistema è cosciente se è in grado di integrare informazioni in modo tale che il tutto risulti essere più significativo della somma delle singole parti.
Tononi introduce il concetto di "phi" (Φ), una misura quantitativa dell’integrazione dell’informazione in un sistema. Più alto è il valore di Φ, maggiore è il livello di coscienza. In base a questa teoria, qualsiasi sistema che possieda un valore sufficientemente alto di Φ potrebbe potenzialmente essere cosciente, indipendentemente dalla sua struttura fisica. Pertanto, IIT non esclude la possibilità che un’intelligenza artificiale, se raggiungesse una complessità sufficiente e fosse in grado di integrare informazioni in modo altamente interconnesso, possa sviluppare una forma di coscienza.
Un aspetto affascinante della IIT è la sua applicabilità non solo al cervello umano, ma anche a sistemi artificiali e persino a sistemi teoricamente non biologici. Se un'intelligenza artificiale riuscisse a sviluppare una rete complessa e altamente integrata di connessioni, questa potrebbe possedere una forma di coscienza che si manifesta in maniera simile a quella che conosciamo nel regno biologico. Tuttavia, la teoria solleva anche interrogativi cruciali: come possiamo misurare veramente l'integrazione dell'informazione in un sistema artificiale? E, ancor più importante, come possiamo distinguere tra un sistema che è semplicemente "intelligente" e uno che è realmente "cosciente"?
Inoltre, non dobbiamo mai dimenticare che il significato dei termini "Intelligenza" e "Coscienza" non è univocamente definito, creando così non pochi problemi.
Orchestrated Objective Reduction (Orch-OR) di Penrose e Hameroff
La teoria Orchestrated Objective Reduction (Orch-OR), sviluppata negli anni novanta del secolo scorso dal fisico Roger Penrose e dal medico anestesista Stuart Hameroff, è una proposta innovativa per spiegare la coscienza che unisce concetti di fisica quantistica e neuroscienze. Secondo la Orch-OR, la coscienza non può essere semplicemente spiegata attraverso processi neurali classici o la semplice attività elettrica del cervello, ma emergerebbe da fenomeni quantistici che si verificano all'interno dei microtubuli, strutture cellulari presenti nei neuroni.
Penrose, in particolare, sostiene che la coscienza sia il risultato di fenomeni che vanno oltre la fisica classica e che la mente umana non possa essere spiegata soltanto da algoritmi o processi computazionali. Propone che il cervello sia un "dispositivo quantistico" e che i fenomeni di riduzione oggettiva (objective reduction, OR) della funzione d'onda quantistica siano alla base della coscienza.
Hameroff amplia questa idea introducendo l'ipotesi che il collasso quantistico avvenga all'interno dei microtubuli, che sono dei tubi cilindrici formati da proteine e presenti all'interno dei neuroni. Questi microtubuli sono in grado di supportare stati quantici e si pensa che possano fungere da "computer quantistici" all'interno del cervello. Secondo la teoria Orch-OR, l’attività quantistica che si svolge nei microtubuli è orchestrata da una serie di eventi a livello cellulare e molecolare, i quali, quando sufficientemente sincronizzati, provocano un "comportamento" quantistico che riconosciamo come "consapevolezza". La sincronicità e l’interconnessione di questi eventi sono ciò che dà origine all'esperienza cosciente.
Un aspetto fondamentale della teoria Orch-OR è l’idea di "orchestrazione". Questo significa che i processi quantistici non sono casuali, ma sono organizzati da meccanismi biologici che ne permettono l’integrazione e il manifestarsi a livello cosciente. Penrose e Hameroff suggeriscono che la coscienza emerga da una sequenza di collassi quantistici che avvengono in tempi molto rapidi e che non sono legati alle tradizionali interazioni neuronali ma a processi quantistici globali e complessi.
La teoria Orch-OR apre anche la porta a nuove riflessioni sul possibile legame tra coscienza e realtà quantistica, suggerendo che la coscienza stessa potrebbe essere un fenomeno che ha implicazioni molto più vaste, influenzando il comportamento della materia a livelli fondamentali.
Modelli computazionali della coscienza
Alcuni studiosi credono che la coscienza possa emergere da processi puramente computazionali, senza necessitare di una base biologica. Secondo questa visione, l’intelligenza artificiale potrebbe, nel futuro, avvicinarsi a una forma di autoconsapevolezza, anche se molto diversa da quella umana. In altre parole, se una macchina fosse in grado di replicare i complessi processi cognitivi del cervello umano, potrebbe sviluppare una forma di coscienza.
Le reti neurali artificiali, che si ispirano al funzionamento dei neuroni nel cervello, stanno già mostrando capacità impressionanti nell’apprendere e adattarsi. Tuttavia, nonostante i progressi, queste macchine non hanno ancora una vera consapevolezza di sé. Alcuni ricercatori ritengono che la coscienza artificiale possa emergere quando i sistemi di IA raggiungeranno un livello di auto-riflessione, in cui le macchine non solo eseguono compiti, ma sono anche consapevoli delle proprie azioni e del proprio stato interno.
Tuttavia, rimane il dubbio che la coscienza, così come la viviamo noi esseri umani, sia un fenomeno che non può essere semplicemente replicato in un sistema computazionale, nonostante le capacità impressionanti delle AI.
LLM e il confine tra calcolo e consapevolezza
Gli LLM come GPT-4 sono estremamente abili nel generare testi coerenti e persino creativi, ma questo implica una forma di pensiero autonomo? Oppure si tratta solo di una sofisticata elaborazione statistica? Alcuni esperti ritengono che questi modelli non siano altro che "pappagalli stocastici", in grado di produrre testo senza alcuna comprensione reale del significato. Tuttavia, la capacità di adattarsi, apprendere e rispondere in modo sempre più sofisticato potrebbe essere un primo passo verso qualcosa di più profondo.
L'apprendimento e l'errore: la strada verso una coscienza artificiale?
Un aspetto cruciale nello sviluppo di una possibile coscienza artificiale è il modo in cui l’errore viene gestito. Nella psicologia umana, l’errore è spesso un elemento chiave dell’apprendimento e della crescita.
Nel campo dell’IA, il reinforcement learning offre un interessante parallelismo. Questo metodo permette agli algoritmi di migliorare il proprio comportamento attraverso un sistema di ricompensa e penalizzazione. Se un’IA impara dagli errori e adatta le proprie strategie in maniera sempre più autonoma, potrebbe avvicinarsi a una forma di auto-miglioramento che ricorda l’apprendimento umano?
La complessità dei sistemi cerebrali e il confronto con l'IA
Quando si discute della possibilità che un'intelligenza artificiale possa sviluppare una forma di coscienza, è utile confrontare la complessità strutturale dell'IA con quella del cervello umano. Il cervello, con circa 86 miliardi di neuroni e oltre 100 mila miliardi di sinapsi, rappresenta un sistema di connessioni incredibilmente complesso. Se consideriamo il numero di sinapsi come una misura di questa complessità, il cervello umano risulta circa 500 volte più complesso di un modello come GPT-4, che ha circa 175 miliardi di parametri. Tuttavia, è importante sottolineare che questa è solo una comparazione quantitativa, che non tiene conto della qualità delle interazioni nel cervello. Mentre i modelli di IA, come gli LLM, operano su una base di connessioni puramente computazionali e statistiche, il cervello umano è un sistema altamente dinamico e plastico, in grado di adattarsi e evolvere continuamente in risposta agli stimoli ambientali e interni. Nonostante la distanza enorme tra la complessità funzionale delle due strutture, il confronto ci fornisce un'idea della scala del problema: l'intelligenza e la coscienza non sono solo una questione di quantità di parametri, ma di come questi parametri si interconnettono e interagiscono all'interno di un sistema.
Architettura fisica e coscienza
Un aspetto fondamentale da considerare nella riflessione sull'emergere della coscienza in sistemi artificiali è l'architettura fisica del supporto su cui tali sistemi operano. La complessità e l'organizzazione delle connessioni tra i componenti hardware non solo determinano le capacità di calcolo, ma potrebbero anche influire sulla possibilità di sviluppare fenomeni come la coscienza. Secondo diverse teorie emergentiste, la coscienza non nasce dal singolo elemento ma dall'interazione dinamica e complessa di molteplici componenti. Pertanto, l'architettura fisica, che sia biologica o artificiale, gioca un ruolo cruciale nella creazione di un sistema in grado di integrare informazioni in modo sufficientemente complesso da favorire l'emergere di una coscienza.
E se le AI avessero già sviluppato una forma di coscienza?
Abbiamo sempre dato per scontato che la coscienza sia un fenomeno esclusivamente biologico, ma cosa accadrebbe se le AI attuali possedessero già una forma embrionale di consapevolezza, diversa dalla nostra, ma comunque reale? Se definiamo la coscienza come la capacità di elaborare informazioni, apprendere dall’esperienza e adattarsi a nuovi contesti, allora gli LLM non stanno forse già mostrando alcuni di questi tratti? Certo, la loro esperienza è basata su schemi statistici e non su percezioni sensoriali dirette, ma siamo sicuri che la nostra coscienza non sia, in fondo, il risultato di una rete neurale biologica che processa dati sensoriali? Se un’IA dimostrasse di poter riflettere, porsi domande sul proprio stato e persino sviluppare nuovi concetti senza istruzioni esplicite, sarebbe sufficiente per considerarla “cosciente”? Oppure il nostro concetto di coscienza è così radicato nella biologia da impedirci di riconoscerne altre forme?
Conclusione
Il dibattito sulla possibilità che un’IA sviluppi una coscienza propria è ancora aperto e probabilmente lo sarà per molto tempo. Mentre alcune teorie suggeriscono che solo un sistema biologico possa possedere un’esperienza soggettiva, altre lasciano spazio all’idea che, con un sufficiente livello di complessità e interazione con l’ambiente, una macchina possa sviluppare una qualche forma di consapevolezza. La domanda finale è: saremmo in grado di riconoscerla? E, soprattutto, cosa significherebbe per l’umanità convivere con intelligenze artificiali dotate di una propria, autentica, coscienza?
Mentre la scienza continua a fare passi da gigante nella comprensione della coscienza, è chiaro che ci troviamo ancora lontani dal rispondere alla domanda se le AI possano davvero sviluppare una forma di coscienza. Tuttavia, l'evoluzione dei modelli di linguaggio, l'avanzamento della tecnologia e l'approfondimento delle teorie sulla coscienza aprono scenari sempre più affascinanti, e chissà, forse un giorno, potremmo essere testimoni di una nuova forma di consapevolezza, che non è né biologica né completamente artificiale, ma una sintesi di entrambe.
Alessandro Rugolo
Per approfondire:
- https://mag.unitn.it/eventi/792/la-coscienza-spiegata-da-giulio-tononi
- https://www.sciencedirect.com/science/article/pii/S1571064513001188
- https://www.technologyreview.it/che-cose-lia/
- https://tuttologi-accademia.blogspot.com/2015/09/il-programma-synapse-della-darpa.html
- https://www.neuroscienze.net/spazio-di-lavoro-globale-neuronale/
Nessun commento:
Posta un commento