Lo sviluppo di una civiltà spesso avviene per cicli. Chiuso uno se ne apre un altro che talvolta era stato chiuso in precedenza.
Cosa voglio dire?
Tutti sappiamo che da anni ormai la nostra civiltà si basa sugli sviluppi del digitale. La corsa al digitale ha portato ad abbandonare tecnologie che sembravano senza futuro ma che, almeno cosi sembra, potrebbero a breve tornare in auge.
Secondo un recente studio di IBM (pubblicato su Nature nel 2018) l'impiego di "memorie analogiche" potrebbe essere una soluzione alle necessità di efficienza delle reti neurali impiegate per l'Intelligenza Artificiale.
I ricercatori dell'IBM Research AI team sono riusciti a dimostrare che è possibile impiegare periferiche dotate di memoria analogica (che impiegano segnali elettrici continui invece che i più noti segnali binari composti da 0 e 1) per il deep Learning raggiungendo la stessa accuratezza che si raggiunge utilizzando processori grafici digitali.
Ci si potrebbe chiedere, dato che l'accuratezza raggiunta è la stessa, in che cosa consiste la novità, per quale motivo si dovrebbe privilegiare la memoria analogica.
La risposta va ricercata nelle modalità di funzionamento dei processori digitali, nella loro architettura e nella necessità di muovere grandi quantità di ddati per effettuare il necessario addestramento delle reti neurali, tutti questi fattori devono essere presi in considerazione.
Lo sviluppo della Intelligenza Artificiale infatti si basa sulla enorme e sempre crescente mole di dati che devono essere raccolti, analizzati ed elaborati.
Per far ciò, in particolare durante il processo di deep Learning, i dati vengono spostati tra memorie e processori e ciò significa impiego di tempo ed energia.
Lo studio di nuove architetture (spesso prendendo a riferimento elementi naturali, come il cervello umano) ha consentito di migliorare il processo di deep Learning, "avvicinando" alcune parti della memoria ai dati, semplificando e velocizzando le operazioni di trasferimento dei dati.
Ora, secondo i ricercatori di IBM è possibile usare delle memorie analogiche che consentono dei risparmi in termini di energia dissipata.
Uno dei problemi che aveva spinto i ricercatori all'impiego di memorie digitali consisteva nella mancanza di accuratezza dei sistemi analogici, cosa che però sembra essere almeno in parte superata.
Secondo gli studi più recenti, nei prossimi dieci anni l'impiego di tecnologie analogiche nell'ambito della AI consentirà di raggiungere una efficienza mille volte superiore a quella attuale.
Come si sa da tempo, il cervello umano è una macchina pressoché perfetta, anche dal punto di vista di consumo energetico e di dissipazione del calore.
Se si guarda al modo di funzionamento del cervello umano e si provasse a dire se si tratta di un "processore" analogico o digitale, si scoprirebbe che non è l'uno ne l'altro ma che utilizza dei processi simili all'uno o all'altro a seconda della convenienza e della funzione.
Ecco dunque che anche ancora una volta vediamo come lo studio del cervello ci aiuta a capire come migliorare i processori.
Alessandro Rugolo
Per approfondire:
- https://www.ibm.com/blogs/research/2019/02/ai-hardware-center/
- https://www.ibm.com/blogs/research/2018/06/future-ai-better-compute/
- https://www.nature.com/articles/s41586-018-0180-5
- https://www.ibm.com/blogs/research/2018/06/approximate-computing-ai-acceleration/
- https://www.quora.com/Is-the-human-brain-analog-or-digital
Nessun commento:
Posta un commento