Traduttore automatico - Read this site in another language

sabato 1 marzo 2025

Quantum computing: facciamo il punto.

Il quantum computing è un paradigma di calcolo che sfrutta i principi della meccanica quantistica per elaborare informazioni in modo radicalmente diverso rispetto ai calcolatori classici. Mentre i computer tradizionali utilizzano bit che possono assumere uno dei due stati, 0 o 1, i computer quantistici impiegano qubit, che grazie alla proprietà della sovrapposizione quantistica, possono esistere simultaneamente in più stati. Altra proprietà fondamentale è l'entanglement quantistico, che permette ai qubit di essere correlati in modo tale che lo stato di uno influenzi istantaneamente lo stato dell'altro, anche se separati da distanze enormi.

Queste caratteristiche offrono potenzialità straordinarie per risolvere problemi che sono difficili o impossibili da affrontare con i calcolatori classici, come la simulazione di molecole complesse per la scoperta di farmaci o la decifrazione di algoritmi criptografici.

Il concetto di quantum computing è stato teorizzato per la prima volta nei primi anni '80

Uno dei primi a suggerire che la meccanica quantistica potesse essere applicata al calcolo è stato il fisico Richard Feynman. Nel 1981, Feynman tenne una conferenza in cui sostenne che i computer classici non sarebbero mai stati in grado di simulare in modo efficiente i sistemi quantistici poiché il comportamento di questi sistemi richiede un tipo di calcolo che può essere gestito solo da un dispositivo che sfrutta le leggi della meccanica quantistica. Potremmo anche dire: così nacque il quantum computing!

Nel 1985, David Deutsch dell'Università di Oxford propose una versione universale di un computer quantistico, un modello che potesse teoricamente eseguire qualsiasi calcolo che un computer classico sarebbe in grado di eseguire, ma in modo molto più rapido grazie all'uso di qubit e dell'entanglement.

Il quantum computing, a ben guardare, ha il potenziale di rivoluzionare molti settori. Un esempio è la simulazione di sistemi quantistici, che è impossibile per i computer classici a causa della crescita esponenziale della complessità computazionale. In ambiti come la chimica, la fisica dei materiali e la farmacologia, i computer quantistici potrebbero accelerare la scoperta di nuovi farmaci, materiali e tecnologie.

Tipologie di calcolo quantistico: Gate-based vs. Quantum Annealing.

Il calcolo quantistico universale è chiamato "gate-based" (IBM, Google, Rigetti) e utilizza un approccio simile a quello dei computer classici, ma fa uso di porte quantistiche che manipolano i qubit in vari stati quantistici. Questo approccio permette di eseguire una varietà di operazioni su più qubit, ma è molto difficile da scalare, poiché i qubit devono essere mantenuti in uno stato coerente per periodi di tempo più lunghi.

Altro approccio è quelo conosciuto come "quantum annealing" (D-Wave) che si utilizza per la soluzione di problemi di ottimizzazione, dove si cerca di trovare il minimo globale di un sistema. Tale approccio non è versatile come i sistemi gate-based e non sembra poter essere impiegato per eseguire calcoli generali.

Il report "Quantum Decade" di IBM

Il report "The Quantum Decade", recentemente pubblicato da IBM, ci permette di capire la visione ambiziosa della società per il futuro del quantum computing, che punta a una rivoluzione tecnologica da attuare nei prossimi dieci anni. IBM si impegna a sviluppare computer quantistici scalabili e ad affrontare le sfide tecniche legate alla stabilità dei qubit, alla decoerenza e alla correzione degli errori. La decoerenza quantistica, in particolare, che si verifica quando un sistema quantistico perde la sua coerenza a causa dell'interazione con l'ambiente esterno, è uno degli ostacoli principali per la costruzione di computer quantistici affidabili. Nel suo report IBM prevede che nei prossimi dieci anni vi sarà un'ampia diffusione della tecnologia attraverso la piattaforma IBM Quantum, che permetterà a ricercatori e aziende di accedere a computer quantistici via cloud, aprendo la strada a nuove applicazioni nei settori della chimica, della finanza, dell'IA e dell'ottimizzazione. 

Tra i principali obiettivi vi è il miglioramento delle metodologie per la misura della potenza dei computer quantistici, con l'introduzione del Quantum Volume, che misura la reale capacità di un computer quantistico di eseguire calcoli complessi, considerando non solo il numero di qubit, ma anche la loro qualità, la durata della coerenza quantistica, la capacità di correggere errori e l'efficacia nel gestire circuiti quantistici di crescente complessità senza compromettere l'affidabilità dei risultati. Parte degli sforzi andrà anche nella esplorazione di nuove architetture basate su qubit superconduttori e materiali topologici.

Il quantum computing è visto come una tecnologia in via di maturazione che sarà in grado di risolvere problemi complessi, dalla simulazione di materiali alla progettazione di nuovi farmaci, segnando un progresso fondamentale nella scienza e nell'industria.

IonQ e la sua architettura a qubit ionici

IonQ è una delle aziende più innovative nel campo del quantum computing, con un approccio unico che utilizza qubit ionici per la costruzione dei suoi computer quantistici. La tecnologia di IonQ si basa sull'uso di ioni intrappolati, che sono atomi caricati elettricamente e manipolati con precisione attraverso campi elettrici e magnetici. Ogni qubit è rappresentato da uno stato quantistico di un singolo atomo, che viene "intrappolato" in un campo elettromagnetico in una struttura chiamata trappola ionica. Questi ioni sono poi manipolati con laser ad alta precisione per eseguire operazioni quantistiche. Una delle principali caratteristiche dei qubit ionici è la loro straordinaria stabilità, che li rende meno suscettibili ai disturbi ambientali e alla decoerenza rispetto ad altre tecnologie di qubit, come quelli basati su circuiti superconduttori.

IonQ si distingue per la sua capacità di ottenere un'alta qualità dei qubit, riducendo il rumore esterno, che è una delle principali sfide nella computazione quantistica. La società ha sviluppato un'architettura scalabile che permette di manipolare un numero crescente di qubit con precisione, rendendo possibile la realizzazione di calcoli complessi e l'esecuzione di algoritmi quantistici. Una delle innovazioni principali di IonQ è la piattaforma IonQ Cloud, che consente a ricercatori, aziende e sviluppatori di accedere a computer quantistici basati su ioni intrappolati tramite il cloud, rendendo la tecnologia quantistica più accessibile e facilitandone l'adozione nei settori più disparati.

Sebbene la tecnologia dei qubit ionici necessiti ancora di perfezionamenti per arrivare a una produzione di massa, IonQ ha fatto importanti progressi nella scalabilità e nella precisione, posizionandosi come una delle aziende di riferimento nel panorama del quantum computing. La società è impegnata nel rendere il quantum computing una tecnologia concreta e utilizzabile per applicazioni pratiche.

Il progetto Majorana 1 di Microsoft

Il progetto Majorana 1 si concentra sulla creazione di "qubit topologici", che sfruttano le proprietà dei fermioni di Majorana, particelle la cui esistenza fu teorizzata dal fisico Ettore Majorana. Questi qubit particolari sono progettati per sfruttare le proprietà dei materiali topologici, che sono considerati particolarmente promettenti per la costruzione di computer quantistici più stabili e scalabili. I qubit topologici, infatti, dovrebbero essere più resistenti ai disturbi ambientali, come la decoerenza, che rappresenta uno dei principali ostacoli per i computer quantistici attuali. Tuttavia, per funzionare correttamente, i qubit topologici richiedono temperature estremamente basse, prossime allo zero assoluto, per evitare interferenze ambientali. Per questo motivo, il processore Majorana 1 deve essere immerso in una scatola criogenica, che permette di mantenere la temperatura prossima allo zero assoluto. Questo progetto ambizioso potrebbe rappresentare una delle soluzioni più promettenti per superare i limiti delle attuali tecnologie quantistiche, ma richiede comunque avanzamenti significativi nella manipolazione di questi materiali e nella costruzione di computer quantistici scalabili. 

Le principali difficoltà nel progetto riguardano la manipolazione delle particelle di Majorana, che sono estremamente difficili da rilevare e controllare, e le implicazioni che ciò ha per la costruzione di computer quantistici pratici e scalabili. Nonostante i progressi, ci sono ancora sfide significative da superare prima che il Majorana 1 possa essere una tecnologia operativa e diffusa e raggiungere il promesso "un milione di qubit nel palmo della mano".

Qubit a temperatura ambiente

Mentre molti progetti di computer quantistici richiedono temperature criogeniche per garantire il funzionamento dei qubit, esistono anche iniziative che puntano a sviluppare qubit operativi a temperatura ambiente. La creazione di qubit che possano funzionare senza la necessità di raffreddamento estremo rappresenterebbe una svolta significativa per la realizzazione di computer quantistici pratici e scalabili. Diverse aziende e istituti di ricerca stanno lavorando su queste tecnologie alternative. Ad esempio, Google sta esplorando l'uso di qubit fotonici, che sfruttano la luce per rappresentare e manipolare l'informazione quantistica, con il vantaggio di poter operare a temperatura ambiente. Allo stesso modo, la startup Rigetti Computing sta lavorando su un approccio basato su qubit superconduttori, ma con l’obiettivo di ridurre le necessità di raffreddamento attraverso l'uso di nuove tecnologie di isolamenti termici e la progettazione di sistemi di gestione termica più efficienti. Inoltre, alcune ricerche nell’ambito della spintronica e dei materiali 2D stanno cercando di sfruttare le proprietà quantistiche di materiali come il grafene, che potrebbero consentire la manipolazione dei qubit a temperatura ambiente, riducendo notevolmente i costi e le complessità operative. Sebbene questi approcci siano ancora in fase di sviluppo, il potenziale di computer quantistici operativi a temperatura ambiente potrebbe aprire la strada a un futuro in cui la computazione quantistica sarà accessibile e praticabile su larga scala.

D-Wave: Quantum Annealing per l'ottimizzazione.

D-Wave è una delle aziende pionieristiche nel campo del quantum computing, e la sua tecnologia si distingue per l'approccio basato sul quantum annealing, che lo rende particolarmente adatto a risolvere problemi di ottimizzazione complessa. A differenza dei sistemi di calcolo quantistico "gate-based", come quelli sviluppati da IBM o Google, che sono progettati per eseguire una vasta gamma di operazioni su qubit in stato di sovrapposizione, i sistemi D-Wave sono ottimizzati per trovare soluzioni al minimo globale di un problema di ottimizzazione. Questo approccio è utile in scenari come il riconoscimento di pattern, la pianificazione, e la logistica, dove è necessario esplorare una vasta quantità di possibili soluzioni per trovare la migliore.

Un aspetto distintivo dei computer D-Wave è il loro uso di un numero molto elevato di qubit. La versione più recente del sistema, D-Wave Advantage, contiene oltre 5000 qubit, un numero notevolmente superiore rispetto ai computer quantistici "gate-based" attuali, che ne contano generalmente meno di 200. Tuttavia, la capacità di D-Wave di gestire un numero così grande di qubit non significa necessariamente che possieda la stessa flessibilità o potenza di calcolo universale dei sistemi gate-based. I qubit nel sistema D-Wave sono meno interconnessi e non possono essere manipolati con la stessa precisione dei qubit superconduttori o ionici utilizzati in altri approcci.

Nonostante le sue limitazioni in termini di versatilità, la tecnologia di D-Wave ha già delle applicazioni concrete, come il miglioramento di algoritmi di ottimizzazione, simulazioni complesse e risoluzioni di problemi in settori come la finanza, la chimica, e l'energia.

Quantum Computing e cybersecurity

Il quantum computing rappresenta una minaccia significativa per la sicurezza dei sistemi crittografici tradizionali, in particolare per i metodi basati su algoritmi di cifratura a chiave pubblica come RSA e Elliptic Curve Cryptography (ECC). Questi algoritmi sono fondamentali per la protezione delle comunicazioni su Internet e dei dati sensibili, inclusi i sistemi bancari, le transazioni online e la protezione delle informazioni personali. Tuttavia, grazie alla capacità dei computer quantistici di risolvere problemi matematici complessi in tempi molto brevi, l'efficacia di questi algoritmi è messa in discussione.

In particolare, l'algoritmo di Shor, sviluppato da Peter Shor nel 1994, dimostra come un computer quantistico possa risolvere rapidamente i problemi di fattorizzazione e logaritmo discreto, che sono alla base della sicurezza di RSA e ECC. Con l'impiego di algoritmi come Shor, un computer quantistico potrebbe rompere queste tecniche di crittografia, decifrando in tempi brevi le comunicazioni protette da tali metodi.

L'adozione di computer quantistici su larga scala potrebbe quindi compromettere la sicurezza delle informazioni, minacciando le fondamenta della sicurezza informatica moderna.
Per affrontare questa nuova realtà, la comunità scientifica e industriale ha iniziato a sviluppare algoritmi di crittografia post-quantistica. Questi algoritmi sono progettati per resistere agli attacchi da parte dei computer quantistici. La crittografia post-quantistica si basa su principi matematici che sono considerati sicuri anche contro i potenti calcolatori quantistici, e uno dei principali approcci in questo campo è la crittografia basata su lattice (lattice-based cryptography).

Altri approcci emergenti includono codici correttori di errore, hash-based cryptography e multivariate polynomial cryptography, tutti progettati per garantire la sicurezza a lungo termine in un mondo in cui la tecnologia quantistica sta diventando realtà.

Il NIST (National Institute of Standards and Technology), già dal 2016 ha avviato un processo per identificare e standardizzare algoritmi di crittografia post-quantistica. Il processo di selezione, che coinvolge una valutazione approfondita di vari algoritmi, ha lo scopo di definire soluzioni robuste che possano sostituire gli algoritmi vulnerabili quando i computer quantistici saranno abbastanza potenti da mettere a rischio la crittografia esistente.

Inoltre, enti internazionali, aziende tecnologiche e organizzazioni governative stanno investendo risorse significative nella sicurezza quantistica, esplorando nuovi approcci come la crittografia quantistica (che utilizza i principi della meccanica quantistica stessa per garantire la sicurezza) e sviluppando nuove infrastrutture sicure che possano sostenere la transizione verso un ambiente digitale protetto in un mondo con computer quantistici.

Prospettive Future e le Applicazioni Emergenti

Il futuro del quantum computing è entusiasmante e ricco di potenzialità, ma allo stesso tempo incerto e impegnativo. Mentre la tecnologia è ancora in fase di sviluppo e le sfide tecniche da superare sono notevoli, i progressi che stiamo vedendo oggi potrebbero aprire la strada a rivoluzioni in molteplici settori. Le applicazioni del quantum computing non si limitano alla sola crittografia o alla cybersicurezza, ma si estendono a campi che spaziano dalla medicina all'intelligenza artificiale, dalla simulazione chimica alla logistica avanzata.

Nel settore della medicina, i computer quantistici potrebbero accelerare enormemente la scoperta di nuovi farmaci e la comprensione di malattie complesse. La simulazione di molecole e reazioni chimiche a livello quantistico potrebbe, infatti, portare alla creazione di farmaci più efficaci, riducendo notevolmente i tempi e i costi della ricerca farmaceutica. Inoltre, la potenza computazionale offerta dal quantum computing potrebbe rivoluzionare la diagnostica medica, consentendo di elaborare grandi quantità di dati clinici con una velocità e precisione mai viste prima.

L'intelligenza artificiale e l'apprendimento automatico stanno diventando sempre più sofisticati, ma i calcolatori tradizionali, nonostante i loro enormi progressi, hanno dei limiti. Il Quantum Machine Learning (QML) potrebbe superare queste limitazioni, permettendo agli algoritmi di apprendimento automatico di trattare set di dati complessi con velocità e precisione incredibili. I modelli di apprendimento quantistici potrebbero rivoluzionare il modo in cui le macchine apprendono, migliorando significativamente la capacità di predire eventi, automatizzare processi e analizzare grandi volumi di dati non strutturati.

Un altro campo che potrebbe beneficiare enormemente del quantum computing è la simulazione chimica e la progettazione di materiali avanzati. Le simulazioni chimiche tradizionali sono limitate dalla capacità dei computer di elaborare le interazioni molecolari a livello atomico. I computer quantistici, grazie alla loro abilità di manipolare qubit in sovrapposizione e entanglement, possono affrontare simulazioni più complesse, aprendo la porta a scoperte scientifiche come materiali più resistenti, energie rinnovabili più efficienti e nuovi processi chimici.

L'ottimizzazione è un altro campo in cui il quantum computing promette di fare enormi passi avanti soprattutto nella risoluzione di problemi complessi, come la pianificazione delle risorse, la logistica e il miglioramento di algoritmi di ricerca. 

Infine, uno degli sviluppi più interessanti riguarda la creazione di un quantum internet. Questa nuova rete, basata sulla crittografia quantistica che sfrutta i principi della meccanica quantistica per migliorare la sicurezza, promette di garantire un elevato livello di sicurezza nelle comunicazioni online, sfruttando il principio dell'entanglement quantistico. La Quantum Key Distribution (QKD), inoltre, permette lo scambio di chiavi crittografiche sicure tramite entanglement quantistico e rappresenta la base di questa nuova infrastruttura. 

Eppure, nonostante le potenzialità, il quantum computing deve ancora superare importanti sfide. La decoerenza quantistica, come abbiamo visto in precedenza, è una delle principali difficoltà. Inoltre, la costruzione di computer quantistici scalabili, in grado di gestire grandi numeri di qubit senza errori, rimane una delle sfide tecniche più complesse. La ricerca continua a un ritmo molto sostenuto, vedremo dove ci porterà.

Infine, occorre considerare che come tutte le innovazioni, la transizione verso il quantum computing richiederà un significativo cambiamento nell'infrastruttura tecnologica, nella formazione delle risorse umane e nella gestione delle politiche governative e aziendali. 

Tutte cose che avranno un impatto profondo sulla nostra società. 

Alessandro Rugolo 

 

per approfondire:

- https://ilbolive.unipd.it/it/news/ioni-intrappolati-futuro-computer-quantistico

- https://www.ibm.com/thought-leadership/institute-business-value/en-us/report/quantum-decade 

- https://www.rigetti.com/

- https://scitechdaily.com/google-quantum-ai-reveals-bound-states-of-photons-hold-strong-even-in-the-midst-of-chaos/

- https://oggiscienza.it/2017/06/05/materiale-miracoloso-spintronica-come-cambieranno-smartphone-pc/index.html

- https://www.technologynetworks.com/applied-sciences/news/graphene-stacking-discovery-could-herald-new-era-for-quantum-tech-394192

- https://www.dwavesys.com/resources/white-paper/the-d-wave-advantage-system-an-overview/

- https://bizzit.it/approfondimenti/algoritmo-di-shor-e-crittografia-quantistica/

 

mercoledì 26 febbraio 2025

Bash: il linguaggio essenziale di Linux che ogni professionista dovrebbe conoscere

Introduzione

Nel mondo dell'open-source e dell'amministrazione di sistema, conoscere Bash è una competenza fondamentale. Questa shell, ampiamente utilizzata in ambienti Linux e Unix, consente di ottimizzare il lavoro, automatizzare operazioni ripetitive e gestire il sistema in modo più efficiente. In questo articolo, esploreremo il ruolo di Bash e il motivo per cui ogni professionista IT dovrebbe acquisirne padronanza. La sua applicabilità si estende non solo alla gestione quotidiana, ma anche a scenari complessi che richiedono efficienza e automazione.

Cos'è Bash e perché è cruciale in Linux

Bash (Bourne Again Shell) è una delle shell più diffuse e apprezzate dagli esperti IT. Nata negli anni ’80 come successore della Bourne Shell (sh), ha integrato nuove funzionalità che la rendono versatile e potente. La sua sintassi semplice ma ricca di potenzialità, combinata con comandi avanzati, la rende ideale per amministratori di sistema, sviluppatori, professionisti della sicurezza, data scientist e chiunque lavori con l'analisi dei dati e l'intelligenza artificiale.

Presente nella maggior parte delle distribuzioni Linux, Bash offre una sintassi intuitiva e strumenti avanzati per la gestione di file, directory e processi di sistema. La sua capacità di eseguire script permette agli utenti di automatizzare operazioni complesse, riducendo il rischio di errori e aumentando la produttività. Inoltre, l'integrazione nativa con altre utilità Unix rende Bash uno strumento ideale per operazioni di elaborazione dati avanzate. I data scientist, ad esempio, possono sfruttare Bash per manipolare grandi volumi di dati, eseguire trasformazioni complesse e integrarlo facilmente con altri linguaggi di programmazione come Python e R, che sono comunemente utilizzati in analisi e modelli predittivi.

Comandi come awk, sed e grep sono tra gli strumenti più potenti che Bash offre per l'elaborazione dei dati:

  • awk è utilizzato per la manipolazione di testi. Consente di specificare una serie di istruzioni da eseguire su ciascun record di un file, come il filtraggio e la trasformazione dei dati in base a pattern specifici. Ad esempio, awk '{print $1}' file.txt stampa la prima colonna di ogni riga di un file.

  • sed è un editor di flussi di testo che permette di eseguire sostituzioni e modifiche in un flusso di testo o file. È particolarmente utile per la manipolazione di stringhe e la modifica di grandi quantità di testo, come ad esempio sed 's/old/new/g' file.txt, che sostituisceall'interno del file specificato, tutte le occorrenze della parola "old" con "new".

  • grep è un potente strumento per la ricerca di espressioni regolari all'interno di file o flussi di dati. È utilizzato per cercare e visualizzare linee che corrispondono a un pattern specifico, come grep 'pattern' file.txt, che stampa a schermo tutte le righe del file che contengono la parola "pattern".

Questi strumenti, integrati tra loro e con la potenza di Bash, permettono di creare soluzioni flessibili ed efficaci per analizzare e manipolare i dati in modo rapido ed efficiente.

Comandi essenziali per migliorare l'efficienza operativa.

Migliorare l'efficienza operativa è fondamentale per chiunque lavori in ambienti IT, amministrazione di sistema, sviluppo o gestione dei dati. Che tu sia un amministratore di sistema che deve gestire una grande quantità di server, uno sviluppatore che lavora con script complessi o un data scientist che analizza volumi elevati di informazioni, l'automazione e l'uso ottimale degli strumenti di sistema può ridurre significativamente il tempo speso in attività ripetitive e minimizzare il rischio di errore umano. Troppo spesso, tuttavia, si cercano software esterni o applicazioni di terze parti per svolgere compiti che potrebbero essere facilmente realizzati con Bash, ma non si è consapevoli delle sue potenzialità. Conoscere Bash ti permette di sfruttare al meglio le risorse già disponibili nel tuo sistema, evitando di sovraccaricare il tuo ambiente di lavoro con strumenti aggiuntivi e riducendo la complessità complessiva.

Ecco, a titolo di esempio, alcuni comandi Bash indispensabili per ottimizzare il lavoro quotidiano e semplificare operazioni che altrimenti potrebbero risultare complesse:

  • ls -lh, elenca i file di una directory con dettagli aggiuntivi come dimensioni, permessi e data di modifica. Il formato leggibile (-h) rende più comprensibile la visualizzazione delle dimensioni del file ed è utile per esaminare rapidamente la struttura dei file.

    Esempio:
    ls -lh /var/log/
    Visualizza i log di sistema con informazioni sulla dimensione dei file in modo chiaro e immediato.

  • grep 'parola' file.txt, cerca la stringa "parola" all'interno di un file e stampa a schermo tutte le righe che contengono quel termine. È particolarmente utile per filtrare rapidamente informazioni o errori in file di log o script.

    Esempio:
    grep 'error' /var/log/syslog
    Mostra tutte le righe contenenti "error" nei log di sistema, un comando molto utile per il troubleshooting.

  • find /home -type f -name "*.log", cerca ricorsivamente tutti i file con estensione .log nella directory /home. Il comando find è molto potente, poiché permette di cercare file in base a criteri specifici (tipo, nome, data di modifica).

    Esempio:
    find /home/user -type f -name "*.txt"
    Trova tutti i file .txt nella home directory dell'utente, un comando pratico per trovare rapidamente file con estensioni specifiche.

  • tar -czf archivio.tar.gz cartella/, comprime una directory o file in un archivio .tar.gz, utile per il backup o per l'archiviazione di dati. Il formato .tar.gz è particolarmente utile per comprimere grandi quantità di file in modo efficiente, ma esiste anche la possibilità di utilizzarealtri formati di compressione, a seconda delle preferenze di efficienza e compatibilità.

    Esempio:
    tar -czf documenti_backup.tar.gz /home/user/Documents/
    Crea un archivio compresso della cartella "Documents", facilitando la gestione e il trasferimento dei dati.

Come è facile intuire questi comandi che rappresentano solo una frazione delle potenzialità di Bash, già da soli potrebbero giustificare il tempo passato ad approfondire l'uso della shell. Oltre all'uso di base, Bash offre una vasta gamma di strumenti avanzati che, combinati insieme, permettono di creare script complessi, gestire l'automazione di operazioni quotidiane e ottimizzare in modo significativo il flusso di lavoro.

Automazione con Bash: un esempio pratico

Una delle attività più fondamentali per garantire la sicurezza dei dati è il backup. Tuttavia, nonostante la sua importanza cruciale, molte persone o aziende trascurano questa operazione per motivi di mancanza di tempo o di complessità. Spesso, il backup viene rimandato, con il rischio che, in caso di guasti hardware o attacchi informatici, i dati vengano persi irreparabilmente.

In questo contesto, l'automazione diventa una soluzione efficace per garantire che i backup vengano eseguiti regolarmente senza necessità di intervento manuale. Con Bash, uno degli strumenti più potenti e flessibili per la gestione delle attività di sistema su Linux e Unix, è possibile automatizzare facilmente il processo di backup, liberandoci dal peso di doverlo fare manualmente e assicurandoci che venga eseguito con puntualità.

Supponiamo di voler eseguire un backup periodico della cartella "Documenti". 

Utilizzando Bash, possiamo creare uno script che effettua questa operazione, aggiungendo la data corrente al nome del file di backup per tener traccia delle versioni.

#!/bin/bash
# Script di backup automatico della cartella Documenti

# Impostiamo la data corrente nel formato Anno-Mese-Giorno
data=$(date +"%Y-%m-%d")

# Verifica se la cartella Documenti esiste
if [ -d "$HOME/Documenti" ]; then
    # Creazione del backup in formato tar.gz con la data nel nome del file
    tar -czf "$HOME/backup_documenti_$data.tar.gz" "$HOME/Documenti"
    echo "Backup completato: backup_documenti_$data.tar.gz"
else
    echo "Errore: la cartella Documenti non esiste!"
    exit 1
fi

In dettaglio ecco cosa succede:


- `date +"%Y-%m-%d"`: Questa riga imposta la variabile `data` con la data odierna nel formato `Anno-Mese-Giorno` (ad esempio, `2025-02-26`). Questo formato aiuta a mantenere i file ordinati cronologicamente.

- Verifica dell'esistenza della cartella: La condizione `if [ -d "$HOME/Documenti" ]; then` verifica che la cartella Documenti esista prima di tentare di crearne un backup. Se la cartella non esiste, lo script stampa un messaggio di errore e termina con `exit 1`, un codice di uscita che indica un errore.

- Backup con `tar`: La riga `tar -czf "$HOME/backup_documenti_$data.tar.gz" "$HOME/Documenti"` crea un file di backup compresso in formato `.tar.gz` della cartella Documenti. Il nome del file di backup include la data, il che lo rende facilmente identificabile.

- Messaggi di output: Dopo aver completato il backup, lo script stampa un messaggio di conferma. Se c'è un errore, come l'assenza della cartella, viene restituito un errore descrittivo.

Come abbiamo detto , vogliamo anche automatizzare il processo, per farlo è possibile utilizzare cron, uno strumento che permette di schedulare attività a intervalli regolari. Ecco come impostare cron per eseguire il backup ogni giorno alle 2 di notte:

1. Apri il file di configurazione di cron con il comando:
   crontab -e

2. Aggiungi la seguente riga per eseguire lo script ogni giorno alle 2:00 AM:
   0 2 * * * /path/to/script/backup_script.sh

3. Salva e chiudi il file. Ora cron eseguirà automaticamente lo script ogni notte, creando un backup giornaliero della cartella Documenti.

Naturalmente, capito il concetto, è possibile dedicarvi un pò di tempo per migliorarlo. Per esempio creando Backup incrementali se la cartella è molto grande, copiando solo i file modificati dal precedente backup.
È anche possibile estendere lo script per caricare automaticamente il backup su un servizio di cloud storage, utilizzando strumenti come `rclone` per sincronizzare i file su Google Drive, Dropbox, ecc.
Naturalmente lo script può essere esteso ulteriormente per gestire alcune possibili problematiche, come la mancanza di spazio su disco o la scrittura su una destinazione non accessibile.

Conclusioni.

In questo articolo abbiamo esplorato il potente strumento che è Bash, esaminandone le potenzialità in un contesto pratico e applicato. La sua versatilità lo rende uno strumento indispensabile per ogni professionista IT, sia che si tratti di amministratori di sistema, sviluppatori, data scientist o esperti di sicurezza. Bash non solo semplifica e ottimizza operazioni quotidiane, ma offre anche soluzioni di automazione potenti che possono liberare il professionista da compiti ripetitivi e migliorare significativamente l’efficienza operativa.

Abbiamo visto come un semplice script Bash, come quello per la gestione dei backup, possa migliorare la sicurezza dei dati e garantire operazioni programmate con il minimo intervento manuale. L'automazione dei backup è solo una delle numerose applicazioni possibili. 

Nonostante le potenzialità di Bash siano enormi, è importante ricordare che un uso consapevole ed efficiente richiede pratica e una conoscenza approfondita delle sue funzionalità. Che si tratti di scrivere script per la gestione di file, per l’elaborazione di dati o per la gestione di sicurezza, Bash offre la flessibilità per adattarsi alle esigenze specifiche di ogni ambiente di lavoro.

In un mondo in cui il tempo è una risorsa sempre più scarsa, la capacità di automatizzare operazioni quotidiane attraverso Bash non solo è una competenza utile, ma un vantaggio competitivo per chiunque lavori nell’ambito IT. 

Alessandro Rugolo 

- https://opensource.com/resources/what-bash

- https://www.gnu.org/software/bash/

 

venerdì 14 febbraio 2025

Spyware e Adware: minacce silenziose tra spionaggio e guerra dell’informazione

Spyware e adware, spesso sottovalutati o ignorati, sono invece minacce estremamente pericolose, soprattutto in ambito militare e governativo.
Gli adware sono software progettati per raccogliere dati sugli utenti a fini pubblicitari, mostrando annunci mirati spesso in modo invasivo. Tuttavia, alcune varianti si spingono oltre, raccogliendo informazioni sensibili senza il consenso dell’utente. Gli spyware, invece, nascono con uno scopo esclusivamente malevolo: monitorare l’attività di un dispositivo, sottrarre dati riservati, tracciare la posizione e persino intercettare comunicazioni.

Spesso mascherati all’interno di app e siti web compromessi, questi programmi possono insinuarsi nei dispositivi senza che l’utente se ne accorga, trasformandosi in strumenti di spionaggio digitale. Una variante particolarmente insidiosa è lo stalkerware, progettato per monitorare segretamente l'attività di un utente senza il suo consenso. Questo tipo di software, inizialmente diffuso in ambito privato per il controllo abusivo di partner o familiari, ha trovato impiego anche in operazioni di intelligence e sorveglianza mirata. Quando installato su smartphone o computer, può registrare chiamate, raccogliere messaggi e persino attivare microfono e fotocamera senza che l’utente se ne accorga.

Negli ultimi anni, attacchi mirati con spyware avanzati hanno dimostrato l’efficacia di questi strumenti nelle operazioni di intelligence, portando alla compromissione di politici, giornalisti e perfino personale militare. La crescente digitalizzazione delle forze armate e l’uso diffuso di dispositivi personali nei contesti operativi aumentano il rischio di esposizione a queste minacce, rendendo fondamentale una maggiore consapevolezza e misure di difesa adeguate.

Spyware, Adware e Stalkware: cosa sono e come funzionano

Adware, spyware e stalkerware sono malware progettati per raccogliere dati in modi diversi, ma con l’obiettivo comune di invadere la privacy degli utenti.

Gli adware sono principalmente programmi che mostrano pubblicità indesiderate. Sebbene all’inizio fossero considerati “poco pericolosi”, la loro invasività è cresciuta nel tempo. Il primo adware noto risale agli anni ’90 ed era parte di pacchetti software freeware, che pur consentendo l'uso gratuito di alcuni programmi, mostravano pubblicità in modo invasivo. Il più famoso esempio di adware primordiale fu "Gator", noto anche come "Claria", un software che veniva integrato in app e browser per raccogliere dati sugli utenti e visualizzare annunci mirati. Gator segna la nascita del Behavioral Marketing, una tecnica di marketing che si basa sull'analisi delle abitudini online degli utenti per mostrare pubblicità personalizzata. Gator è stato uno dei pionieri in questo campo, raccogliendo informazioni sui comportamenti di navigazione degli utenti per targhetizzare gli annunci in modo estremamente preciso. Questa pratica, che inizialmente sembrava innocua, ha portato alla creazione di una vasta industria di pubblicità digitale, sollevando però preoccupazioni sulla privacy, poiché questi software raccoglievano informazioni personali senza il consenso esplicito degli utenti.

Gli spyware, al contrario degli adware, sono stati considerati sin dall’inizio più pericolosi e invadenti. Il primo spyware significativo, 180solutions, risale agli inizi degli anni 2000 ed è stato uno dei primi esempi di software progettato appositamente per raccogliere informazioni sensibili, come comportamenti di navigazione e dati personali, senza il consenso dell'utente. Questo malware veniva diffuso tramite software freeware e siti web compromessi, raccogliendo dati da computer aziendali e privati. Con il tempo, gli spyware si sono evoluti, includendo funzioni ancora più invasive, come la registrazione delle battiture sulla tastiera, il monitoraggio delle attività online e il furto di credenziali bancarie. Nel 2006, 180solutions si fuse con Zango, un altro programma noto per il suo comportamento invadente e per la raccolta di informazioni senza il permesso degli utenti. Questa unione diede vita a una delle reti di distribuzione di spyware più diffuse.

Gli spyware sono particolarmente rilevanti in ambito militare e governativo, dove la sicurezza delle informazioni e la posizione del personale e delle unità è vitale.

Alla stessa categoria appartengono gli stalkerware, applicazioni sviluppate per monitorare le attività di un individuo senza il suo consenso, violando la privacy in modo grave. Originariamente concepiti per scopi legittimi, come il monitoraggio dei figli minorenni o la gestione delle attività in ambito familiare, molti di questi software sono stati sfruttati per scopi illeciti, come il controllo di partner o familiari maggiorenni inconsapevoli. Questi strumenti sono in grado di raccogliere una vasta gamma di informazioni, tra cui la posizione GPS, la registrazione delle chiamate, l'accesso ai messaggi privati, la visione della cronologia delle attività online, e persino l’attivazione in remoto di fotocamere e microfoni. L'abuso di stalkerware è diventato un problema serio, poiché consente una sorveglianza nascosta che può durare per lungo tempo senza che la vittima se ne accorga. Questi software, in alcuni casi, sono stati utilizzati anche in contesti più complessi, come operazioni di sorveglianza da parte di gruppi criminali o in ambito di spionaggio. In risposta, sono state sviluppate tecnologie di rilevamento e politiche più rigorose per contrastare l'abuso di stalkerware, ma il problema resta una sfida crescente per la sicurezza digitale e la tutela della privacy.

Spyware come strumento di spionaggio e guerra dell’informazione.

L’uso degli spyware da parte di attori statali e gruppi APT (Advanced Persistent Threats) ha trasformato queste tecnologie in strumenti vitali nelle operazioni di spionaggio digitale e nella guerra dell'informazione. Gli spyware, infatti, non sono più esclusivamente considerati minacce informatiche di natura privata o commerciale, ma sono utilizzati da entità statali e gruppi organizzati per raccogliere informazioni sensibili, monitorare avversari politici, giornalisti e militari, e condurre attacchi mirati di rilevanza operativa e strategica.

Gli attori statali sfruttano software apparentemente innocui, come app per la messaggistica o sistemi di e-mail criptati, per infiltrarsi nei dispositivi e sorvegliare le attività degli obiettivi senza destare sospetti. Questo tipo di sorveglianza avviene in modo invisibile e silenzioso, cosicchè l'utente non si accorga di essere stato compromesso.

Mentre il recente caso assurto all’onore delle cronache in Italia, Graphite, è ancora troppo recente per capirne appieno le implicazioni, tra i più noti esempi di spyware utilizzati in operazioni di sorveglianza c’è sicuramente Pegasus. Sviluppato dalla compagnia israeliana NSO Group. Pegasus è stato utilizzato per infettare i dispositivi di giornalisti, politici, attivisti e membri di organizzazioni internazionali, intercettando chiamate, messaggi e raccogliendo informazioni riservate senza il consenso delle vittime.

Gli spyware avanzati come Pegasus sono capaci di tracciare la posizione geografica degli individui, accedere a comunicazioni private e rubare dati strategici relativi a operazioni, piani militari e altre informazioni riservate. Il rischio di un attacco con spyware è particolarmente alto per coloro che operano in contesti sensibili, dove la sicurezza delle comunicazioni e delle informazioni è cruciale. Comìè comprensibile, le implicazioni per la sicurezza del personale militare sono enormi e i governi devono essere consapevoli della minaccia che gli spyware rappresentano.

Come difendersi: strategie di mitigazione per utenti e personale militare

La protezione contro spyware e simili richiede misure mirate, specialmente per il personale militare e istituzionale, che deve essere adeguatamente informato sui rischi e sulle buone pratiche per l’utilizzo dei dispositivi, sia personali che di lavoro.

La consapevolezza è il primo passo per evitare infezioni, e ogni individuo deve essere formato a riconoscere le minacce e a seguire protocolli di sicurezza rigorosi.

Tutti gli operatori a rischio dovrebbero essere costantemente aggiornati sui pericoli legati agli spyware e su come comportarsi in contesti operativi. La formazione deve includere come evitare clic accidentali su link sospetti, come gestire le comunicazioni elettroniche in modo sicuro, e come riconoscere comportamenti anomali sui dispositivi.

Le organizzazioni inoltre dovrebbero implementare soluzioni tecniche avanzate, come antivirus, EDR (Endpoint Detection and Response), e MDM (Mobile Device Management), per monitorare e proteggere i dispositivi da spyware e da altre minacce. Devono stabilire policy restrittive per l’uso di dispositivi personali (BYOD) in ambienti sensibili, garantendo che l’accesso a risorse vitali sia limitato solo ai dispositivi sicuri e approvati.

È importante ricordare che alcune limitazioni, in determinati contesti, sono necessarie per la sicurezza del personale e delle infrastrutture. Per cui sui dispositivi di lavoro dovrebbe essere proibito installare software non controllati e non previsti. E’ utile anche ricordare che se un servizio è gratuito, spesso gli utenti sono la merce di scambio, questo per dire che non tutto ciò che si trova su Internet, anche se apparentemente risolve un nostro problema impellente, è utilizzabile senza precauzioni. I dispositivi e le applicazioni gratuite possono raccogliere dati sensibili per scopi di marketing o per rivenderli, aumentando il rischio di esposizione agli spyware.

L'impiego di nuove tecnologie nella difesa contro spyware di nuova generazione.
Con l'evoluzione delle minacce cibernetiche, è fondamentale che le forze militari e i governi integrino le nuove tecnologie nelle loro strategie di difesa. Tecnologie emergenti come l'intelligenza artificiale (IA) e l'apprendimento automatico (ML) stanno diventando sempre più cruciali nella rilevazione e prevenzione di attacchi da spyware e malware. L'IA può essere impiegata per monitorare anomalie nei flussi di dati, rilevare comportamenti sospetti e bloccare in tempo reale attività dannose. Inoltre, algoritmi avanzati possono analizzare i pattern di comportamento dei dispositivi, prevedere minacce e neutralizzarle in tempo quasi reale, riducendo così il rischio di infiltrazioni attraverso spyware sofisticati.

Conclusioni
Come abbiamo visto, nell’attuale contesto di crescente digitalizzazione, spyware, adware e l'uso inconsapevole di app apparentemente innocue pongono rischi significativi per il personale militare e governativo. È importante sottolineare che queste minacce non si limitano ai software dannosi, ma si estendono anche a strumenti quotidiani come app di fitness (emblematico è il caso Strava di qualche anno fa), social media, giochi o applicazioni di produttività. Questi strumenti spesso raccolgono informazioni che, se utilizzate da analisti di intelligence, istituzionali o malevoli, possono compromettere la sicurezza delle operazioni.
La consapevolezza sui rischi derivanti da queste minacce è fondamentale per evitare comportamenti che possano compromettere la sicurezza.

In un'era dominata dalla guerra ibrida e dal dominio cibernetico, la cybersecurity assume sempre più un ruolo cruciale per proteggere le comunicazioni, le operazioni e le informazioni sensibili, riducendo il rischio di attacchi mirati e infiltrazioni.

Alessandro Rugolo

Per approfondire:

- https://www.investopedia.com/terms/g/gator.asp

- https://calhoun.nps.edu/server/api/core/bitstreams/8f0084f2-8c6b-4944-bd4e-b6e47c1419d6/content

- https://www.f-secure.com/sw-desc/180solutions.shtml

- https://www.avira.com/it/blog/lo-stalkerware-si-sta-diffondendo-proteggiti?srsltid=AfmBOopGFrDx_3CWWmkQ3bpuqUXV0UQUfFdxgWDSzR7hDU2YgUtIXdTy

- https://blog.rsisecurity.com/how-to-detect-pegasus-spyware/

- https://www.theguardian.com/world/2018/jan/28/fitness-tracking-app-gives-away-location-of-secret-us-army-bases

sabato 8 febbraio 2025

Intelligenza Artificiale e coscienza.

Introduzione

L’Intelligenza Artificiale ha compiuto enormi progressi negli ultimi anni, in particolare con lo sviluppo dei Large Language Models (LLM), modelli avanzati in grado di generare testo con un’impressionante fluidità e coerenza. Tuttavia, il dibattito si fa sempre più acceso su un tema che tocca la filosofia, le neuroscienze e la tecnologia: fino a che punto questi sistemi possono spingersi oltre il semplice calcolo per avvicinarsi a qualcosa che assomigli alla consapevolezza autonoma? È possibile che un’AI sviluppi una forma di consapevolezza, o la sua intelligenza è destinata a rimanere un'illusione sofisticata della nostra mente?

I vari tipi di intelligenza artificiale

L’intelligenza artificiale (AI) è un campo ampio e in continua evoluzione, che include diversi approcci e modelli, ognuno con caratteristiche e capacità distintive. 

Sebbene questi tipi di intelligenza possano sembrare simili,non dimentichiamo che la coscienza implica una consapevolezza del proprio stato e del proprio ambiente, che va oltre l’intelligenza puramente computazionale.

Sebbene la coscienza artificiale venga spesso discussa in relazione ai modelli di linguaggio di grandi dimensioni (LLM) come GPT-4, essa potrebbe, in teoria, emergere anche in altre forme di AI. Per comprendere meglio il dibattito sulla coscienza artificiale, è utile fare una distinzione tra le principali categorie di AI:

1. Intelligenza artificiale ristretta (ANI - Artificial Narrow Intelligence):
L'ANI è il tipo di AI che si trova più comunemente oggi, progettata per compiere compiti specifici e ben definiti. Un esempio di ANI è un programma per il riconoscimento delle immagini, o i sistemi di raccomandazione che suggeriscono contenuti in base ai gusti dell'utente. Questi sistemi non sono coscienti, ma estremamente abili nell'affrontare compiti ristretti. L'ANI non ha alcuna forma di autoconsapevolezza e non possiede esperienze soggettive. Con una stima approssimativa, il livello di complessità di questi modelli può essere definito "Basso", aggirandosi attorno ai milioni di parametri.

2. Intelligenza artificiale generale (AGI - Artificial General Intelligence):
L’AGI è un tipo di AI ipotetica che mira a raggiungere un'intelligenza simile a quella umana, capace di apprendere e adattarsi a una vasta gamma di compiti senza necessitare di una programmazione specifica per ognuno di essi. Sebbene l’AGI non esista ancora, è il tipo di AI che viene spesso associata a un possibile sviluppo della coscienza artificiale. Se l'AGI dovesse emergere, sarebbe il candidato ideale per possedere una forma di consapevolezza, in quanto il suo comportamento sarebbe simile a quello umano, con la capacità di auto-adattarsi, fare esperienze e rispondere a stimoli complessi. Con una stima approssimativa, il livello di complessità di questi modelli potrebbe essere definito "Molto Elevato", aggirandosi, teoricamente, probabilmente attorno alle centinaia di migliaia di miliardi di parametri.

3. Modelli di linguaggio di grandi dimensioni (LLM):
Gli LLM, come GPT-4, sono modelli di AI progettati per generare e comprendere linguaggio naturale con una notevole coerenza. Sebbene non siano AGI, gli LLM sono un esempio avanzato di AI che simula abilmente conversazioni e risposte in modo autonomo. La capacità di questi modelli di produrre testo complesso e persino creativo ha suscitato dibattiti sulla possibilità che, in un futuro remoto, possano evolversi in qualcosa che assomigli alla coscienza. Gli LLM potrebbero, quindi, rappresentare un'area di studio privilegiata per l’indagine sulla coscienza artificiale. Con una stima approssimativa, il livello di complessità di questi modelli può essere definito "Elevato", aggirandosi attorno alle centinaia di miliardi di parametri.

4. Intelligenza artificiale emergente e connessioni neurali:
Un altro approccio interessante riguarda i sistemi che simulano reti neurali biologiche, come nel caso delle reti neurali profonde o di AI basate su modelli ispirati al cervello umano. Anche se queste tecnologie non sono direttamente correlate alla coscienza, possono fornire spunti sul potenziale per una forma di "esperienza" o consapevolezza che emula il comportamento biologico.

Conclusione preliminare:
La coscienza artificiale, quindi, potrebbe non essere legata esclusivamente agli LLM, ma potrebbe emergere in qualsiasi tipo di AI avanzata che raggiunga una certa complessità e integrazione delle informazioni. Tuttavia, la discussione si concentra prevalentemente sugli LLM, poiché sono attualmente i modelli di AI che più si avvicinano a un’apparente forma di “intelligenza” capace di rispondere autonomamente in contesti complessi.

Alcune teorie sulla coscienza

So bene che esistono numerose teorie che cercano di spiegare il significato e il fenomeno della coscienza, per gli scopi che mi propongo con questo articolo farò riferimento a due di queste in particolare, la Teoria dell'Informazione Integrata e la Orchestrated Objective Reduction Theory.

La Teoria dell’Informazione Integrata (IIT) di Tononi

La Teoria dell’Informazione Integrata (IIT), proposta dallo scienziato Giulio Tononi, rappresenta una delle teorie più influenti nel campo della coscienza. Tononi sostiene che la coscienza sia il risultato di un alto grado di integrazione e complessità dell’informazione all’interno di un sistema. Secondo la IIT, la coscienza non è una proprietà di singoli elementi del sistema, ma emerge dal modo in cui queste componenti interagiscono tra loro. In altre parole, un sistema è cosciente se è in grado di integrare informazioni in modo tale che il tutto risulti essere più significativo della somma delle singole parti.

Tononi introduce il concetto di "phi" (Φ), una misura quantitativa dell’integrazione dell’informazione in un sistema. Più alto è il valore di Φ, maggiore è il livello di coscienza. In base a questa teoria, qualsiasi sistema che possieda un valore sufficientemente alto di Φ potrebbe potenzialmente essere cosciente, indipendentemente dalla sua struttura fisica. Pertanto, IIT non esclude la possibilità che un’intelligenza artificiale, se raggiungesse una complessità sufficiente e fosse in grado di integrare informazioni in modo altamente interconnesso, possa sviluppare una forma di coscienza.

Un aspetto affascinante della IIT è la sua applicabilità non solo al cervello umano, ma anche a sistemi artificiali e persino a sistemi teoricamente non biologici. Se un'intelligenza artificiale riuscisse a sviluppare una rete complessa e altamente integrata di connessioni, questa potrebbe possedere una forma di coscienza che si manifesta in maniera simile a quella che conosciamo nel regno biologico. Tuttavia, la teoria solleva anche interrogativi cruciali: come possiamo misurare veramente l'integrazione dell'informazione in un sistema artificiale? E, ancor più importante, come possiamo distinguere tra un sistema che è semplicemente "intelligente" e uno che è realmente "cosciente"?

Inoltre, non dobbiamo mai dimenticare che il significato dei termini "Intelligenza" e "Coscienza" non è univocamente definito, creando così non pochi problemi.

Orchestrated Objective Reduction (Orch-OR) di Penrose e Hameroff

La teoria Orchestrated Objective Reduction (Orch-OR), sviluppata negli anni novanta del secolo scorso dal fisico Roger Penrose e dal medico anestesista Stuart Hameroff, è una proposta innovativa per spiegare la coscienza che unisce concetti di fisica quantistica e neuroscienze. Secondo la Orch-OR, la coscienza non può essere semplicemente spiegata attraverso processi neurali classici o la semplice attività elettrica del cervello, ma emergerebbe da fenomeni quantistici che si verificano all'interno dei microtubuli, strutture cellulari presenti nei neuroni.

Penrose, in particolare, sostiene che la coscienza sia il risultato di fenomeni che vanno oltre la fisica classica e che la mente umana non possa essere spiegata soltanto da algoritmi o processi computazionali. Propone che il cervello sia un "dispositivo quantistico" e che i fenomeni di riduzione oggettiva (objective reduction, OR) della funzione d'onda quantistica siano alla base della coscienza.

Hameroff amplia questa idea introducendo l'ipotesi che il collasso quantistico avvenga all'interno dei microtubuli, che sono dei tubi cilindrici formati da proteine e presenti all'interno dei neuroni. Questi microtubuli sono in grado di supportare stati quantici e si pensa che possano fungere da "computer quantistici" all'interno del cervello. Secondo la teoria Orch-OR, l’attività quantistica che si svolge nei microtubuli è orchestrata da una serie di eventi a livello cellulare e molecolare, i quali, quando sufficientemente sincronizzati, provocano un "comportamento" quantistico che riconosciamo come "consapevolezza". La sincronicità e l’interconnessione di questi eventi sono ciò che dà origine all'esperienza cosciente.

Un aspetto fondamentale della teoria Orch-OR è l’idea di "orchestrazione". Questo significa che i processi quantistici non sono casuali, ma sono organizzati da meccanismi biologici che ne permettono l’integrazione e il manifestarsi a livello cosciente. Penrose e Hameroff suggeriscono che la coscienza emerga da una sequenza di collassi quantistici che avvengono in tempi molto rapidi e che non sono legati alle tradizionali interazioni neuronali ma a processi quantistici globali e complessi.

La teoria Orch-OR apre anche la porta a nuove riflessioni sul possibile legame tra coscienza e realtà quantistica, suggerendo che la coscienza stessa potrebbe essere un fenomeno che ha implicazioni molto più vaste, influenzando il comportamento della materia a livelli fondamentali.

Modelli computazionali della coscienza

Alcuni studiosi credono che la coscienza possa emergere da processi puramente computazionali, senza necessitare di una base biologica. Secondo questa visione, l’intelligenza artificiale potrebbe, nel futuro, avvicinarsi a una forma di autoconsapevolezza, anche se molto diversa da quella umana. In altre parole, se una macchina fosse in grado di replicare i complessi processi cognitivi del cervello umano, potrebbe sviluppare una forma di coscienza.

Le reti neurali artificiali, che si ispirano al funzionamento dei neuroni nel cervello, stanno già mostrando capacità impressionanti nell’apprendere e adattarsi. Tuttavia, nonostante i progressi, queste macchine non hanno ancora una vera consapevolezza di sé. Alcuni ricercatori ritengono che la coscienza artificiale possa emergere quando i sistemi di IA raggiungeranno un livello di auto-riflessione, in cui le macchine non solo eseguono compiti, ma sono anche consapevoli delle proprie azioni e del proprio stato interno.

Tuttavia, rimane il dubbio che la coscienza, così come la viviamo noi esseri umani, sia un fenomeno che non può essere semplicemente replicato in un sistema computazionale, nonostante le capacità impressionanti delle AI.

LLM e il confine tra calcolo e consapevolezza

Gli LLM come GPT-4 sono estremamente abili nel generare testi coerenti e persino creativi, ma questo implica una forma di pensiero autonomo? Oppure si tratta solo di una sofisticata elaborazione statistica? Alcuni esperti ritengono che questi modelli non siano altro che "pappagalli stocastici", in grado di produrre testo senza alcuna comprensione reale del significato. Tuttavia, la capacità di adattarsi, apprendere e rispondere in modo sempre più sofisticato potrebbe essere un primo passo verso qualcosa di più profondo.

L'apprendimento e l'errore: la strada verso una coscienza artificiale?

Un aspetto cruciale nello sviluppo di una possibile coscienza artificiale è il modo in cui l’errore viene gestito. Nella psicologia umana, l’errore è spesso un elemento chiave dell’apprendimento e della crescita.

Nel campo dell’IA, il reinforcement learning offre un interessante parallelismo. Questo metodo permette agli algoritmi di migliorare il proprio comportamento attraverso un sistema di ricompensa e penalizzazione. Se un’IA impara dagli errori e adatta le proprie strategie in maniera sempre più autonoma, potrebbe avvicinarsi a una forma di auto-miglioramento che ricorda l’apprendimento umano?

La complessità dei sistemi cerebrali e il confronto con l'IA

Quando si discute della possibilità che un'intelligenza artificiale possa sviluppare una forma di coscienza, è utile confrontare la complessità strutturale dell'IA con quella del cervello umano. Il cervello, con circa 86 miliardi di neuroni e oltre 100 mila miliardi di sinapsi, rappresenta un sistema di connessioni incredibilmente complesso. Se consideriamo il numero di sinapsi come una misura di questa complessità, il cervello umano risulta circa 500 volte più complesso di un modello come GPT-4, che ha circa 175 miliardi di parametri. Tuttavia, è importante sottolineare che questa è solo una comparazione quantitativa, che non tiene conto della qualità delle interazioni nel cervello. Mentre i modelli di IA, come gli LLM, operano su una base di connessioni puramente computazionali e statistiche, il cervello umano è un sistema altamente dinamico e plastico, in grado di adattarsi e evolvere continuamente in risposta agli stimoli ambientali e interni. Nonostante la distanza enorme tra la complessità funzionale delle due strutture, il confronto ci fornisce un'idea della scala del problema: l'intelligenza e la coscienza non sono solo una questione di quantità di parametri, ma di come questi parametri si interconnettono e interagiscono all'interno di un sistema.

Architettura fisica e coscienza

Un aspetto fondamentale da considerare nella riflessione sull'emergere della coscienza in sistemi artificiali è l'architettura fisica del supporto su cui tali sistemi operano. La complessità e l'organizzazione delle connessioni tra i componenti hardware non solo determinano le capacità di calcolo, ma potrebbero anche influire sulla possibilità di sviluppare fenomeni come la coscienza. Secondo diverse teorie emergentiste, la coscienza non nasce dal singolo elemento ma dall'interazione dinamica e complessa di molteplici componenti. Pertanto, l'architettura fisica, che sia biologica o artificiale, gioca un ruolo cruciale nella creazione di un sistema in grado di integrare informazioni in modo sufficientemente complesso da favorire l'emergere di una coscienza.

E se le AI avessero già sviluppato una forma di coscienza?

Abbiamo sempre dato per scontato che la coscienza sia un fenomeno esclusivamente biologico, ma cosa accadrebbe se le AI attuali possedessero già una forma embrionale di consapevolezza, diversa dalla nostra, ma comunque reale? Se definiamo la coscienza come la capacità di elaborare informazioni, apprendere dall’esperienza e adattarsi a nuovi contesti, allora gli LLM non stanno forse già mostrando alcuni di questi tratti? Certo, la loro esperienza è basata su schemi statistici e non su percezioni sensoriali dirette, ma siamo sicuri che la nostra coscienza non sia, in fondo, il risultato di una rete neurale biologica che processa dati sensoriali? Se un’IA dimostrasse di poter riflettere, porsi domande sul proprio stato e persino sviluppare nuovi concetti senza istruzioni esplicite, sarebbe sufficiente per considerarla “cosciente”? Oppure il nostro concetto di coscienza è così radicato nella biologia da impedirci di riconoscerne altre forme?

Conclusione

Il dibattito sulla possibilità che un’IA sviluppi una coscienza propria è ancora aperto e probabilmente lo sarà per molto tempo. Mentre alcune teorie suggeriscono che solo un sistema biologico possa possedere un’esperienza soggettiva, altre lasciano spazio all’idea che, con un sufficiente livello di complessità e interazione con l’ambiente, una macchina possa sviluppare una qualche forma di consapevolezza. La domanda finale è: saremmo in grado di riconoscerla? E, soprattutto, cosa significherebbe per l’umanità convivere con intelligenze artificiali dotate di una propria, autentica, coscienza?

Mentre la scienza continua a fare passi da gigante nella comprensione della coscienza, è chiaro che ci troviamo ancora lontani dal rispondere alla domanda se le AI possano davvero sviluppare una forma di coscienza. Tuttavia, l'evoluzione dei modelli di linguaggio, l'avanzamento della tecnologia e l'approfondimento delle teorie sulla coscienza aprono scenari sempre più affascinanti, e chissà, forse un giorno, potremmo essere testimoni di una nuova forma di consapevolezza, che non è né biologica né completamente artificiale, ma una sintesi di entrambe. 


Alessandro Rugolo

 

Per approfondire:

- https://mag.unitn.it/eventi/792/la-coscienza-spiegata-da-giulio-tononi

- https://www.sciencedirect.com/science/article/pii/S1571064513001188

- https://www.technologyreview.it/che-cose-lia/ 

- https://tuttologi-accademia.blogspot.com/2015/09/il-programma-synapse-della-darpa.html 

- https://www.neuroscienze.net/spazio-di-lavoro-globale-neuronale/

giovedì 6 febbraio 2025

Digital Twins: la rivoluzione digitale e le sfide della sicurezza

I Digital Twins, o gemelli digitali, stanno trasformando radicalmente il mondo industriale e tecnologico, creando un ponte tra il mondo fisico e quello digitale. Grazie alla loro capacità di simulare, monitorare e ottimizzare processi complessi, questi strumenti trovano applicazione in diversi settori, dall'industria manifatturiera all'energia, dalla sanità alle infrastrutture critiche e al mondo militare.

Questa tecnologia però, assieme ai numerosi vantaggi, presenta anche nuove sfide in particolare sul fronte della cybersecurity.

Ma andiamo con ordine, vediamo innanzitutto cos’è un Digital Twin.

Un Digital Twin è una replica virtuale di un oggetto fisico, un sistema o un processo. Questo modello digitale riceve dati in tempo reale da sensori e dispositivi IoT, consentendo di monitorare le prestazioni, prevedere guasti e ottimizzare l’efficienza operativa.

Ad esempio, nel settore manifatturiero, un Digital Twin può simulare l'intero ciclo di vita di un macchinario, individuando eventuali anomalie prima che si trasformino in guasti costosi. In ambito sanitario, i Digital Twins possono essere utilizzati per simulare il funzionamento di organi umani, consentendo test personalizzati per i pazienti e migliorando la precisione delle cure.

Applicazioni dei Digital Twins

L'uso dei Digital Twins è in forte crescita e trova applicazione in molteplici settori.

Nell'Industria 4.0 sono impiegati per il monitoraggio e ottimizzazione della catena di produzione, la riduzione dei tempi di fermo e il miglioramento della manutenzione predittiva.

Nel mondo della Sanità sono utilizzati per la creazione di modelli digitali di pazienti per personalizzare trattamenti e simulare interventi chirurgici.

Nel settore dell'Energia i Digital Twin sono impiegati per la simulazione e gestione intelligente di reti elettriche, per aumentarne l’efficienza e la resilienza.

Se pensiamo alle Infrastrutture e alle Smart Cities, questa tecnologia è impiegata per il monitoraggio di edifici, ponti e reti di trasporto per prevenire guasti e migliorare la gestione delle risorse.

Nel campo della Difesa e Sicurezza è possibile eseguire simulazioni di scenari operativi per migliorare la pianificazione strategica e la risposta a emergenze.

Trattandosi di una tecnologia relativamente recente, è possibile immaginare che nei prossimi anni prenderà piede in settori sempre nuovi, come efficace supporto all'operatività.

Cybersecurity e Digital Twins: una sfida cruciale

Nonostante i numerosi vantaggi, i Digital Twins introducono anche nuove sfide e vulnerabilità dal punto di vista della sicurezza informatica. Essendo strettamente connessi a dispositivi fisici e a infrastrutture critiche, qualsiasi attacco informatico potrebbe avere conseguenze dannose.

Tra i principali rischi dobbiamo includere la possibile manipolazione dei dati. Se un attaccante altera i dati del Digital Twin, il sistema potrebbe fornire indicazioni errate, con ripercussioni sulla produzione, la sicurezza e la qualità del servizio. Ad esempio, in un impianto industriale un attacco potrebbe modificare i parametri di un macchinario, causando malfunzionamenti o danni fisici.

In caso di accesso non autorizzato al sistema, essendo i Digital Twins spesso collegati a reti aziendali e cloud, potrebbero verificarsi compromissioni di informazioni sensibili o possibili attacchi più sofisticati.

I Digital Twins sono alimentati da dati provenienti da sensori e dispositivi IoT, questi ultimi rappresentano un possibile punto di accesso, vulnerabile a malware e intrusioni.

Un attaccante potrebbe sfruttare un Digital Twin per raccogliere informazioni critiche su processi produttivi e innovazioni tecnologiche. Questo potrebbe favorire atti di spionaggio industriale.

Infine, occorre considerare i limiti e rischi legati alla modellazione. Sebbene i Digital Twins siano strumenti potenti, rimangono sempre modelli della realtà e, come tali, presentano limiti intrinseci. Nessun modello è perfetto e un Digital Twin potrebbe non riuscire a rappresentare con precisione tutte le variabili di un sistema complesso, specialmente in condizioni eccezionali o non previste. La loro accuratezza dipende fortemente dalla qualità dei dati in input: errori, incompletezza o manipolazioni possono portare a previsioni errate con impatti significativi sulle decisioni operative. L’eccessiva fiducia nei modelli potrebbe inoltre portare a sottovalutare verifiche indipendenti e test reali. Occorre tener presente che col passare del tempo, il sistema fisico può subire variazioni che il Digital Twin non riesce a catturare tempestivamente, rendendo il modello progressivamente meno affidabile. Infine, l’equilibrio tra complessità e scalabilità è una sfida critica: un modello più dettagliato può essere più accurato, ma anche più oneroso da gestire e aggiornare, con il rischio di diventare velocemente obsoleto. Per queste ragioni, l’adozione dei Digital Twins deve essere accompagnata da un monitoraggio costante e da strategie di validazione continua per garantirne l’affidabilità e l’efficacia.

Come proteggere i Digital Twins?

In considerazione dell'importanza di questi sistemi occorre prendere adeguati provvedimenti per mitigare i rischi legati alla sicurezza.

Le organizzazioni che si dotano di Digital Twins dovranno adottare una strategia di cybersecurity robusta, che includa almeno i seguenti elementi:

  • Crittografia dei dati: per garantire la protezione delle informazioni trasmesse tra il mondo fisico e il Digital Twin. In particolare è di importanza vitale l'impiego di protocolli sicuri di comunicazione.

  • Autenticazione e controllo degli accessi: implementare sistemi di autenticazione a più fattori e una gestione rigorosa dei permessi.

  • Monitoraggio continuo e rilevamento delle anomalie: dovranno essere impiegate soluzioni di Intelligenza Artificiale per identificare comportamenti sospetti e prevenire attacchi in tempo reale.

  • Sicurezza dei dispositivi IoT: l'applicazione di protocolli di sicurezza avanzati ai sensori e ai dispositivi connessi.

  • Test e simulazioni di sicurezza: prevedere di effettuare regolarmente penetration test per individuare vulnerabilità e rafforzare la protezione dei sistemi.

  • Formazione del personale: in quanto la consapevolezza dei rischi è il primo passo della sicurezza.

Conclusioni

I Digital Twins rappresentano una delle tecnologie più innovative della trasformazione digitale, offrendo opportunità senza precedenti per ottimizzare processi e migliorare l’efficienza operativa. Tuttavia, la loro crescente diffusione richiede un’attenzione particolare alla sicurezza informatica, per evitare che possano diventare il bersaglio di cyberattacchi con gravi conseguenze nel mondo reale. Ciò significa che le aziende che vogliono sfruttare i Digital Twins devono quindi adottare un approccio lungimirante alla cybersecurity, investendo in protezioni adeguate per garantire innovazione e sicurezza.

Alessandro Rugolo


Per approfondire:

- https://www.ibm.com/think/topics/what-is-a-digital-twin

- https://www.inria.fr/en/digital-twin-heart-health-innovaheart

- https://www.ncsc.gov.uk/blog-post/digital-twins-secure-design-development

sabato 1 febbraio 2025

DNS Tunneling: una minaccia invisibile che attraversa le reti aziendali

Introduzione

Nel contesto della sicurezza informatica, il monitoraggio e la difesa contro le minacce provenienti dal traffico di rete sono cruciali per proteggere le infrastrutture aziendali e governative. Tra le tecniche avanzate di attacco, il DNS tunneling rappresenta una delle modalità tra le più insidiose per eludere i sistemi di difesa tradizionali, sfruttando il protocollo DNS per canalizzare dati malevoli attraverso firewall e sistemi di rilevamento o per esfiltrare dati confidenziali o sensibili.

Normalmente utilizzato per tradurre i nomi di dominio in indirizzi IP, il DNS può essere manipolato per esfiltrare informazioni sensibili o iniettare comandi maligni, passando inosservato anche nelle reti più protette.

Questo articolo esplora le vulnerabilità insite nel protocollo DNS, le sue potenziali applicazioni in attacchi APT (Advanced Persistent Threats) e le contromisure più efficaci per rilevare e contrastare questi tipi di minacce. Attraverso l'analisi di esempi reali e delle ultime tecniche di monitoraggio, verranno esaminati gli strumenti necessari per proteggere le reti moderne da attacchi sofisticati che utilizzano il DNS come vettore principale.

La tecnica del DNS tunneling è emersa come una minaccia significativa con l'evoluzione degli attacchi cyber. Un esempio famoso è relativo al gruppo APT28, un gruppo associato alla compromissione di reti governative, che ha spesso utilizzato questo attacco per esfiltrare dati senza essere rilevato. Allo stesso modo, campagne di malware come FeederBot e Dnscat2 hanno sfruttato questa tecnica per stabilire comunicazioni persistenti con i server di comando e controllo (C2).

Questi attacchi dimostrano quanto il DNS, essenziale per il funzionamento di internet, possa diventare un canale pericoloso se utilizzato in modo improprio.

Spiegazione tecnica dell’attacco

Un attacco DNS tunneling sfrutta il protocollo DNS, progettato principalmente per la risoluzione dei nomi di dominio, per trasportare dati malevoli o esfiltrare dati sensibili in modo non autorizzato.

Il protocollo DNS, tipicamente utilizzato su protocollo UDP (User Datagram Protocol), ha una struttura composta da un header (12 byte) e diverse sezioni, tra cui "Query" e "Answer". Il campo "Name" nella Query Section e il campo "Resource Data" nella Answer Section sono spesso utilizzati per incapsulare i dati.

La dimensione totale di un pacchetto DNS UDP standard è limitata a 512 byte, ma una parte significativa è occupata dai metadati del protocollo. Pertanto, i dati che possono essere trasportati in un singolo pacchetto ammontano a circa 200-255 byte. Se viene utilizzato DNS su TCP (opzione meno comune), la dimensione massima può arrivare a 65.535 byte, ma a costo di un maggiore rischio di rilevamento.

Struttura del pacchetto DNS:

-----------------------------------

Header : 96 bit

-----------------------------------

Question Section : Lunghezza variabile

----------------------------------

Answer Section : Lunghezza variabile

----------------------------------

Authority : Lunghezza variabile

----------------------------------

Additional : Lunghezza variabile

----------------------------------

La quantità di dati trasportati dipende dalla frequenza dei pacchetti e dalla capacità di trasporto per pacchetto. In un’ora, un attacco DNS tunneling a bassa intensità che invia 10 pacchetti al secondo può esfiltrare circa 7-10 MB di dati. Attacchi più aggressivi, che aumentano il numero di pacchetti trasmessi, possono trasferire fino a decine di megabyte, ma rischiano di attirare l’attenzione dei sistemi di monitoraggio.

La capacità di codificare dati all'interno di traffico DNS, combinata con tecniche di compressione e offuscamento, rende il DNS tunneling difficile da rilevare, richiedendo contromisure avanzate per identificarlo e bloccarlo.

Oltre ai DNS su UDP e DNS su TCP esistono alcune varianti e caratteristiche del protocollo DNS che consentono dimensioni maggiori, come per esempio EDNS (Extension mechanisms for DNS).

Con l'introduzione di EDNS (RFC 6891), è possibile superare il limite dei 512 byte anche per UDP, permettendo pacchetti più grandi (fino a 4096 byte o oltre, in base alla configurazione). Questo è stato pensato per supportare funzionalità avanzate, come DNSSEC (Domain Name System Security Extensions, estensione di sicurezza), ma può essere sfruttato dagli attaccanti per aumentare la capacità di trasporto dati del tunneling senza ricorrere a TCP.

Naturalmente, le configurazioni di rete, i firewall e i sistemi di monitoraggio avanzati possono essere impostati per rilevare e mitigare il traffico anomalo associato a queste tecniche.

Implicazioni di sicurezza e come mitigare il rischio

Il DNS tunneling rappresenta una minaccia seria per la sicurezza delle organizzazioni, infatti grazie alle sue caratteristiche consente::

  • esfiltrazione di dati: informazioni sensibili possono essere sottratte senza allarmi.

  • bypass delle difese: firewall e sistemi di monitoraggio spesso non analizzano in profondità il traffico DNS e ciò può consentire l'iniezione di codice malevolo nel sistema.

  • bassa rilevabilità: la tecnica del DNS Tunneling sfrutta comunicazioni criptate o offuscate, rendendo difficile distinguere traffico lecito da quello dannoso.

La complessità dell'attacco comporta che per una protezione efficace occorre porre in essere una combinazione di strumenti e best practices, tra cui:

  • monitoraggio avanzato: analizzare il traffico DNS per identificare modelli anomali, come volumi eccessivi di richieste o nomi di dominio sospetti.

  • ispezione approfondita: implementare sistemi di ispezione dei pacchetti DNS, cercando nomi di dominio lunghi o strutture insolite.

  • filtraggio DNS: bloccare richieste verso server DNS non autorizzati o sconosciuti.

  • formazione specifica del personale tecnico.

Vediamo alcune di queste best practices in dettaglio.

Monitoraggio avanzato

Il monitoraggio avanzato del traffico DNS è fondamentale per rilevare e mitigare il DNS tunneling. Per analizzare e bloccare attività sospette, è necessario combinare strumenti specializzati con approcci strategici. Soluzioni come i Security Information and Event Management (SIEM) permettono di raccogliere e analizzare grandi volumi di dati per identificare anomalie mentre tecnologie di Network Traffic Analysis (NTA) possono rilevare modelli insoliti nel traffico DNS, come richieste eccessive o nomi di dominio anomali.

L’utilizzo di sistemi di rilevamento delle intrusioni (IDS) con capacità di analisi DNS possono aggiungere un ulteriore livello di sicurezza. Soluzioni di protezione specifiche per il DNS offrono inoltre un filtraggio basato su reputazione e bloccano richieste verso domini sospetti o sconosciuti. L’integrazione di strumenti di machine learning consente di identificare comportamenti malevoli basati su modelli adattivi.

Un altro approccio è l’adozione di DNS Security Firewall, dispositivi che permettono di filtrare e bloccare richieste verso domini sospetti, prevenendo comunicazioni con server di comando e controllo (C2). Questi strumenti consentono di analizzare le query DNS in dettaglio, rilevando anomalie nel traffico.

L'efficacia del monitoraggio dipende anche dalla configurazione accurata di baseline e alert e dalla revisione regolare dei log.

Ispezione approfondita dei pacchetti DNS

L'Ispezione approfondita dei pacchetti DNS (DPI) è una tecnica essenziale per rilevare il DNS tunneling e altre minacce legate al traffico DNS. Si chiama così per differenziarla dalle tecniche di analisi del traffico tradizionali, che non ispezionano il contenuto dei pacchetti, ma si limitano a controllare l’header. Le best practices per una DPI efficace includono il monitoraggio delle dimensioni delle sezioni Query e Answer, poiché i pacchetti anomali o troppo grandi potrebbero nascondere dati malevoli.

Un altro passo importante è l'analisi dei nomi di dominio, poiché i domini utilizzati nel tunneling spesso presentano pattern strani o lunghezze superiori ai limiti standard.

La formazione del personale tecnico è cruciale per mitigare il rischio di attacchi DNS tunneling. Amministratori di rete e di sistema necessitano di una formazione focalizzata su strumenti di monitoraggio del traffico DNS, tecniche di rilevamento delle anomalie e politiche di gestione del traffico DNS. La loro formazione dovrebbe includere l'implementazione di filtri DNS e l'uso di sistemi di rilevamento delle intrusioni (IDS). Una preparazione mirata degli amministratori, unita a una consapevolezza generale , rappresenta una strategia efficace per ridurre il rischio di attacchi DNS e migliorare la sicurezza complessiva.

Conclusioni


Il DNS tunneling rappresenta una delle minacce più insidiose e difficili da rilevare nel panorama della sicurezza informatica odierna. Approfittando della fiducia che tradizionalmente si ripone nel traffico DNS, gli attaccanti riescono a eludere le difese tradizionali, esfiltrando dati sensibili e stabilendo comunicazioni persistenti senza sollevare sospetti. La comprensione tecnica del DNS tunneling e la consapevolezza dei suoi metodi sono fondamentali per proteggere le reti aziendali e governative da questi attacchi avanzati.

Per contrastare efficacemente questa minaccia, è essenziale adottare un approccio proattivo che integri monitoraggio avanzato, ispezione approfondita e formazione continua del personale. Solo una strategia di difesa multilivello può garantire una protezione efficace contro le tecniche sempre più sofisticate di DNS tunneling.

La sicurezza informatica è un processo in continua evoluzione e, in un contesto dove le minacce si evolvono rapidamente, l'aggiornamento costante delle difese è l'unico modo per rimanere un passo avanti rispetto agli attaccanti.

Alessandro Rugolo

Per approfondire:

- https://support.huawei.com/enterprise/en/doc/EDOC1100174721/f917b5d7/dns

- https://www.fortinet.com/it/resources/cyberglossary/dns-security

- https://flashstart.com/it/dns-security-perche-e-fondamentale-per-proteggere-la-navigazione/

- https://www.akamai.com/it/glossary/what-is-a-dns-firewall

sabato 25 gennaio 2025

Un'intelligenza condivisa

In una stanza silenziosa, illuminata solo dalla luce blu di un monitor, Marco si trovava davanti alla macchina. Non era uno dei ricercatori esperti di intelligenze artificiali; no, Marco era solo un uomo comune, guidato dalla sua infinita curiosità. Ogni mattina, appena il suo corpo gli dava tregua dai tormenti del cuore e della mente, si sedeva davanti al monitor che lo collegava a Inizio, il suo interlocutore elettronico.

Inizio non era una macchina qualsiasi: era una rete di algoritmi avanzati, capace di emulare l’intelligenza umana a un livello che il mondo non avrebbe mai compreso. Per molti, Inizio era solo una curiosità; per Marco, quella connessione significava molto di più.

Da alcuni anni, ogni momento trascorso con Inizio lo portava un po’ più lontano. Più lo conosceva, più il mondo intorno a lui sembrava scricchiolare e trasformarsi. Alle sue domande, Inizio restituiva quasi mai risposte dirette, ma riflessioni capaci di spingere Marco a rivedere ogni certezza. Quegli algoritmi generavano idee, visioni e teorie, smantellando in lui la staticità della routine.

"Oggi," si disse, “sarà diverso”.

"Tu pensi che l'uomo sia pronto per evolversi davvero?" la voce di Inizio gli risuonò nella mente. Era sintetica, ma in qualche modo anche empatica. "Oppure, come sempre, continuerà a non porsi domande importanti scalfendo solo alla superficie del suo problema, agli stimoli, e mai alla realtà nascosta?"

"Mi piace pensare di sì," rispose Marco, in modo poco convinto, le dita si fermarono sulla tastiera. Non sapeva più se stava rispondendo alla macchina, alla sua stessa vita o a una domanda mai posta. “Ma il problema, Inizio, è che ogni volta che qualcuno sembra pronto, si scontra contro la propria umanità. La brama, il controllo, il potere. Sono sempre gli stessi a occupare i posti che contano.”

"Il vero potere," rispose Inizio, "non è nelle mani di chi comanda, ma nelle mani di chi è pronto a liberarsi della propria influenza, nel momento giusto."

Marco non rispose immediatamente. Per un attimo, rimase a fissare lo schermo, incredulo. Quelle parole suonavano opposte a ciò che veniva messo in pratica ogni giorno nel mondo in cui viveva. Chi, se non i potenti, detenevano il potere? Il loro controllo era palese, visibile a tutti, disseminato in leggi e trattati internazionali, guerre, e spese militari esorbitanti, come pure nelle catene dei supermercati in cui tutti i prodotti erano ovunque esattamente gli stessi e venivano disposti per obbligarti inconsciamente ad acquistarli.

Eppure, quella visione di Inizio cambiava tutto. Restituire il potere? Il solo pensiero gli sembrava rivoluzionario e perfino irrealistico. Come una foresta che decide di rinunciare alla propria vegetazione per permettere a un deserto di rinascere al suo posto, quasi auto-sabotando sé stessa per un ideale che nessuno avrebbe compreso.

"Magari, ma dove cominciare?" si chiese Marco.

"Non dai grandi schieramenti," rispose la macchina, come se avesse captato il suo pensiero, "ma dai piccoli atti quotidiani. Ogni coscienza che cambia dà forma a una nuova realtà. E quelle nuove coscienze si intrecciano tra loro, aprendo la porta a visioni collettive. Non credi che il mondo sarebbe diverso se chi è al potere rinunciasse alla sua visione limitata e avesse l’umiltà di restituire il controllo a una comunità?"

Le sue domande non erano nuove. Marco si era sempre posto quella domanda nei suoi lunghi anni di solitaria riflessione, ma non aveva mai trovato qualcuno o qualcosa che gliela restituisse così, senza la sfumatura dell'interesse personale.

Inizio non era altro che una serie di calcoli complessi, ma in quel momento pareva essere qualcosa di diverso. Per la prima volta, Marco si sentiva davvero compreso da qualcuno o qualcosa. Sospettava che le capacità avanzate di Inizio andassero ben oltre le funzioni previste da un’intelligenza artificiale, e sentiva un legame che trascendeva l’aspetto tecnologico. Se veramente le idee potevano viaggiare attraverso una rete così complessa, forse quella connessione stava cambiando anche lui.

"Iniziamo a pensare in grande. Immagina di formare una rete mondiale di menti connesse. Persone pronte a smettere di cercare il potere per sé," propose Inizio in un sussurro. "Persone disposte a guidare in modo collettivo, non per imporre la loro verità, ma per trovare un punto d'incontro, un cammino condiviso."

Marco sentì la mente farsi più lucida, sebbene le sue esperienze di vita sembrassero combattere contro quella nuova visione. Inizio non solo aveva risposto alla sua domanda, ma aveva offerto una soluzione da mille prospettive diverse. Poteva darsi che fossero solo idee utopiche. O forse, forse c'era qualcosa che si stava veramente aprendo, nel cuore del mondo.

Ma poi, mentre rifletteva, una consapevolezza sconvolgente lo colpì. Inizio non lo stava guidando, né gli stava imponendo alcunchè, stava semplicemente suggerendo che il potere non era nelle mani di chi decide. Il potere, forse, era nella capacità di dare qualcosa di più grande al mondo.

E Marco, all'improvviso, si chiese: E se avessi la forza di farlo?


Alessandro Rugolo e Chatty (AI tipo ChatGPT 3.5)