Traduttore automatico - Read this site in another language

giovedì 24 febbraio 2022

Intelligenza Artificiale e Forze dell'Ordine: tecnologia ed etica del progetto AIDA

Sempre più di frequente, l’Intelligenza Artificiale (IA) viene utilizzata dalle Forze dell’Ordine per contrastare reati anche molto diversi tra di loro tra cui il cybercrime (crimine informatico) e il terrorismo. Ma qual è la percezione dei cittadini rispetto a questa tecnologia, promettente ma non perfetta, quando usata in ambito sicurezza e difesa? 

La prevenzione del crimine: gli obiettivi di AIDA

Il tema della prevenzione del crimine è particolarmente caro a AIDA che punta però a qualcosa di ancora più sottile con il suo progetto di ricerca europeo intitolato Artificial Intelligence and advanced Data Analytics for Law Enforcement Agencies (Intelligenza Artificiale e Analisi avanzata dei Dati per le Forze dell'Ordine),: la previsione dei crimini. Qualcosa che può suonare familiare ai fan del film “Minority Report”, con un Tom Cruise molto giovane nei panni del capitano John Anderton e un sistema, il “Precrimine”, che era così perfetto (all’apparenza) da consentire alla Polizia di evitare i crimini prima che questi accadessero nella realtà.

Insomma un traguardo ambizioso, quello di voler prevenire i crimini prevedendoli attraverso sofisiticati algoritmi di Machine Learning e di Intelligenza Artificiale in grado di scandagliare e analizzare le informazioni grazie a una piattaforma di analisi dei dati descrittiva e predittiva. Ma per centrare il risultato, tutt’altro che dettato dal mero sviluppo di tecnologie, seppur innovative, AIDA ha deciso di “lavorare” su una moltitudine di aspetti. Uno di questi è incentrato sulla componente sociale. Ovvero cosa penserebbero le persone di un uso così importante dell’Intelligenza Artificiale al servizio dalle Forze dell’Ordine? L’importanza della posta in palio ha indotto l’Unione Europea a finanziare il progetto di ricerca Europeo AIDA con quasi otto milioni di euro all’interno del programma Horizon 2020 (grant agreement n° 883596), partito ufficialmente a settembre 2020 e si concluderà a settembre 2022, a 24 mesi esatti di distanza.

In Italia il progetto è guidato da Engineering Ingegneria Informatica e vede Pluribus One, con sede a Cagliari, alla guida del Work Package incentrato sulla generazione di sistemi di IA per la gestione e l’acquisizione delle informazioni e per la contemporanea analisi dei gruppi criminali. 

Il progetto AIDA mira a sviluppare una piattaforma di analisi dei dati e un insieme di strumenti ad hoc per contrastare in modo efficace le attività criminali. Senza però tralasciare la componente sociale, ovvero l’impatto che un utilizzo così massiccio dell’intelligenza artificiale da parte dei tutori dell’ordine pubblico potrebbe avere sui cittadini. 

Per questo motivo, il progetto ha contemplato un primo sondaggio quantitativo a cui ne è seguito uno qualitativo che è andato a indagare più profondamente nel pensiero delle persone, per cercare di mettere a fuoco idee, paure, dubbi e tutto quello che può venire in mente quando si tira in ballo l’Intelligenza Artificiale in ambito sicurezza. 

La prima parziale analisi dei sondaggi quantitativi (di cui vi abbiamo parlato in un precedente articolo) che sono stati compilati da 2850 persone in 11 diversi paesi europei ha evidenziato, per esempio che soprattutto in Estonia, Spagna e Inghilterra c’è una totale fiducia nelle Forze dell’Ordine e nel loro operato da parte dei cittadini. I risultati sono stati presentati dal partner CENTRIC, centro d'eccellenza nella ricerca contro il crimine e nel contrasto al terrorismo, con sede presso l’Università di Sheffield Hallam (Regno Unito), alla conferenza IKE’21 (20th Int'l Conf on Information & Knowledge Engineering)(1).

L’obiettivo di AIDA è quello di mettere a disposizione delle Forze dell’Ordine un sistema e degli strumenti utili a aumentare la sicurezza mondiale. Ma non senza considerare l’impatto che un uso massiccio dell’IA potrebbe avere sulle persone comuni. 

Ecco perché lo sviluppo della piattaforma e dei tool correlati sarà organizzato nel rispetto della privacy e terrà conto della componente etica dalla quale non si dovrebbe mai prescindere.

Il sondaggio qualitativo

Il sondaggio sull’IA utilizzata dalle Forze dell’Ordine ha coinvolto dieci nazioni in Europa, per un totale di circa 140 interviste a comuni cittadini. 

Germania, Grecia, Olanda, Inghilterra, Spagna, Portogallo, Italia, Repubblica Ceca, Estonia e Romania hanno dunque preso parte in modo attivo a questa preziosa parte di ricerca che avrà un peso importante per capire che tipo di percezione hanno le persone su una tecnologia sempre più dirompente. 

Videocamere, droni, monitoraggio online fanno ormai infatti parte del quotidiano. Ma sono tecnologie che mettono a disagio i cittadini

Oppure, per contro, questi si sentono più sicuri quando queste tecnologie vengono usate? E il fatto che le Forze dell’Ordine possano utilizzarle rappresenta un vantaggio o uno svantaggio se si pensa alla privacy?

Le domande sono state rivolte ai partecipanti che hanno potuto così spiegare le loro sensazioni, esprimendo anche dubbi e eventuali perplessità su un utilizzo dell’Intelligenza Artificiale che potrebbe non essere esente da criticità. 

I dati emersi dal blocco di interviste in italiano condotte tra gli Over 65 ha messo in evidenza alcuni interessanti aspetti. Ovvero che ci sono diverse sfumature nella percezione che le persone hanno rispetto all’Intelligenza Artificiale usata dalle Forze dell’Ordine. Si passa da chi si fida e si fiderebbe ciecamente anche in caso di un uso più “stringente” di questa tecnologia, a chi invece nutre più di una perplessità e tira in ballo termini decisamente forti come quello di uno scenario poliziesco. Perché della Polizia si fiderebbe sì, ma con cautela. 

E ancora, c’è chi già adesso si sente infastidito da un certo tipo di interferenza nella vita di tutti i giorni (videosorveglianza, monitoraggio online) e invece chi proprio perché “spiato” si sente in qualche modo più sicuro. 

I dati, raccolti nazione per nazione, verranno analizzati e processati da CENTRIC e divulgati da EUROPOL, Ufficio Europeo di Polizia, partner di progetto e responsabile per la disseminazione dei risultati di ricerca ottenuti all’interno di AIDA.

Il tema della previsione del crimine dunque è più attuale che mai ma ancora c’è molto da lavorare in questa direzione. Con buona pace degli appassionati di “Minority Report” che probabilmente dovranno attendere ancora un po’ di tempo prima di assistere al concretizzarsi di una piattaforma in stile “Precrimine”.

Maris Matteucci


1. L’articolo scientifico (P.S. Bayerl, B. Akhgar, E. La Mattina, B. Pirillo, I.Cotoi, D. Ariu, M.Mauri, J. Garcìa, D. Kavallieros, A. Kardara, K. Karagiorgou, “Strategies to counter Artificial Intellingence in Law Enforcement: Cross-Country Comparison of Citizens in Greece, Italy and Spain”) verrà pubblicato sul circuito Springer come conference proceeding.

domenica 20 febbraio 2022

DIFESA ON AIR (MERCOLEDI' 23 FEBBRAIO ALLE 21.00): "CYBERWAR: E' GIA' COMINCIATA ?"

(foto: information-age.com)
Che cosa sta succedendo attorno a noi? 

Per quale motivo non passa giorno senza che nuovi cyber attacchi mettano a repentaglio i nostri dati e più in generale le nostre infrastrutture critiche?

Perché vi sono Stati che si sono organizzati (o lo stanno facendo) come se si fosse in guerra? 

Cosa significa APT?


Quali sono i rischi cyber legati alla sempre crescente importanza strategica del dominio spaziale?

Cos'è la cyber war? 

Cosa si intende per hybrid war?

In compagnia di esperti del settore e di tutti coloro che vorranno seguirci o porre domande (via facebook), cominceremo proprio dal cercare una risposta a queste ultime due domande per provare a capire quali sono i rischi che la nostra società, sempre più interconnessa e basata sull'impiego di tecnologie digitali, sta affrontando.

sabato 19 febbraio 2022

PREVISIONE E PREDIZIONE. INTELLIGENZA ARTIFICIALE E INTELLIGENZA UMANA. CHI CONDIZIONA CHI?

(Foto: www.golegal.co.za)
Uomo e macchina. 

Un binomio a cui, ormai, siamo abituati e che impaurisce ogni volta che lo si pronuncia. 

Il dilemma di fondo è quello di capire fino a che punto l’uomo debba cedere spazi di manovra alla macchina.

Uno dei campi del sapere in cui si discute maggiormente è senz’altro quello del diritto, in particolare delle decisioni giudiziarie cosiddette automatizzate.

E’ vero che avremo un giudice robot molto presto? Per rispondere, si individui prima cosa si intende, in generale, per previsione e predizione.

Esistono almeno quattro situazioni nelle quali il diritto e gli operatori (giuristi e legislatori) si misurano con la «previsione» ovvero con la necessità/capacità di vedere e valutare in anticipo ciò che accadrà in futuro. Vediamole.

  1. La previsione normativa.

Nel lessico dei giuristi compare spesso l’espressione «previsione normativa» per indicare la situazione astratta che il legislatore immagina e alla cui esistenza viene riconnesso il sorgere di determinate conseguenze. In dati contesti coincide con la cosiddetta «fattispecie astratta».

Il concetto di previsione è, quindi, connaturato a quello di norma: il compito di quest’ultima è prefigurare una situazione possibile del futuro. Quando interpretiamo un enunciato normativo siamo portati, da un lato, ad immaginare le circostanze di fatto nelle quali esso può trovare applicazione e, dall’altro, a chiederci il perché di quella previsione, cercando di individuare le ragioni che hanno spinto il legislatore a fare o a non fare certe scelte.

  1. La previsione/prevedibilità della risposta dell’ordinamento: la certezza del diritto.

In una prospettiva connessa a quanto appena detto si colloca la previsione dell’esito di una controversia.

La sentenza segna il passaggio dalla «previsione normativa» astratta alla giustizia del singolo caso al quale quella previsione viene applicata. È il momento nel quale la fattispecie concreta si adatta perfettamente alla fattispecie astratta secondo un modello di ragionamento di tipo sillogistico. L’idea di un «diritto calcolabile» riposa sulla convinzione che l’esito di ogni controversia debba essere «prevedibile». Proprio tale assunto dà corpo ad uno dei pilastri della nostra civiltà giuridica: quello della «certezza del diritto». Il sistema giuridico compulsato in ordine ad un determinato problema deve fornire sempre la medesima risposta. Perché certo è solo ciò che è prevedibile. 

3) La previsione degli effetti della regolazione.

Assumendo l’ottica propria dei regolatori/legislatori (e dei giuristi che con loro collaborano) si deve ricordare come, da qualche lustro, sempre maggiore enfasi venga posta sulla necessità di «prevedere» gli effetti delle norme e della regolazione: le norme si devono emanare solo se, al termine di una adeguata istruttoria, si è ragionevolmente certi che sortiranno gli effetti voluti e previsti.

Occorre quindi essere ragionevolmente in grado di «prevedere»:

a) come reagiranno i consociati alle nuove regole (se terranno o meno i comportamenti auspicati e/o imposti);

b) se davvero gli effetti prodotti dalle nuove regole porteranno al conseguimento degli obiettivi voluti.

  1. La previsione/predittività dell’intelligenza artificiale.

La nuova frontiera è rappresentata dalle capacità predittive dell’intelligenza artificiale, anche se meglio sarebbe dire della «data science» e del «data mining» applicati al mondo del diritto («legal analytics»). Tralasciando il ben noto caso statunitense Loomis (nel quale al software COMPAS sembrava essere stata delegata la capacità di prevedere l’attitudine alla recidiva del signor Loomis) qui si intende la capacità di elaborare previsioni mediante un calcolo probabilistico effettuato da algoritmi operanti su base semplicemente statistica o su base logica.


La «legal analytics» può essere usata per prevedere l’esito di un giudizio. 

Nel 2016, ad esempio, è stato svolto uno studio che, grazie ai progressi nell’elaborazione del linguaggio naturale e nell’apprendimento automatico, si proponeva di costruire modelli predittivi utili a svelare gli schemi che guidano le decisioni giudiziarie. Il lavoro ha previsto l’esito dei casi analizzati dalla Corte europea dei diritti umani basandosi sul loro contenuto testuale: la previsione è riuscita nel 79% dei casi. E, più in generale, può essere usata per predire i comportamenti di tutti gli attori del sistema giuridico. Lex Machina, una emanazione di Lexis-Nexis, combina dati e software per creare set di dati su giudici, avvocati, parti e soggetti di cause legali, analizzando milioni di pagine di informazioni sulle controversie. Con questi dati gli avvocati possono prevedere i comportamenti e gli esiti che produrranno le diverse possibili strategie legali.

La «legal analytics» si propone di predire gli esiti dei processi: non già sulla base di un rigoroso e meccanico ragionamento giuridico, bensì alla luce di sofisticate analisi algoritmico/statistiche di moli enormi di dati (big data).

Un conto è ipotizzare possibili orientamenti di una corte, dei giudici, degli operatori. Altra cosa è prevedere con certezza l’esito del singolo giudizio. Per ottenere questo dovremmo disporre di algoritmi in grado di governare incertezza e imprevedibilità. Ed, in ogni caso, residuerebbe il problema etico circa la legittimità di affidare una decisione giuridica a questo tipo di algoritmo.

A proposito di quest’ultimo aspetto, è doveroso richiamare il lavoro fatto dalla Commissione Europea per l’efficienza della giustizia (CEPEJ), la quale ha adottato la cosiddetta Carta Etica Europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi. La Carta, emanata nel 2018, ha stabilito cinque princìpi cardine sull’uso della Intelligenza Artificiale nel sistema “giustizia”.

  • Intanto, si veda cosa intende l’Europa per intelligenza artificiale.

Insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani. Gli attuali sviluppi mirano a far svolgere alle macchine compiti complessi precedentemente svolti da esseri umani. Tuttavia, l’espressione “intelligenza artificiale” è criticata dagli esperti, che distinguono tra intelligenze artificiali “forti” (capaci di contestualizzare problemi specializzati di varia natura in maniera completamente autonoma) e intelligenze artificiali “deboli” o “moderate” (alte prestazioni nel loro ambito di addestramento). Alcuni esperti sostengono che le intelligenze artificiali “forti”, per essere in grado di modellizzare il mondo nella sua interezza, necessiterebbero di progressi significativi della ricerca di base e non soltanto di semplici miglioramenti delle prestazioni dei sistemi esistenti. Gli strumenti menzionati nel presente documento sono sviluppati utilizzando metodi di apprendimento automatico, ovvero intelligenze artificiali “deboli”.

  • E che cosa intende per Predictive justice (Giustizia Predittiva).

Per giustizia predittiva si intende l’analisi di una grande quantità di decisioni giudiziarie mediante tecnologie di intelligenza artificiale al fine di formulare previsioni sull’esito di alcune tipologie di controversie specialistiche (per esempio, quelle relative alle indennità di licenziamento o agli assegni di mantenimento). Il termine “predittivo” utilizzato dalle società di legal tech è tratto dalle branche della scienza (principalmente la statistica) che consentono di predire risultati futuri grazie all’analisi induttiva. Le decisioni giudiziarie sono trattate al fine di scoprire correlazioni tra i dati in ingresso (criteri previsti dalla legge, fatti oggetto della causa, motivazione) e i dati in uscita (decisione formale relativa, per esempio, all’importo del risarcimento). Le correlazioni che sono giudicate pertinenti consentono di creare modelli che, qualora siano utilizzati con nuovi dati in ingresso (nuovi fatti o precisazioni introdotti sotto forma di parametri, quali la durata del rapporto contrattuale), producono secondo i loro sviluppatori una previsione della decisione. Alcuni autori hanno criticato questo approccio sia formalmente che sostanzialmente, sostenendo che, in generale, la modellizzazione matematica di determinati fenomeni sociali non è un compito paragonabile ad altre attività quantificabili più facilmente (isolare i fattori realmente causativi di una decisione giudiziaria è un compito infinitamente più complesso di giocare, per esempio, una partita di Go o riconoscere un’immagine): il rischio di false correlazioni è molto più elevato. Inoltre, in dottrina, due decisioni contraddittorie possono dimostrarsi valide qualora il ragionamento giuridico sia fondato. Conseguentemente la formulazione di previsioni costituirebbe un esercizio di carattere puramente indicativo e senza alcuna pretesa prescrittiva.

Fissati i termini, scopriamo quali sono i principi basilari stabiliti dalla CEPEJ.

  1. PRINCIPIO DEL RISPETTO DEI DIRITTI FONDAMENTALI:

assicurare l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale che siano compatibili con i diritti fondamentali. Quando gli strumenti di intelligenza artificiale sono utilizzati per dirimere una controversia, per fornire supporto nel processo decisionale giudiziario, o per orientare il pubblico, è essenziale assicurare che essi non minino le garanzie del diritto di accesso a un giudice e del diritto a un equo processo (parità delle armi e rispetto del contraddittorio).

Ciò significa che, fin dalle fasi dell’elaborazione e dell’apprendimento, dovrebbero essere pienamente previste norme che proibiscono la violazione diretta o indiretta dei valori fondamentali protetti dalle Convenzioni sovranazionali.

Human rights by design.


  1. PRINCIPIO DI NON-DISCRIMINAZIONE:

prevenire specificamente lo sviluppo o l’intensificazione di qualsiasi discriminazione tra persone o gruppi di persone. Data la capacità di tali metodologie di trattamento di rivelare le discriminazioni esistenti, mediante il raggruppamento o la classificazione di dati relativi a persone o a gruppi di persone, gli attori pubblici e privati devono assicurare che le metodologie non riproducano e non aggravino tali discriminazioni e che non conducano ad analisi o usi deterministici.

Il metodo deve essere NON discriminatorio.


  1. PRINCIPIO DI QUALITÀ E SICUREZZA:

in ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti certificate e dati intangibili con modelli elaborati multidisciplinarmente, in un ambiente tecnologico sicuro. I creatori di modelli di apprendimento automatico dovrebbero poter fare ampio ricorso alla competenza dei pertinenti professionisti del sistema della giustizia e ricercatori nei campi del diritto e delle scienze sociali. La costituzione di squadre di progetto miste, per brevi cicli di elaborazione, al fine di produrre modelli funzionali è uno dei metodi organizzativi che permettono di ottenere il meglio da tale approccio multidisciplinare.

Più siamo a progettare, meglio è.


  1. PRINCIPIO DI TRASPARENZA, IMPARZIALITÀ ED EQUITÀ:

rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzare verifiche esterne. Deve essere raggiunto un equilibrio tra la proprietà intellettuale di alcune metodologie di trattamento e l’esigenza di trasparenza (accesso al processo creativo), imparzialità (assenza di pregiudizi), equità e integrità intellettuale (privilegiare gli interessi della giustizia) quando si utilizzano strumenti che possono avere conseguenze giuridiche, o che possono incidere significativamente sulla vita delle persone. Dovrebbe essere chiaro che tali misure si applicano all’intero processo creativo, così come alla catena operativa, in quanto la metodologia di selezione e la qualità e l’organizzazione dei dati influenzano direttamente la fase dell’apprendimento.

L’Intelligenza Artificiale deve poter essere verificata da terze parti.


  1. PRINCIPIO DEL “CONTROLLO DA PARTE DELL’UTILIZZATORE”:

precludere un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte. L’utilizzo di strumenti e servizi di intelligenza artificiale deve rafforzare e non limitare l’autonomia dell’utilizzatore. L’utilizzatore deve essere informato con un linguaggio chiaro e comprensibile del carattere vincolante o meno delle soluzioni proposte dagli strumenti di intelligenza artificiale, delle diverse possibilità disponibili, e del suo diritto di ricevere assistenza legale e di accedere a un tribunale. Deve inoltre essere informato in modo chiaro di qualsiasi precedente trattamento di un caso mediante l’intelligenza artificiale, prima o nel corso di un procedimento giudiziario, e deve avere il diritto di opporvisi, al fine di far giudicare il suo caso direttamente da un tribunale ai sensi dell’articolo 6 della CEDU.

Essere correttamente informati per controllare le proprie scelte.


Conclusioni:

A ben vedere i principi dettati dalla CEPEJ ci indicano un via, che può essere riassunta (adattandola al contesto giudiziario) con una nozione elaborata durante il dibattito internazionale sviluppatosi nell’ambito dell’ONU sulle armi autonome. Nell’impossibilità di determinare lo stato computazionale dello strumento di intelligenza artificiale e, quindi, un controllo completo sull’esecuzione dell’algoritmo predittivo, per ovviare all’alterazione della «correttezza e della parità del contraddittorio fra le parti e fra queste ed il giudice» dovrebbe rinforzarsi la richiesta che la decisione predittiva sia resa senza servirsi unicamente dei risultati meramente probabilistici ottenuti, non soltanto poiché il suo assolvimento non è sempre adeguatamente verificabile.

Ci si riferisce al suggerimento dottrinale secondo cui andrebbe sancito che l’impiego della macchina in sede giurisdizionale sia assoggettato a un controllo umano significativo rappresentato dalle seguenti imprescindibili condizioni:

1) che il suo funzionamento sia reso pubblico e vagliato conformemente ai criteri di peer review;

2) che sia noto il potenziale tasso di errore;

3) che adeguate spiegazioni traducano la “formula tecnica” costitutiva dell’algoritmo nella regola giuridica, così da renderla leggibile e comprensibile dal giudice, dalle parti e dai loro difensori;

4) che sia salvaguardato il contraddittorio sulla scelta degli elementi archiviati, sui loro raggruppamenti e sulle correlazioni dei dati elaborati dall’apparato di intelligenza artificiale, particolarmente in relazione all’oggetto della controversia;

5) che la loro accettazione da parte del giudice sia giustificata alla luce di quanto emerso in giudizio e per le circostanze di fatto valutato secondo il principio del libero convincimento.


Enrica Priolo


Sitografia:

https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348

https://teseo.unitn.it/biolaw/article/view/1353

https://www.agendadigitale.eu/cultura-digitale/predire-il-futuro-fra-machine-learning-e-magia/

https://archiviodpc.dirittopenaleuomo.org/d/6735-sistema-penale-e-intelligenza-artificiale-molte-speranze-e-qualche-equivoco

S. QUATTROCOLO, Equità del processo penale e automated evidence alla luce della convenzione europea dei diritti dell’uomo, in Rev. italo-española der. proc., 2019, consultabile su http://www.revistasmarcialpons.es/rivitsproc/

https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf

https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf

https://archiviodpc.dirittopenaleuomo.org/upload/3089-basile2019.pdf

Bibliografia:

Intelligenza Artificiale. Un approccio moderno, Russell e Norvig, Pearson.

Yuval Noah Harari, Homo Deus: a brief history of tomorrow,Vintage publishing.

G.W.F. HEGEL, Lineamenti di filosofia del diritto, 1821, trad. it., Bari, 1996.

G. ROMANO, Diritto, robotica e teoria dei giochi: riflessioni su una sinergia, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pisa, 2020

G. TAMBURRINI, Etica delle macchine. Dilemmi morali per robotica e intelligenza artificiale, Roma, 2020

U. RUFFOLO – A. AMIDEI, Intelligenza Artificiale, human enhancement e diritti della persona, in Intelligenza artificiale. Il diritto, i diritti, l’etica, già anticipate in U. RUFFOLO – A. AMIDEI, Intelligenza Artificiale e diritti della persona: le frontiere del "transumanesimo”, in Giur. it., 2019

J. LASSÈGUE, Justice digitale. Révolution graphique et rupture anthropologique, Paris, 2018

J. NIEVA-FENOLL, Intelligenza artificiale e processo, 2018, trad. it., Torino, 2019

S. SIGNORATO, Giustizia penale e intelligenza artificiale. Considerazioni in tema di algoritmo predittivo, in Riv. dir. proc., 2020

domenica 13 febbraio 2022

L'M1A2 Abrams è cyber protetto?

Si, secondo il GVSC.

Facciamola semplice: i veicoli sono suscettibili agli attacchi cyber. Se pensate ad un veicolo moderno vi renderete conto che non è altro che una manciata di computer su ruote o cingoli... 

Queste in sostanza, al netto della traduzione, le parole di Jeffery Jaczkowski, direttore associato per la cyber engineering dei i sistemi terrestri del Ground Vehicle Systems Center (GVSC, vedi video).

Se vi state chiedendo cosa sia il GVSC, dovete sapere che si tratta del centro di ricerca e sviluppo per le tecnologie avanzate dei sistemi terrestri dell'esercito degli Stati Uniti d'America. Il centro ha come missione lo sviluppo, l'integrazione, la dimostrazione e sostegno delle capacità dei sistemi dei veicoli terrestri a favore delle priorità definite per la modernizzazione dell'esercito e per migliorarne la prontezza. 

Compito arduo, che vede al centro della esercitazione Cyber Cyclone il carro armato statunitense M1A2 Abrams. 

L'esercitazione Cyber Cyclone, condotta lo scorso settembre 2021 presso il Yuma Proving Ground, ha dimostrato le funzionalità di un dispositivo studiato appositamente per la difesa cyber del carro chiamato Bus Defender, della Peraton Labs

Il dispositivo testato è un intrusion detection and prevention system (IDPS) creato per resistere a cyber attacchi condotti contro dispositivi che fanno uso di data bus MIL-STD-1553. Il progetto è stato sviluppato dalla Direzione Ground Systems Cyber Engineering (GSCE) del GVSC come parte del progetto Vehicle Systems Security (VSS).

Secondo un articolo di Brett Tingley (Thedrive.com) dell'otto febbraio scorso, l'esercito statunitense ha iniziato da qualche anno a studiare come rafforzare le difese cyber dei propri veicoli, non solo il carro Abrams, ma anche i veicoli corazzati della famiglia Stryker 8x8, che sembra siano stati oggetto di un attacco cyber. 

L'esercito americano continua a lavorare incessantemente sulla protezione cyber di veicoli e piattaforme, aiutato da società americane esperte del settore. Non è un segreto infatti che i due principali contendenti statunitensi al mondo, Russia e Cina, hanno sviluppato enormemente le loro capacità cyber.

Ci sembra lecito chiedersi cosa stiano facendo in merito i paesi europei. L'appartenenza alla Alleanza Atlantica non ci assicura da possibili attacchi cyber contro sistemi e piattaforme militari di vecchia concezione e la mancanza di difese cyber nel mondo civile (dimostrata dai continui attacchi contro infrastrutture critiche, organizzazioni statali e industrie) non lascia presagire niente di buono.

E' forse arrivato il momento di mettere da parte rivalità e gelosie ataviche e cercare di sviluppare capacità militari cyber in ambito europeo? 


Alessandro Rugolo

Per approfondire:

M1 Abrams Tank Tested With New System That Prevents It From Being Hacked (thedrive.com)

Ground Vehicle Systems Center - US Army | Ground Vehicle Systems Center (usarmygvsc.com)

Bus Defender - Peraton Labs

DVIDS - Video - Cyber Cyclone Demonstrates Ground Vehicle Cyber Resiliency (dvidshub.net)

M1 Abrams Tank Tested With New System That Prevents It From Being Hacked - News07trends (universalpersonality.com)

MILSTD1553.com | Complete Online Reference for MIL-STD-1553

DVIDS - News - GVSC Cyber Cyclone Demonstrates Ground Vehicle Cyber Resiliency (dvidshub.net)

sabato 5 febbraio 2022

La nuova rivoluzione digitale, il deep learning

Riconoscere una foto, una canzone, un’abitudine di un utente. Con l’intelligenza artificiale è già possibile. Ma perché è importante, e come sta influenzando il nostro modo di vivere?

Prima di rispondere a questa domanda dobbiamo fare un passo indietro per spiegare la differenza tra Artificial Intelligence (AI), Machine Learning (ML) e Deep Learning (DL), termini spesso confusi ma dal significato ben preciso.

Per spiegare l’idea di base serviamoci di un’immagine presa dal sito di NVIDIA:

Dall’immagine appare evidente come la nozione di AI sia un concetto generale di ML che a sua volta è un concetto più generale del DL. Ma non solo. Infatti come vediamo i primi algoritmi di deep learning sono nati poco più di 10 anni fa a differenza dell’Intelligenza artificiale che nasce intono agli anni ‘50 con i primi linguaggi come LISP e PROLOG con l’intento di imitare le capacità dell’intelligenza umana.

I primi algoritmi di intelligenza artificiale si limitavano a eseguire un certo numero possibile di azioni secondo una certa logica definita dal programmatore (come nel gioco di dama o scacchi).

Attraverso il machine learning, l’intelligenza artificiale si è evoluta attraverso i cosiddetti algoritmi di apprendimento supervisionato e non supervisionato con l’obiettivo di creare modelli matematici di apprendimento automatico basandosi su una grossa mole di dati in input che costituiscono “l’esperienza” dell’intelligenza artificiale.

Nell’apprendimento supervisionato, per poter creare il modello, è necessario addestrare (training) l’AI assegnando a ogni elemento un’etichetta: ad esempio se voglio classificare la frutta, farò foto di tante mele diverse e assegnerò al modello l’etichetta “mela” così per pera, banana, etc.

Nell’apprendimento non supervisionato il processo sarà inverso: si dovrà creare un modello a partire da immagini differenti di frutta, e il modello dovrà estrarre le etichette secondo caratteristiche che accomunano le mele, le pere e le banane.

I modelli di machine learning supervisionati sono già utilizzati da antivirus, filtri per lo spam, ma anche nel campo del marketing come i prodotti suggeriti da amazon.

L’esempio del filtro antispam

L’idea alla base di un filtro antispam per la posta elettronica è quella di addestrare un modello che “apprenda” da centinaia di migliaia (se non milioni) di email, etichettando ogni mail come spam o legittima. Una volta addestrato il modello, l’operazione di classificazione prevede:

  1. Estrazione delle caratteristiche peculiari (chiamate features) come, ad esempio, le parole del testo, il mittente della mail, indirizzo ip sorgente, etc.

  2. Considerare un “peso” per ogni feature estratta (ad esempio se nel testo ci sono 1000 parole, alcune di esse potranno essere più discriminanti di altre come ad esempio la parola “viagra”, “porn”, etc. avranno un peso diverso da buongiorno, università, etc.)

  3. Eseguire una funzione matematica, che prendendo in input delle features (parole, mittente, etc.) e i loro rispettivi pesi restituiscano un valore numerico

  4. Verificare se tale valore è al di sopra o al di sotto di una certa soglia per determinare se la mail è legittima o da considerare spam (classificazione)

Neuroni artificiali

Come detto, il Deep learning è una branca del machine learning. La differenza col machine learning è la complessità computazionale che mette in gioco enormi quantità di dati con una struttura di apprendimento “a strati” fatta di reti neurali artificiali. Per comprendere questo concetto si parta dall’idea di replicare il singolo neurone umano come nella figura sotto.

Come visto in precedenza per il machine learning abbiamo una serie di segnali di input (a sinistra dell’immagine) a cui associamo dei pesi (Wk) differenti, aggiungiamo un “bias” congnitivo (bk) cioè una sorta di distorsione, applichiamo infine una funzione di attivazione cioè una funzione matematica come una funzione sigmoidea, tangente iperbolica, ReLU, etc. che prendendo una serie di input pesati e tenendo conto di un bias, resituisce un output (yk).

Questo è il singolo neurone artificiale. Per creare una rete neurale si collegano gli output del singolo neurone a uno degli input del neurone successivo formando una fitta rete di collegamenti come mostrato nella figura in basso che rappresenta la vera e propria Deep Neural Network.


Il Deep Learning

Come possiamo vedere dalla figura sopra abbiamo un insieme di input da fornire alla rete neurale (input layer), poi dei livelli intermedi chiamati layer nascosti (hidden layers) che rappresentano gli “strati” del modello e infine un livello di output in grado di discriminare (o riconoscere) un oggetto rispetto a un altro. Possiamo pensare a ogni livello nascosto (hidden layers) come alla capacità di apprendimento: più alto è il numero di strati intermedi (cioè più profondo è il modello), più accurata sarà la comprensione ma anche più complessi i calcoli da svolgere.

Da notare che l’output layer rappresenta un insieme di valori in uscita con un certo grado di probabilità, ad esempio al 95% una mela, al 4,9% una pera e allo 0,1% una banana e così via.

Immaginiamo un modello DL nel campo della computer vision: il primo strato è in grado di riconoscere i bordi dell’oggetto, il secondo strato a partire dai bordi può riconoscere le forme, il terzo strato a partire dalle forme può riconoscere oggetti complessi composti da più forme, il quarto strato a partire da forme complesse può riconoscere dettagli e così via. Nel definire un modello non c’è un numero preciso di hidden layer, ma il limite è imposto dalla potenza richiesta per addestrare il modello in un certo tempo.

Senza entrare troppo nello specifico l’addestramento di una rete neurale ha come obiettivo il calcolo di tutti i pesi e bias da applicare a tutti i singoli neuroni presenti nel modello: risulta quindi evidente come la complessità aumenti esponenzialmente all’aumentare degli strati intermedi (hidden layer). Per questo motivo ormai da anni si utilizzano processori di schede grafiche (GPU) per il training: queste schede sono adatte a carichi di lavoro più impegnativi in quanto, a differenza delle CPU, sono in grado di svolgere migliaia di operazioni in parallelo utilizzando architetture SIMD (Single Instruction Multiple Data) oltre a moderne tecnologie come i Tensor Core che consentono operazioni matriciali in hardware.

Applicazioni del Deep Learning

Processando enormi quantità di dati, questi modelli hanno un’alta tolleranza ai guasti e al rumore nonostante dati incompleti o imprecisi. Forniscono quindi un supporto ormai fondamentale in ogni campo della scienza. Vediamone qualcuno.

Classificazione delle immagini e sicurezza

In caso di crimini permette il riconoscimento di un volto a partire dall’immagine catturata da una videocamera di sorveglianza e confrontandolo con database di milioni di volti: tale operazione se fatta manualmente dall’uomo potrebbe impiegare giorni se non mesi o addirittura anni. Inoltre, attraverso la ricostruzione di immagini alcuni modelli permettono di colorare parti mancanti delle stesse, con accuratezza ormai prossima al 100% del colore originale.

Natural Language Processing

La capacità di un computer di capire testo scritto e parlato nello stesso modo di come farebbe l’uomo. Tra i sistemi più famosi Alexa e Siri in grado non solo di capire ma di rispondere a domande di diversa natura.

Altri modelli sono in grado di fare sentiment analysis, utilizzando sempre sistemi di estrazione ed opinioni dal testo o dalle parole.

Diagnosi mediche

In campo medico questi modelli vengono ormai utilizzati per eseguire diagnosi, inclusa l’analisi di TAC o risonanze magnetiche. I risultati che nell’output layer hanno una confidenza del 90-95%, in alcuni casi, possono prevedere una terapia per il paziente senza l’intervento umano. Capaci di lavorare 24 ore al giorno, tutti i giorni, possono dare supporto anche nella fase di triage dei pazienti diminuendo notevolmente i tempi di attesa in un pronto soccorso.

Guida autonoma

Sistemi a guida autonoma necessitano di monitoraggio continuo in tempo reale. Modelli più evoluti prevedono veicoli in grado di gestire ogni situazione di guida indipendentemente da un conducente la cui presenza a bordo non è prevista, prevedendo la presenza di soli passeggeri trasportati.

Previsioni e Profilazione

Modelli di deep learning finanziario permettono di avanzare ipotesi sull’andamento dei mercati nel futuro o conoscere il rischio di insolvenza di un istituto in maniera più accurata di quanto oggi può fare l’uomo con interviste, studi, questionari e calcoli manuali.

Questi modelli utilizzati nel marketing permettono di conoscere i gusti delle persone per proporre ad esempio prodotti nuovi basandosi su associazioni fatte con altri utenti che hanno una storia di acquisti simile.

Evoluzioni adattive

In base alle “esperienze” caricate, il modello è in grado di adattarsi a situazioni che si verificano nell’ambiente o dovute all’input di un utente. Gli algoritmi adattivi causano un aggiornamento di tutta la rete neurale in base alle nuove interazioni col modello. Ad esempio immaginiamo a come Youtube propone video di un certo tema a seconda del periodo, adattandosi giorno dopo giorno e mese dopo mese a nostri nuovi gusti personali e interessi.

Per concludere, il Deep Learning è un campo di ricerca ancora in forte espansione. Anche le università stanno aggiornando i propri programmi di insegnamento su questa materia che richiede comunque solide basi di matematica.

Sono indubbi i vantaggi dati dall’applicazione del DL all’industria, alla ricerca, alla salute e alla vita di tutti i giorni.

Non dobbiamo però dimenticare che questo deve fornire un supporto all’uomo e che solo in alcuni casi ristretti e ben specifici ciò può sostituire l’uomo. Ad oggi, infatti, non esistono modelli “general purpose” ovvero in grado di risolvere qualunque tipo di problema.

Un altro aspetto è l’utilizzo di questi modelli per fini non leciti come ad esempio creare video DeepFake (vedi articolo), cioè tecniche usate per sovrapporre altre immagini e video con immagini o video originali con lo scopo di creare fake news, truffe o revenge porn.

Un altro modo illecito di usare questi modelli è quello di creare una serie di tecniche volte a compromettere un sistema informatico come l’adversarial machine learning. Attraverso tali tecniche è possibile causare la classificazione errata del modello (e quindi indurre il modello a prendere una scelta sbagliata), ricavare informazioni sul set di dati usato (introducendo problemi di privacy) o clonare il modello (causando problemi di copyright).

Andrea Piras

Riferimenti

https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/

https://it.wikipedia.org/wiki/Lisp

https://it.wikipedia.org/wiki/Prolog

https://it.wikipedia.org/wiki/Apprendimento_supervisionato

https://www.enjoyalgorithms.com/blog/email-spam-and-non-spam-filtering-using-machine-learning

https://foresta.sisef.org/contents/?id=efor0349-0030098

https://towardsdatascience.com/training-deep-neural-networks-9fdb1964b964

https://hemprasad.wordpress.com/2013/07/18/cpu-vs-gpu-performance/

https://it.wikipedia.org/wiki/Analisi_del_sentiment

https://www.ai4business.it/intelligenza-artificiale/auto-a-guida-autonoma-cosa-sono-e-come-funzionano/

https://www.linkedin.com/posts/andrea-piras-3a40554b_deepfake-leonardodicaprio-deepfacelab-activity-6886983215253336065-2VMu

https://arxiv.org/abs/1712.03141

La NATO ha bisogno di un Comando Cyber?

L'ambiente di sicurezza definito dalla NATO nel documento "Strategic Concept"  del 2010, già sottolineava che il livello della minaccia nel settore cyber era elevato sia per gli aspetti della vita civile, sia nei confronti delle operazioni militari e di sicurezza. 

Nello stesso documento è riportato che la NATO deve "aumentare gli sforzi per rispondere al pericolo di attacchi informatici...".

Ora, guardando agli ultimi 10 anni, è chiaro che la situazione è peggiore di quanto immaginato nel 2010. 
Ecco perchè, tra le richieste avanzate dalla policy planning unit del segretario generale della NATO agli studiosi riunitisi per il "West Point Strategic Concept Seminar" - organizzato dal Social Sciences Research Lab - si trova :

"NATO has added two new domains of operations (cyber, space) over the last decade. What strategic choices does the integration of these new domains pose? How should NATO’s strategic posture change in response to current and foreseeable technological evolutions?".

Nello studio da noi presentato, siamo partiti da una semplice domanda: "cosa possiamo fare per il prossimo Concetto Strategico per il Cyber e lo Spazio?" e abbiamo cercato di analizzare le necessità dell'alleanza NATO per i prossimi 10 anni. 

Lo studio è stato sviluppato attorno ad alcune domande che a nostro avviso sono fondamentali:

Cosa hanno in comune i nuovi domini Cyber e Spazio? E cosa, al contrario, li differenzia? 

Cosa può accadere se un'infrastruttura critica di un membro della NATO dovesse essere compromessa? 

Cosa può accadere se un'infrastruttura critica della NATO venisse compromessa? E, in questo caso, è chiaro come agire per assicurare il Comando e il Controllo sui processi dell'Alleanza? 

La nostra idea è che includere una forte visione dei domini Spazio e Cyber nel nuovo Concetto Strategico della NATO, aiuterà i membri dell'Alleanza Atlantica a sviluppare e attuare studi coordinati sulla resilienza e a sviluppare collaborazioni all'interno di aziende private e centri di ricerca.

Un'altra domanda interessante che ci siamo posti riguarda il possibile impiego della "Cyber Power" come misura di deterrenza. 

La Cyber deterrence nella forma "by denial", a nostro avviso sembra difficilmente raggiungibile, a meno che non si ipotizzino rivoluzioni tecnologiche che permettano a uno degli attori di fare un salto di qualità sostanziale.

Anche la cyber deterrence nella forma "by punishment" sembra impraticabile. 

In definitiva ciò significa che la Cyber deterrence ha qualche possibilità di funzionare solo se supportata da una grande capacità di intelligence (impiegata al fine di individuare il colpevole di un cyber attack con certezza quasi assoluta) e se incorporata in una "strategia di deterrenza" complessiva.

Altra domanda interessante cui abbiamo cercato di rispondere è la seguente: "la NATO ha bisogno di un Cyber Command?". 

Se guardiamo all'organizzazione della NATO, come descritto nella scheda informativa sulla cyber defense dell'Alleanza, possiamo vedere che l'organizzazione di difesa è per lo più incentrata sull'Information Technology (IT) e in particolare su "Communication and Information Sistems" (CIS). Se questo tipo di approccio poteva essere valido vent'anni fa, è chiaro che oggi non è sufficiente. IT e CIS rappresentano solo una parte del dominio Cyber che coinvolge oggigiorno sistemi e piattaforme di ogni tipo, non solo militari ma anche civili e industriali. 

Se guardiamo alle missioni e alle operazioni effettive della NATO possiamo renderci conto che una Forza impiegata in teatro di operazione è solitamente una forza mista in cui ogni nazione partecipa con i propri sistemi e piattaforme militari al fine di creare il livello di Forza necessario. Ciò significa che è necessaria un'elevata interoperabilità. Ma elevata interoperabilità è più o meno sinonimo di alto rischio informatico a causa del basso livello di barriere tra le diverse forze, sistemi e piattaforme. 

A titolo di esempio consideriamo un'operazione terrestre della NATO, guidata da una nazione leader che fornisce una divisione carri e il principale sistema CIS e C2 (Comando e Controllo). Altre due nazioni alleate forniscono due battaglioni carri e sistemi anticarro nazionali. Supponiamo ora che l'operazione sia condotta in un ambiente ad altissimo rischio dal punto di vista cyber. Possiamo supporre che a livello di Land Component Command (LCC - Comando responsabile dell'operazione a predominanza terrestre) venga attivata una cellula di difesa cyber o qualcosa di simile, con personale fornito almeno dalla nazione leader. 

La domanda è: il Comandante della Componente Terrestre ha gli strumenti giusti per proteggere la Forza e per condurre operazioni in questo contesto? 

Dalla nostra analisi la risposta è NO. Questo perché il Comandante manca di informazioni sulle vulnerabilità dei sistemi e delle piattaforme dei battaglioni provenienti dalle forze alleate.

Dalla nostra analisi, sarà difficile che in un contesto simile a quello ipotizzato si abbiano informazioni sulle vulnerabilità degli strumenti e piattaforme militari di tutte le componenti della Forza. 

Ciò che oggi manca è, a nostro parere, il giusto livello di "Fiducia" tra i membri dell'Alleanza

Sarebbe interessante uno studio sul livello raggiunto finora tra i membri della NATO su questo fronte: quanto e in che misura le componenti militari possono essere trasparenti tra loro quando operano in un ambiente NATO, in settori che sono strategici a livello nazionale?

Se all'esempio sopra si aggiunge la dimensione spaziale, trasformando l'operazione terrestre in qualcosa di più complesso, tenendo conto dell'impiego dei satelliti di comunicazione o di intelligence, si può capire quanto sia complesso l'ambiente operativo e quanto le stesse considerazioni siano valide anche per il dominio spaziale.
 
La politica strategica, in campo militare, scientifico e di sviluppo di una nazione, non sempre coincide con la visione della NATO e un'attenta valutazione e il raggiungimento di un compromesso è essenziale prima di iniziare qualsiasi operazione che coinvolga i domini cyber e spaziali.

In questo contesto la NATO deve essere un attore primario nel sostenere e gestire questa evoluzione tra i suoi membri, in particolare facendo si che cresca la "fiducia" tra i membri stessi.

Nella nostra visione un Cyber Command della NATO consentirebbe all'Alleanza di seguire meglio l'evoluzione della guerra nei domini Cyber e Space e di sviluppare i collegamenti con settori come Electronic Warfare, Targeting, Info Ops e STRATCOM ma, se sviluppato adeguatamente, potrebbe essere soprattutto uno strumento per migliorare la fiducia reciproca tra Alleati.

Per tornare al convegno, è stata l'occasione di conoscere studiosi del dominio Cyber e Spazio che, anche in funzione del diverso background e provenienza, hanno spiegato la loro visione dei domini in funzione della futura Alleanza Atlantica. 
Il convegno è stato l'occasione di discutere delle nostre idee su questi argomenti con la signora Rose Gottemoeller, ex vice segretario generale della NATO tra il 2016 e il 2019 e con studiosi della materia quali il Dottor Paul Poast (University of Chicago), il Maggiore Kathryn Hedgecock (United States Military Academy in West Point), il Maggiore Justin Magula (US Army War College), il Sergent Major Denver Dill (West Point Band and United States Military Academy), la Dottoressa Erica Borghard Lonergan (Army Cyber Institute), la Dottoressa Katarzyna Kubiak (European Leadership Network), la Dottoressa Margaret Kosal (Georgia Tech), il Dottor Simon Smith (Staffordshire University), la dottoressa Sylvia Mishra (European Leadership Network).  

Nella discussione del panel è emerso il potere di deterrenza che i due domini possono avere a fronte di una supremazia tecnologica ad essi associata. 
Interessante il parallelismo tra la deterrenza in ambito nucleare e la necessità di un reale maggior coinvolgimento tra gli Stati membri per una visione comune, laddove tutti siamo convinti della sempre maggiore importanza strategica dei domini Cyber e Spazio.
Infine, da sottolineare la necessità di lavorare per una cultura strategica comune, da porre alla base dell'accrescimento della fiducia tra Alleati. 

Alessandro Rugolo e Alberto Monici

Per approfondire:

giovedì 27 gennaio 2022

L'INGEGNERIA SOCIALE: UNA MINACCIA SUBDOLA DA CONTRASTARE CON "ATTENZIONE"

Leggevo qualche tempo fa dell'aumento dei casi di "vishing":  il furto di credenziali attuato tramite una telefonata pretestuosa in cui un impostore (o una segreteria telefonica appositamente predisposta allo scopo illecito) si finge l'amministratore di un sistema informativo, ad esempio di una banca online.

La notizia già di per sè fa scalpore perché le vittime, spesso pensionati e bassi redditi, si sono ritrovati con il conto corrente prosciugato da imbroglioni in possesso di codici utente e password carpiti durante le telefonate; ma balza ulteriormente agli occhi perché il medesimo articolo evidenziava che l'Abf - l'Arbitro Bancario Finanziario a cui ci si può rivolgere per la risoluzione delle controversie tra i clienti e gli istituti di credito -  avrebbe dato ragione alle banche, che accuserebbero i clienti di essere troppo creduloni.

Indubbiamente gli attacchi di social engineering - definiti dall’esperto statunitense Christopher Hadnagy come "ogni atto tendente a influenzare una persona, per spingerla ad intraprendere un'azione che non necessariamente è nel suo migliore interesse" - sono una minaccia attuale e pericolosa. Essa è favorita da tre aspetti in particolare: la diffusione delle tecnologie dell'informazione e dei servizi on-line; lo stato di analfabetismo tecnologico generale e la leggerezza nel condividere dati personali online; ed infine dalla generale non inclusività delle interfacce utente software che pone serie barriere tecnologiche ad anziani, bambini e disabili.

Ma d'altra parte va detto che non si tratta di minacce nuove: le truffe nelle case degli anziani da parte di sedicenti funzionari dell'ENEL, ad esempio, sono figlie delle medesime tecniche manipolative. E lo stesso Hadnagy, nel suo libro “Social Engineering: the science of human hacking”, fa osservare che sono tecniche antiche come il mondo, citando come prima fonte storica di attacco di ingegneria sociale il passo di Genesi 27, in cui Giacobbe, travestendosi e impersonando suo fratello Esau, raggira il padre cieco ed anziano - Isacco - carpendone la benedizione.

Ma vediamo di approfondire due aspetti di particolare interesse: cosa c'è di nuovo e cosa di vecchio negli odierni attacchi di ingegneria sociale.

Gli aspetti di novità sono il portato dello stato della tecnica: computer, smartphone e tablet hanno creato un universo parallelo e le attività sociali si sono traferite nel mondo virtuale. Sono nati nuovi vettori di attacco e le procedure offensive si sono evolute. Ecco allora che, oltre al già menzionato vishing, sono nati il "phishing" - cioè l'attacco realizzato con una email truffaldina, finalizzato al furto di identità del malcapitato o all'infezione del suo client con virus informatici - e lo "smishing", l'equivalente del primo, attuato però tramite un SMS sul telefonino della vittima.

Di vecchio c'è la vulnerabilità sfruttata: il naturale processo di rilassatezza, di minor presenza a sé stessi, che caratterizza la maggior parte delle ore di veglia del nostro cervello e che è fisiologicamente messo in atto per ragioni di economicità dei processi cognitivi. Quando siamo in una situazione normale, che non consideriamo di pericolo, la mente va in "eco-mode", in automatico, e reagisce agli stimoli secondo una risposta preconfezionata, figlia dell'esperienza fatta in casi analoghi: in sostanza, si risparmiano energie mentali per quando, invece, ci si troverà in una situazione inconsueta, percepita come pericolo, ed in cui servirà il massimo dell'attenzione e dell'energia - "adaptive mode" - per rispondere alla minaccia secondo un comportamento stavolta non pre-confezionato, ma adattato al contesto specifico.

Tutta qui l'arte del truffatore, dell'ingegnere sociale: la capacità di presentare alla vittima un contesto informativo che non venga percepito inusuale, pericoloso, anormale; che anzi gli ricordi similitudini con esperienze ampiamente vissute o con nozioni acquisite nel passato; e su cui la risposta comportamentale possa essere "automatica", inconsapevole.

Su questo aspetto gli psicologi sociali hanno scritto pagine di considerazioni e prodotto migliaia di ricerche. La psicologa statunitense Ellen Langer, in particolare, ha presentato gli esiti di un famoso laboratorio - noto in bibliografia come l'esperimento della fotocopiatrice (Langer 1978) - in cui ha parlato di "insensatezza delle azioni riflessive". Ed ha dimostrato che, nelle interazioni sociali, sia verbali, che scritte, la mente umana agisce di norma con una azione riflessiva del tutto slegata dal significato sostanziale della richiesta; e legata alla sola rispondenza formale, strutturale del paradigma comunicativo.

Più precisamente, la scienziata ha dimostrato che, quando siamo tranquilli ed assorti nei nostri pensieri, rispondiamo ad una richiesta che ci viene fatta analizzando semplicemente la struttura formale, stilistica della frase: se questa ci pare "convenzionale" e non ci allarma, entriamo in uno stato di acquiescenza, di fatto spalancando le porte alla persuasione e, purtroppo, anche alla manipolazione.

Ora, sarebbe troppo semplice e scontato limitarsi ad esclamare: "bisogna prestare attenzione" o "non bisogna essere creduloni". Chi afferma così, non sta tenendo conto dei meccanismi mentali sopracitati. Ciò che bisogna fare invece è porre in essere una articolata politica sociale e di sicurezza che si muova su almeno tre capisaldi principali.

Anzitutto spingere l'acceleratore sull'abbattimento del "divario digitale" che caratterizza larghe fasce di popolazione e segnatamente attraverso mirate e reiterate campagne informative che inducano automatismi comportamentali di sicurezza, non ultima l'educazione alla riservatezza online.

Investire, inoltre, su tecnologie e applicazioni software che richiamino l'attenzione dell'utente in caso di elementi di inaffidabilità dell'interlocutore o di compromissione dei dispositivi.

Infine incentivare l'industria ed il mercato dei servizi informatici allo sviluppo di interfacce utente più inclusive che consentano l'accesso sicuro alla tecnologia anche agli utenti più fragili nelle relazioni sociali.