Traduttore automatico - Read this site in another language

lunedì 30 settembre 2019

Cybertech Europe 2019, Roma 24 e 25 Settembre, Centro convegni “La Nuvola”.

In un periodo importante per l’innovazione e crescita digitale in Italia ed in tutta Europa, il Cybertech, come da quattro anni a questa parte, si riafferma come il principale evento europeo legato alla sicurezza informatica ed altri temi ad essa legati.
Grandi aziende tra le quali Leonardo che ha gentilmente offerto l’invito ai membri di Difesa Online ed Accenture, innovation partner di quest’anno , oltre ad altre 100 compagnie si sono riunite per discutere di ciò che possiamo aspettarci nel prossimo futuro in ambito di sicurezza informatica.
Come ogni anno la conferenza è stata presentata dalla giornalista della Rai Barbara Carfagna e presieduta da ospiti importanti, tra i quali Alessandro Profumo, CEO di Leonardo, Gene Reznik di Accenture, Rohit Ghai, presidente di RSA, Angelo Tofalo sottosegretario di Stato al Ministero della Difesa ed altri ospiti facenti parte di grandi organizzazioni ed imprese legate al settore.
Ma non solo aziende del settore, anche istituti bancari, università ed aziende energetiche, tutte unite dallo scopo comune di affrontare e combattere una vera e propria guerra cibernetica contro un nemico che pur non mostrando il volto o i propri intenti, rappresenta una minaccia ben più che tangibile nella nostra realtà.
IL cybercrime, negli ultimi anni, ha visto una crescita che un decennio fa non avremmo mai potuto prevedere ed Angelo Tofalo durante il suo discorso parla della situazione europea ma sopratutto della situazione nel nostro paese. A partire dal decreto Monti, poi per passare al decreto Gentiloni fino ad oggi, l’Italia ha fatto passi avanti importanti, secondo le parole del sottosegretario al ministero della Difesa, e recentemente, il 19 settembre di quest’anno, ha visto la creazione del Perimetro di sicurezza nazionale cibernetica. La sfida si farà ancora più grande nei prossimi mesi per la creazione di nuovi standard in cui l’Italia dovrà fare da portavoce e giocare un ruolo chiave.
Ma non solo l’italia, sempre a detta di Angelo Tofalo, tutta l’Europa deve fare fronte comune e collaborare, sia istituzioni che aziende private. In uno scenario in cui grandi potenze come gli Stati Uniti d’America e la Cina si sono già mobilitate da anni in questo campo, il destino dell’Europa è quello di rimanere schiacciata tra le due potenze o riemergere come leader, ma ciò potrà accadere solo con una stretta collaborazione tra gli stati dell’Unione, usando le sue parole: bisogna “fare squadra”.
Un termine che più volte si è presentato durante la conferenza è stato “attack surface” ossia “superficie d’attacco”. Al giorno d’oggi ogni dispositivo è connesso in rete e spesso si parla di IoT ( internet of things) , ciò ha causato un aumento drastico delle vulnerabilità , ma la sicurezza dei dispositivi e delle reti non è cresciuta a pari passo e ora ne stiamo tutti pagando le conseguenze. Al giorno d’oggi il 79% delle compagnie non sta rispondendo adeguatamente alle necessità di sicurezza dei propri clienti, creando nuove vulnerabilità.Questo fattore causa un problema di trust. Ciò che dobbiamo scongiurare, a detta di Gene Reznik di Accenture, è la perdita di trust da parte degli utenti nei confronti dei servizi che ogni giorno diventano sempre più parte delle loro vite, questo potrebbe mettere a rischio Il mercato globale, per un totale di circa 5.2 trilioni di dollari di perdite ogni anno.
Non solo pericoli per i singoli utenti o per aziende, ma anche per governi ed istituzioni. Vengono menzionate durante la conferenza anche le APT (Advanced Persistent Threat), il modo di definire attacchi portati solitamente ai danni di grandi aziende, Stati o gruppi di attivisti, spesso sponsorizzati da altri governi che si nascondono dietro ad essi.
I danni portati da queste campagne possono essere di immagine, finanziari o furto di dati e spionaggio a fini politici. Ne parla Marco Preuss di Kaspersky, dei circa 100 APT che oggi si conoscono circa 15 sono unicamente commerciali e colpiscono qualunque bersaglio, mentre gli altri sono privati o guidati da governi.
Per citare uno degli attacchi Apt più famosi, quello portato ai danni delle centrali nucleari Iraniane che grazie all’utilizzo di un sofisticato malware riuscì a rallentare drasticamente le ricerche in questo ambito per mesi. Questo attacco fu attribuito ad un gruppo APT di origine Israeliana/Americana.
Non solo superficie d’attacco maggiore, ma anche tempo di reazione minore, questo è uno dei maggiori problemi che si affrontano nella cybersecurity. Gli attaccanti non solo si fanno più astuti ma anche più veloci, un attacco al network di una azienda viene affrontato in media nel giro di qualche settimana, un periodo di tempo fin troppo lungo, in quanto il network viene compromesso nel giro di poche ore e i dati rubati ben prima che l’attacco venga sventato o addirittura scoperto.
Molti altri gli argomenti trattati durante le numerose conferenze tenutesi in questi due giorni, una vera e propria full immersion nel mondo della cybersecurity, grazie agli interventi di esperti del settore e la presenza di grandi compagnie che stanno plasmando il futuro della sicurezza informatica. Cybertech rinnova l’invito agli interessati per i prossimi incontri, l’ultimo dell’anno che si svolgerà a Tokyo il 26/27 Novembre.

Francesco RUGOLO

Per ulteriori informazioni sull’evento:

- https://italy.cybertechconference.com/it

- https://www.youtube.com/watch?v=F2I2ENC3ws8;

domenica 29 settembre 2019

Le innovazioni tecnologiche durante la II Guerra Mondiale

La guerra, checché se ne dica, è una delle attività tipiche delle società umane. La crudeltà della guerra è cosa innegabile almeno quanto il fatto che essa esercita sull'uomo una spinta evolutiva talmente forte che spesso dopo una guerra il mondo ne risulta cambiato (in meglio?).
La II Guerra Mondiale è stata dunque contemporaneamente la più grande tragedia dell'umanità,  almeno del XX ° secolo, e una grande fucina d'innovazione.
Vediamo cosa è successo nei principali settori dell'alta tecnologia...

Chain Home RADAR - Londra 1935
Il RADAR, sigla che sta per RAdio Detection And Ranging, è un acronimo ormai diventato di uso comune ed assurto a parola, creato nel 1940 dalla Marina degli Stati Uniti.
Il radar a bordo delle navi da guerra degli alleati è considerato uno dei principali motivi della vittoria. Occorre però dire che i primi brevetti di strumenti capaci di individuare un oggetto in movimento furono registrati a nome di Christian Hulsmeuer, un inventore tedesco che riuscì a stimare la distanza dell'oggetto rilevato, era il 1904. Per uno scherzo del destino Hulsmeyer presentò la sua invenzione ai militari tedeschi che rigettarono il progetto, stessa sorte del nostro Guglielmo Marconi alle prese con il governo italiano. Senza ripercorrere tutta la storia, possiamo però affermare con ragionevole certezza che prima della II Guerra Mondiale erano diversi i paesi che in segreto avevano sviluppato la tecnologia, tra questi paesi vi era il Regno Unito, la Germania, la Francia, l'Italia, la Russia, gli Stati Uniti, il Giappone e i Paesi Bassi, di li a poco altri paesi avrebbero raggiunto lo stesso traguardo. Il progetto per lo sviluppo del RADAR a microonde, iniziato dai britannici, sarà poi sviluppato all'MIT (Massachusetts Institute of Technology).

Il Computer, macchina per fare calcoli evoluta poi grazie alla programmazione in ciò che conosciamo oggi, ha avuto una spinta da diversi settori militari tra cui la balistica, l'energia atomica e la crittografia.
Ing. Vannevar Bush
Già nel 1927 Vannevar Bush e H.W. Niemann dell'MIT realizzarono un calcolatore analogico capace di risolvere equazioni differenziali, impiegato già qualche anno dopo dagli UK per calcoli balistici in ambito militare. E' proprio lo stesso Vannevar Bush che nel 1941 viene nominato capo dell'Ufficio Federale per la Ricerca e Sviluppo scientifico degli Stati Uniti d'America e, con lui alla guida dell'innovazione, gli USA negli anni della II Guerra Mondiale svilupparono diversi progetti scientifici che li portarono a diventare la prima potenza mondiale in campo scientifico e militare (le due cose, in linea di massima, sono sempre state collegate!).
I progetti principali sono legati al MIT e ad alcune università e laboratori selezionati che riceveranno finanziamenti per portare avanti studi legati soprattutto allo sviluppo bellico e consolideranno quella tradizione di attrazione delle più brillanti menti del mondo scientifico.
ENIAC 1946
Presso i laboratori Charles Stark Draper (ingegnere, fondatore e direttore dell'MIT) i principali studi si concentrarono sul giroscopio, sui sistemi di navigazione inerziale e sui sistemi di controllo.
Nello stesso periodo partì il progetto chiamato Whirlwind, per la realizzazione di un simulatore di volo richiesto dalla US Navy, grazie a questo progetto prende il volo lo sviluppo dei computer digitali sulla scia dell'ENIAC, primo vero computer digitale realizzato allo scopo di aiutare nello sviluppo della bomba atomica (ma non arrivò in tempo!).

Enrico Fermi
Il settore dell'energia atomica, manco a parlarne, subì una forte accelerazione con il progetto Manhattan che richiama negli Stati Uniti i principali fisici teorici (in Italia Fermi era allora già ben conosciuto) ma non solo. Le sfide organizzative sono di una dimensione mai affrontata prima e per ciò vengono messe i campo tutte le energie di una parte del mondo. Gli scienziati di tutti i campi sono chiamati a dare il loro contributo. Le principali società di armamenti si raggruppano sotto la guida dei Du Pont (non da sola...) per gestire i processi che porteranno alla realizzazione di "Little Boy" e "Fat Man". Il cambiamento è epocale.

Chicago Pile-1
Il progetto Manhattan è con molta probabilità uno dei più grandi progetti dell'umanità mai sviluppato, non solo dal punto di vista scientifico ma anche dal punto di vista "influenza". Ancora oggi infatti l'energia atomica ha ancora i suoi risvolti strategici in tutto il mondo,  attraverso i suoi aspetti economici e militari.
La scienza ha dimostrato che esistono delle forze nascoste nella natura che possono essere imbrigliate ad uso e consumo dell'Uomo e non solo per la costruzione di ordigni esplosivi, i progetti per l'impiego della energia atomica per usi civili prendono il volo sotto il controllo strettissimo dei detentori della conoscenza e delle pochissime società in grado di mettere sul campo progetti miliardari e pluriennali.

Il SONAR (SOund NAvigation Ranging) non è una invenzione della II Guera Mondiale. Il grande genio italiano Leonardo da Vinci ebbe l'idea di utilizzare un tubo inserito nell'acqua da usare per individuare l'avvicinarsi di battelli, si trattava della tecnica del SONAR passivo, basata sull'ascolto delle vibrazioni sonore trasmesse dall'acqua.
ASDIC - 1944
Naturalmente l'impiego sempre maggiore di sottomarini nel corso della guerra diede una spinta non indifferente allo studio del SONAR attivo, basato sull'invio di onde sonore e la relativa risposta per riflessione. I principali sviluppi si ebbero, ancora una volta, negli USA a partire dal progetto britannico ASDIC (Anti Submarine Division) la cui tecnologia fu trasferita in America per essere sviluppata assieme agli alleati.

La guerra ha sempre avuto un lato "informativo" e in piena II Guerra Mondiale l'importanza delle informazioni è sottolineata dai progressi nelle tecniche di codifica tramite algoritmi di cifratura. Alan Turing è forse uno dei più noti al mondo per essere riuscito, con l'aiuto di una macchina di sua invenzione (chiamata Bomba) di cui abbiamo parlato in diverse occasioni, a decifrare il codice impiegato dalla cifrante Enigma e sue varianti, cifrante impiegata dai tedeschi. La capacità di leggere i messaggi del proprio avversario è chiaramente un vantaggio strategico enorme e impiegata con intelligenza ha senza alcun dubbio contribuito alla vittoria alleata.
Ma Alan Turing era un logico e matematico e il suo pensiero è alla base di numerosi sviluppi, non solo nel campo della cifra ma più in generale nello sviluppo degli algoritmi, dei computer e dell'Intelligenza Artificiale. Naturalmente se dobbiamo decriptare i segnali occorre prima raccoglierli, la SIGINT ha quindi avuto una grande importanza e si è sviluppata di conseguenza, stimolando a sua volta tecniche di memorizzazione dei segnali raccolti.

I sistemi di trasmissione. In un esercito moderno come abbiamo visto, le informazioni fanno la parte del leone, ma solo se possono essere trasmesse in sicurezza, velocemente e con un basso tasso d'errore possono fare la differenza. Ciò significa che le trasmissioni divennero importanti e oggetto di ricerca e sviluppo.
Stiamo parlando di circa 80 anni fa, quando la trasmissione via cavo della voce era impiegata nelle linee telefoniche e i segnali viaggiavano nelle linee telegrafiche. Una delle migliorie di guerra, introdotta dai tedeschi aveva a che fare con i cavi. In particolare introdussero un cavo multicoppia capace di veicolare quattro telefonate per volta, resistente, facile da stendere e in grado di funzionare a distanza. I telefoni campali erano molto utilizzati o punto - punto o tramite centralini campali. Anche le radio avevano cominciato ad avere una certa importanza sia a livello tattico che strategico.

La crescita dell'aviazione ad uso militare e lo sviluppo del radar hanno sostenuto lo sviluppo di più avanzate armi antiaeree, missili teleguidati, sottomarini… ma questa è un'altra storia!

Alessandro RUGOLO

Per approfondire:
- https://duotechservices.com/chain-home-radar-saved-london-in-battle-britain;
- https://www.gadgette.com/2016/03/29/women-in-tech-history-eniac-and-the-programming-pioneers-that-nobody-knew/;
- https://www.atomicheritage.org/article/chicago-pile-1-ushering-atomic-age;
- http://jproc.ca/haida/sontec.html;
- https://www.britannica.com/technology/military-communication/World-War-II-and-after;
- http://www.difesaonline.it/evidenza/cyber/quantum-computing-e-crittografia;

lunedì 16 settembre 2019

Racconti e aneddoti di un pioniere informatico

Non quia difficilia sunt non audemus, sed quia non audemus difficilia sunt.
Non è perché le cose sono difficili che non osiamo, è perché non osiamo che sono difficili.
(Lucio Anneo Seneca, CIV 26).

Forse non tutti sanno che “pioniere deriva dal francese pionnier, in italiano1 l’etimo rimanda a “pedone”, ossia chi comincia a sfruttare territori vergini, chi apre la via al progresso.
Prima del XIX secolo, significò “fante” e successivamente “soldato del genio” e, nel linguaggio militare, veniva usato anche come sinonimo di guastatore.
La parola “pioniera”, è intesa per rappresentare chi apre una via agli altri, esplorando regioni sconosciute e insediandosi in esse, in modo da consentire nuovi sbocchi all’attività umana; in particolare, nel linguaggio comune, con riferimento alla storia degli Stati Uniti d’America, i pionieri sono la denominazione dei colonizzatori delle lontane terre dell’Ovest.
Per estensione, chi è il primo o fra i primi a lanciarsi in una iniziativa, a intraprendere un’attività, a diffondere un’idea, aprendo nuove strade, nuove prospettive e possibilità di sviluppo.
Oggi parleremo con un pioniere dell’informatica: Mario, mio padre.


Buongiorno pà! Allora, ci hai pensato? Mi avevi promesso di raccontarmi di quando è cominciata la tua avventura con l’informatica. Come hai fatto ad entrare nel mondo dei bit2?
La mia storia nel mondo dell’informatica comincia quasi per caso.
Io sono un perito meccanico che, dopo il diploma, aveva iniziato a lavorare a metà degli anni “60 in un impianto petrolchimico ubicato in Sicilia, la mia regione d’origine
Coerentemente con il mio titolo di studio mi ero sempre occupato di carpenteria, tubazioni, norme API (Application Programming Interface), ASTM (American Society for Testing and Materials), AISI (American Iron and Steel Institute).
Di che anni stiamo parlando?
A cavallo degli anni tra i “60 ed i “70 mi ero trasferito in Sardegna ed ero inserito nell’Ufficio Tecnico di uno di tali siti. Nell’Aprile del 1972 ero appena rientrato al lavoro dopo circa un mese di infortunio dovuto alla rottura di un menisco, a quell’epoca non c’era ancora l’artroscopia!
Un giorno di lavoro come altri si presenta (anche) nel mio Ufficio, un rappresentante dell’Organizzazione dicendo che si sarebbero svolti dei test attitudinali per Operatori Meccanografici, in quanto avrebbero realizzato un CED Gestionale (Centro Elaborazione Dati), affettuosamente chiamata dagli addetti ai lavori: la “Sala Macchine”, sino a quel momento in stabilimento c’erano solo degli elaboratori di processo.
Personalmente, ho dato subito la mia disponibilità, più per curiosità che per convinzione: infatti per me, quello che a quell’epoca veniva comunemente chiamato il Calcolatore Elettronico o addirittura il Cervello Elettronico, era all’incirca un UFO (Unidentified Flying Object).
Comunque, il fatidico giorno eravamo riuniti, in un unico spazio, circa un centinaio di ragazzi diplomati e di varia estrazione tecnica, oltre ai Periti Industriali c’erano Geometri, Ragionieri e altre qualifiche.
Il test consisteva in decine di domande a risposta multipla, qualcuna di carattere generale, molte di logica, da completare in un tempo determinato.
Io mi regolai nello smarcare subito le risposte di cui ero ragionevolmente certo, sino ad arrivare in fondo, dopodiché ripresi quelle tralasciate dedicando un attimo in più a ciascuna di esse.
Come andò a finire?
Nei giorni seguenti non ci stavo più pensando, quando ho cominciato a notare che qualcuno dei responsabili faceva degli ammiccamenti, della serie il marito cornuto è l’ultimo a saperlo.
Seriamente, ciò era dovuto al fatto che mi ero classificato primo sui circa cento partecipanti.
Hai iniziato qui in Sardegna o dove?
A quel punto alcuni tra i primi classificati siamo stati mandati a Milano dove abbiamo cominciato a seguire presso una sede dell’azienda IBM (International Business Machines) i corsi per operatori, da quello base a quello avanzato ed altri.
Tra un corso e l’altro stavamo, sempre a Milano, presso la Direzione Generale del Gruppo e iniziavamo a fare pratica, affiancandoci agli operatori già esperti.
In realtà io, a 24 anni, avrei preferito affiancarmi alle ragazze che effettuavano la funzione di perforatrici, ma eravamo marcati a vista dal capocentro.
Già, le perforatrici (e verificatrici).
Ossia? Di che si tratta? Scusa ma non ti seguo…
Una figura di base ma essenziale in quegli anni, in quanto l’input al calcolatore avveniva tramite le schede perforate che venivano lette da un apposita macchina
Su queste schede erano registrati sia il richiamo al programma da eseguire tramite il JCL (Job Control Language), sia i dati da elaborare.
Io ho avuto modo di lavorare sia con il Sistema/3 che utilizzava schede a 96 colonne, sia con il Sistema/360/DOS (Disk Operating System) che utilizzava schede a 80 colonne che poi erano lo standard de facto.
E devo dire che me ne sono passate sotto le mani decine e decine di migliaia, utilizzate nei lettori, nei perforatori e nelle selezionatrici.
Ti va di raccontare qualche aneddoto ai nostri lettori?
Si, certo. Un aneddoto riguardante il lettore di schede che utilizzavamo nel CED di Sassari.
Il primo che avevamo utilizzato era del tipo a contatto, cioè i simboli (lettere, numeri, caratteri speciali) venivano decodificati quando degli spazzolini sovrastanti le schede stesse toccavano un rullo sottostante in corrispondenza delle perforazioni effettuate nel cartoncino e così chiudevano dei circuiti elettrici. La codifica utilizzata si chiamava EBCDIC (Extended Binary Coded Decimal Interchange Code).
Successivamente, questa funzione di decodifica era svolta da una cellula fotoelettrica dalla quale passava un fascio di luce, sempre in relazione alle perforazioni effettuate.
Per una delle tante leggi di Murphy, la cellula fotoelettrica del lettore si va a guastare proprio nel momento meno opportuno, cioè nella sera del Venerdì Santo che precede la Domenica di Pasqua.
In breve, il giorno di Pasqua sono dovuto andare all’aeroporto di Olbia per ritirare un paio di fotocellule che erano state consegnate al pilota di un volo di linea proveniente da Milano (perché in tutta la Sardegna non ce ne erano disponibili) e rimpiazzare quella difettosa.
Continuando la mia storia, c’è da dire che nel tempo ero passato da operatore turnista a Responsabile della Sala Macchine.
Una delle cosiddette leggi di Moore dice che nell’informatica periodicamente si aumenta la capacità di calcolo e contemporaneamente si diminuiscono i prezzi.
Per esempio: la memoria del /360 era di 128K! Pensare che oggi un qualsiasi smartphone ha diversi GigaByte di memoria.
Inoltre per l’archiviazione di massa usavamo dei dischi rimovibili, in gergo chiamati “padelle, del peso di svariati Kg ciascuno e della capacità di 10 MegaByte.
E, a proposito di dischi, c’è da dire che sono stato uno dei primi in Sardegna ad effettuare la migrazione dal metodo di accesso ISAM al VSAM, rispettivamente Indexed Sequential Access Method e Virtual Storage Access Method.
Nel frattempo stavamo lavorando con un Sistema/370/OS (Operating System), erano stati introdotti i terminali video per l’I/O (Input/Output), si utilizzava il CICS (Customer Information Control System).
Nelle tua chiacchierate con mamma, ogni tanto saltano fuori traslochi da una regione all’altra… Io ero piccolo e, in quegli anni anche figlio unico, prima che nascesse il secondo pargolo, Roberto. Tuttavia la maggior parte dell’esperienza lavorativa si è svolta in Sardegna. Raccontaci un po’ come è andata.
Per tutta una serie di ragioni, dalla Lombardia mi sono trasferito in Piemonte dove ho lavorato in ambiente Honeywell con Sistema Operativo GCOS8 (General Comprehensive Operating System). Ogni “casa” utilizzava un proprio mezzo per arrivare allo stesso fine, ossia gestire dati e trasformarli in informazioni utili a migliorare processi.
Siamo praticamente alla fine degli anni 70. Tu sei del 1978!
Intanto stavo diversificando la mia attività in ambito Produzione con la funzione di Schedulatore dei lavori, cioè colui che assegna e pianifica le attività della Sala Macchine.
Ti sei occupato di programmazione vera e propria? E quali sono stati i principali cambiamenti in ambito informatico che hai “toccato con mano”?
Si, ho cominciato a studiare la Programmazione e in particolare il COBOL 74 (COmmon Business-Oriented Language) che in quegli anni era il linguaggio più diffuso.
Per mia cultura mi ero anche comprato un testo sul Fortran e avevo preparato qualche programmino di utilità.
Il responsabile del SED (Servizio Elaborazione Dati) mi aveva “preso di mira” in quanto mi ha fatto fare corsi di ogni genere, dal DMIV (Database Management Fourth) al GMAP (Gcos Macro Assembler Program).
Una nota: si parlava di una possibile fusione/acquisizione tra General Electric e Honeywell poi bocciata dalla CCE, ora UE. Sta di fatto che molti prodotti software della Honeywell iniziano con la lettera “G” in ricordo della loro collaborazione (vedi GCOS, GMAP ...).
Dopo un paio di anni passati nelle Prealpi Biellesi siamo scesi verso le colline del Monferrato, anzi proprio a Casale dove svolgevo la funzione di vice responsabile del SED, tornando da mamma IBM.
Abbiamo effettuato la migrazione dei dati e delle procedure dai due Sistemi/34 esistenti ad un Sistema/38.
E in un paio di settimane, dopo aver letto un apposito manualetto, ero già in grado di programmare in RPGII (Report Program Generator Second).
Dopo un altro paio di anni, per motivi legati alla famiglia di mia moglie, siamo rientrati in Sardegna occupandomi in toto del SED di una ditta commerciale (infatti facevo da analista, programmatore, operatore e mozzo).
L’ambiente era un Sistema/34 con le ADM (Applicazioni Dirette al Mercato) che io ho poi implementato con altri programmi ad hoc.
Dopo qualche tempo in cui non riuscivo neanche ad andare al bagno, ho chiesto di avere qualche collaboratore e mi è stata affiancata una ragazza che dopo un po’ sapeva almeno accendere e spegnere il sistema.
Dopo cinque anni, durante i quali avevamo sostituito il /34 con un Sistema/36, come naturale evoluzione, cercavo nuovi stimoli.
Si era intanto verificato, e siamo alla fine degli anni 80, che le due banche locali avevano creato ciascuna una società di informatica cui affidare in outsourcing la gestione delle proprie elaborazioni.
Fatti i dovuti colloqui, ho scelto dove andare, anche perché in quel momento il mio skill era ottimale per una delle due candidate.
Infatti stavamo per effettuare la migrazione da quattro elaboratori dipartimentali GCOS6 Honeywell a un unico mainframe OH (Olivetti Hitachi) con Sistema Operativo MVS (Multiple Virtual Storage) della IBM.
Io ero tra i pochi sulla piazza a conoscere ambedue i mondi e sono stato assunto il 1° Gennaio 1988.
Una volta finita la migrazione e andati a regime, per alcuni anni sono stato il responsabile del CED gestendo una ventina di risorse umane tra operatori turnisti, personale addetto all’after print e alle microfiches. Ovviamente mi occupavo anche della sicurezza delle apparecchiature, di impostare i backup, dei contatti con i fornitori, di gestire ferie, malattie, permessi del personale e quant’altro necessario al buon andamento del tutto.
Per alterne vicende societarie, la banca per cui lavoravamo era stata prima commissariata dalla Banca d’Italia e poi comprata da quella concorrente di maggior dimensioni.
A questo punto le elaborazioni passavano gradualmente nel mainframe dell’acquisitrice, e noi ci siamo inventati altri lavori.
Sono stato, nel corso del tempo, responsabile della gestione dei Bancomat del Gruppo.
Successivamente mi sono occupato della gestione del Remote Banking e dei POS (Point Of Sale).
Poi anche la banca acquirente era stata a sua volta acquisita, divenendo parte di un gruppo bancario con diffusione nazionale.
Immagino che in azienda esistessero dei veri e propri mansionari, con compiti ben definiti a monte. Tu di che ti occupavi in particolare?
Come compito mi occupavo della programmazione e gestione delle macchine embossatrici per la produzione di carte di credito/debito per tutte le banche del Gruppo (circa una dozzina di istituti e migliaia di carte prodotte ogni settimana).
Nel frattempo ero stato coinvolto anche in un’altra attività, relativa alla certificazione di qualità secondo le Norme ISO 2001 (International Organization for Standardization) richiesta per i processi dei POS e del Remote Banking (gestione remota dei servizi bancari).
Dopo gli opportuni corsi tenuti a Roma, mi occupavo della tenuta ed aggiornamento dei manuali, che dovevano riflettere il modo virtuoso con cui venivano condotti i processi relativi ai due task citati.
E, finalmente, tra un manuale della Qualità e un Pagobancomat, è arrivata la data fatidica del 1° Settembre 2005, giorno in cui sono andato in pensione.
Ricordi con piacere qualche aneddoto capitato sul lavoro?
Quando eravamo ancora ragazzi e le attività erano ormai diventate di routine, ogni tanto ci inventavamo qualche scherzo, ovviamente a spese degli ultimi arrivati.
Uno di questi scherzi che ora mi viene alla mente riguardava le bobine di nastro che si utilizzavano sia per input di dati che per il backup, e che avevano nella parte posteriore un incavo il quale poteva essere chiuso da un apposito anello: questo per abilitare la scrittura sul nastro oppure per proteggerlo come “in sola lettura” cioè in pratica premere - oppure no - uno switch on/off .
L’attività delle unità a nastro era riflessa da alcuni indicatori luminosi di diversi colori posti sul frontale. Sfilando e invertendo di posizione tra di loro qualcuno di questi indicatori, gridavamo al malcapitato di turno: “Cosa hai fatto!? Stai sovrascrivendo un nastro che invece doveva essere protetto! Non vedi che è accesa la luce rossa di scrittura!?” Al poveretto venivano i sudori freddi, ma, dopo qualche sghignazzo di rito, lo tranquillizzavamo. Beata gioventù!

Durante le tue esperienze lavorative quali erano le criticità e le principali minacce che potevano intaccare le informazioni che gestivi? Esisteva una “cultura” della sicurezza informatica?
Nel suo libro “Essere digitali” Nicholas Negroponte (uno dei guru dell’informatica) ricorda questo aneddoto: richiesto in aeroporto da un agente doganale sul valore del suo bagaglio (un PC) disse che il valore commerciale era di mille dollari, ma che il valore delle informazioni che c’erano dentro era inestimabile.
E proprio questo è lo scopo della sicurezza informatica: salvaguardare le informazioni.
Certo bisogna proteggere l’hardware, ma bisogna avere dei software sempre più sofisticati per far fronte alle nuove minacce.
Quando ho cominciato a lavorare come operatore, la sicurezza era rappresentata dalla mole massiccia del signor Sanna, la guardia giurata che si alternava con un collega al gabbiotto d’ingresso.
Nella Sala Macchine c’era uno stabilizzatore di corrente che doveva assolvere la stessa funzione di quelli che si mettevano nei primi televisori in bianco e nero negli anni “50, solo un po’ più grande e molto più rumoroso quando c’erano temporali.
C’è stato un periodo in cui in Italia era di moda assaltare i CED, visti come strumenti di oppressione del padrone.
Comunque nella mia esperienza personale, non mi sono mai trovato in mezzo a situazioni di rischio nelle varie aziende dove ho prestato la mia opera.
Che mi ricordi, non sono mai stati indetti corsi formali sulla sicurezza, ci si regolava con regole di buon senso e con la diligenza del buon padre di famiglia. Ad esempio parte integrante di ogni elaborazione erano i backup su floppy disk oppure su nastro ante/post di tutti i file relativi alla singola procedura.
Come evoluzione, posso dire che in certe zone del sito si poteva accedere solo con badge opportunamente autorizzato.
Inoltre erano stati installati sia batterie tampone sia un gruppo elettrogeno per assicurare la continuità dei processi in casa di default di corrente.
Comunque nell’ultimo lavoro che ho prestato avevo scritto un manuale ad uso e consumo dei nuovi colleghi digiuni di informatica che venivano inseriti nei turni da operatore.
In questo manuale avevo descritto:
  • i concetti di base dell’informatica;
  • l’hardware installato nel nostro sito;
  • il software di base e i prodotti ausiliari;
  • le procedure da gestire.
Sulla base di questo manuale facevo dei corsi ai colleghi prima di affiancarli ai colleghi che già gestivano le elaborazioni. Successivamente, per garantire maggior sicurezza, sono stati adottati i firewall HW/SW per garantire o negare l’accesso alle reti LAN o WAN.
Ora come ora si sente spesso parlare di furto di PIN dei Bancomat se non di clonazione delle carte.
Io, come misura minima di prevenzione, quando vado a prelevare do’ una occhiata all’ATM (Automatic Teller Machine) per vedere se noto qualcosa di strano e poi copro con una mano il tastierino mentre, con l’altra, digito il PIN.
Ovviamente con l’utilizzo pervasivo di Internet i problemi crescono esponenzialmente.
E a, ben vedere, è la solita storia di guardie e ladri: dove i buoni sono gli hacker mentre i cattivi sono i cracker, per tacere dei lamer.
P.S. Un saluto ai “compagni di viaggio” che non ci sono più: CIAO! a Mei, a Giorgio, a Delfo, a Graziano e a Gianni.
Danilo Mancinone

1 http://www.treccani.it
2 BInary digiT, in informatica, rappresenta l’unità di misura elementare dell’informazione, che viene rappresentata alternativamente con le cifre 0 e 1, in quanto corrisponde a una scelta tra due alternative egualmente possibili. Il suo simbolo è b.

venerdì 13 settembre 2019

Biometria, pro e contro


Sono passati 23 anni da quando Peter Steiner ha pubblicato il famigerato "Su Internet, nessuno sa che sei un cane" il famoso cartone animato in “The New Yorker”, illustrando e, in qualche misura, anticipando in maniera eloquente e semplice le sfide legate all’identità online.
Oggi, molte organizzazioni stanno ancora lottando per risolvere l’enigma relativo al fatto se coloro che accedono alle informazioni in rete siano il proverbiale "cane su Internet," ossia se “sono chi dicono di essere e non fingono di essere qualcun altro”. Le conseguenze di questa che è diventata una vera e propria guerra sono significative: anno dopo anno l'identità continua ad essere il più sfruttato vettore di attacco nel cyberspace. Il problema più grande? Semplice: la password, violata in continuazione e che, nonostante tutto, continua ad essere utilizzata da tutti in tutto il mondo, sia che si parli di aziende sia che si tratti di individui ed il tutto condito dalla cronica cocciutaggine o incoscienza di nessuna ulteriore protezione quale potrebbe essere l’utilizzo di soluzioni di fattori di autenticazione multipli. Quest’ultimo fenomeno straordinariamento vero, ahimè, nelle aziende.
Il mondo hacker segue tecniche e dinamiche simili all’industria, dove domanda e offerta determinano il prezzo di un prodotto. È possibile comprare il codice di un exploit non ancora noto, l’elenco di username e password trafugati da non importa dove, singoli numeri di carta di credito garantiti, validi ancora almeno per alcuni giorni, ecc. Insomma, un fantastico mercato dove, semplicemente, oscurando la propria identità si possono fare affaroni!!! Da tutto ciò derivano fenomeni come il “Credential Stuffing” che si basa su due dei nodi più deboli di una intera catena di sicurezza: le persone e le loro password. Il concetto di “non usare la stessa password su più siti” è arcinoto. Ce lo sentiamo ripetere spesso ed ora, ancor di più, anche quando ci registriamo su un nuovo sito. Ma quante persone realmente usano questa accortezza? Ovviamente non stiamo parlando degli addetti ai lavori, che usano un gestore di password o meccanismi simili. Dobbiamo pensare al grande pubblico non così evoluto dal punto di vista informatico. In questo contesto è molto probabile che venga usata la stessa password su ben più di due siti.
Sfruttando questa vulnerabilità intrinseca, ecco che un attaccante si specializza nella ricerca di combinazioni di username e password valide. Il primo passo è quello di comprare nel dark web un archivio di username e password trafugate. Con questo database tra le mani si iniziano a provare tutte le combinazioni su siti diversi alla ricerca di persone che hanno usato più volte la stessa login, spesso un indirizzo email, e la stessa password. Il risultato finale è un distillato di username e password valide su social media, servizi email, e-commerce il cui valore è molto alto oltre al fatto che molto spesso, le credenziali utilizzate sono quelle aziendali. Ecco quindi che l’uso della stessa password su più siti espone le informazioni personali ben oltre il sito “bucato”.
La sfida con le password, unita ad altri metodi di autenticazione inadeguati, si è amplificata con l’avvento del cloud. La ragione? Semplice: l'ascesa del cloud abbinata all’esplosione dei dispositivi mobili che ne fanno un uso pesante, significa che, sempre più, i dati vengono acceduti al di fuori di quella che era considerata la rete di un'organizzazione per la quale, purtroppo, continuano ad essere utilizzati controlli di sicurezza tradizionali.
E qui torniamo al punto di partenza, ossia “nel cloud, la prima domanda a cui un sistema deve rispondere è "sei chi dici di essere?" Non dimentichiamocelo mai: “l'autenticazione è la "chiave" per accedere alla porta di una qualsiasi risorsa cloud e, come amo dire, l’autenticazione è il cuore di qualsiasi infrastruttura e rappresenta i gioielli di famiglia da difendere a tutti i costi e con qualsiasi mezzo.
Di fronte a un fenomeno in costante crescita, l'identificazione biometrica viene considerata da molti come il sistema più immediato per avere una gestione degli accessi che sia, allo stesso tempo, ragionevolmente sicura e abbastanza semplice per chi si deve identificare.
Il lancio di Apple del Touch ID nell’ormai lontano 2013, che offre agli utenti la possibilità di sbloccare i loro telefoni con le loro impronte digitali oppure con un PIN, ha, di fatto, definito il riconoscimento delle impronte digitali come un nuovo fattore di autenticazione, commercialmente distribuito tramite gli smartphone.
Oggi, i sensori di impronte digitali sono un'offerta presente su smartphone e laptop ed anche il riconoscimento facciale sta guadagnando terreno. Oltre a viso e dito, oggi come oggi, iride, voce e battito cardiaco sono altre tre modalità biometriche che si stanno affermando sul mercato. Nel frattempo, Apple è stata affiancata da importanti produttori tra cui Microsoft, Lenovo, Samsung, LG e Fujitsu nell'incorporamento di sensori biometrici all’interno dei dispositivi.
Dal punto di vista dell'autenticazione, le implicazioni del fenomeno di “consumerizzazione” della biometria sono significative: anziché richiedere a un utente di inserire una password o inserire un token, la biometria consente a un dispositivo di "riconoscere" semplicemente un utente. Se configurato correttamente, questo sistema può portare a esperienze di autenticazione senza password che sono molto più facili da usare rispetto ad altre tecnologie.
Nel cloud, in cui gli utenti si aspettano un accesso immediato e su richiesta ad applicazioni e dati, la biometria offre la possibilità di semplificare l'autenticazione, migliorando al contempo la privacy e la sicurezza. Non è un caso che la biometria stia aiutando l'industria a superare i limiti di usabilità che hanno ostacolato l'adozione dell'autenticazione di prima generazione, favorendo una maggiore adozione di strumenti di autenticazione sicuri in tutto il mercato.
Tuttavia, non tutte le biometrie sono uguali e alcune tecnologie e configurazioni possono creare rischi significativi per la sicurezza e la privacy nonché sfide normative e di conformità. Questi rischi devono essere affrontati al fine di distribuire i fattori biometrici in modo responsabile e sicuro.
Al centro del problema c'è il fatto che le tecnologie biometriche variano secondo due principi fondamentali:
  1. L’affidabilità dei dispositivi indipendentemente dalle diverse modalità di autenticazione, ossia viso, impronte digitali, iride, ecc. Il mercato è molto vario in questo contesto e ci sono soluzioni che sono altamente affidabili e altre che lo sono assai meno. Due fattori devono essere sempre tenuti in considerazioni:
    1. False Accept Rate (FAR) che indica con quale frequenza il sistema biometrico accetta la biometria della persona sbagliata;
    2. False Reject Rate (FRR) che indica con quale frequenza il sistema biometrico rifiuta la biometria della persona giusta.
  2. Le differenti modalità con cui i sistemi biometrici sono progettati e distribuiti possono avere un impatto significativo sul fatto che siano in grado di migliorare la sicurezza e la privacy oppure no.
Una differenza importante tra le modalità di autenticazione basate sulla biometria e altre soluzioni di autenticazione è che queste ultime, come password e token, possono essere modificate o revocate. Ciò significa che se vengono rubate o compromesse, c'è sempre un modo, abbastanza semplice, per rilasciare una nuova soluzione e risolvere il problema.
La biometria, al contrario, è permanente e, pertanto, la divulgazione involontaria di dati biometrici può avere conseguenze più difficili da correggere di una semplice password violata. Per questo motivo, qualsiasi implementazione della biometria deve essere fatta con estrema attenzione al fine di mitigare la possibilità che l'impronta digitale o il volto di qualcuno, ad esempio, possa essere compromessa.
Per mitigare i rischi informatici, soddisfare i requisiti normativi e garantire l’accesso alle risorse in modo semplice e più sicuro è sempre più necessaria un’autenticazione che protegga l’identità degli utenti contro le minacce e che, indirettamente, ne protegga la loro privacy.
L’utilizzo della biometria come meccanismo di autenticazione, se implementata correttamente e in conformità con gli standard, può consentire alle aziende di proteggere con un livello superiore l’identità rispetto a quanto viene fatto ancora oggi con l’uso delle password.
Rimangono ancora diverse domande e molti dubbi intorno all’utilizzo della biometria come metodologia di autenticazione:
  • dove sono memorizzati i dati biometrici?
  • dove viene effettuato il match della biometria?
  • la biometria è l’unico fattore richiesto per autenticarsi?
  • Come vengono protette le informazioni biometriche?
Lasciamo in sospeso le risposte, per il momento, con la promessa di approfondirle prossimamente. 

Carlo Mauceli

mercoledì 11 settembre 2019

Cortana, cosa succede quando “le” si chiede di cimentarsi in una missione al limite?

Cortana, intelligenza artificiale di casa Microsoft con un nome preso in prestito da un personaggio del videogame Halo, cosa succede quando “le” si chiede di cimentarsi in una missione al limite?
Appena cinque anni fa nasceva Cortana, l’assistente digitale di casa Microsoft, programmata sapientemente per rispondere celermente alle richieste di utenti sempre più esigenti, oggi è una chiacchierona, possiede una mente arguta, un umorismo sottile e una naturale predisposizione ad aiutare gli utenti. Ciò che caratterizza maggiormente questa intelligenza artificiale altamente evoluta è la sua spiccata umanità. Daniela è una content editor e copywriter che gli amici chiamano scherzosamente Cortana. Lei è una delle persone che si cela dietro la versione italiana dell’assistente digitale di Microsoft, fa parte del Cortana International Team e insieme ai suoi colleghi, provenienti da tutto il mondo, lavora sulla personalità dell’intelligenza artificiale di Microsoft e sulle sue abilità di conversazione. In pratica realizza contenuti editoriali creativi e fa in modo che le persone si divertano a parlare con lei. Il suo compito è anche quello di alimentare costantemente l’intelligenza di Cortana attraverso un aggiornamento continuo che le permetta di conversare con l’utente coerentemente con la propria personalità. Una personalità composta da quattro qualità fondamentali: disponibilità, imparzialità, atteggiamento positivo e spontaneità. E’ di fondamentale importanza sottolineare che anche la cultura locale influisce molto sulla personalità di Cortana. La versione inglese, ad esempio, non può assolutamente coincidere con quella italiana. Sotto questo punto di vista Cortana è in linea con lo spirito regionale, conosce infatti numerosi dialetti e ha un solido background relativo a usi, costumi. Conosce l’inno di Mameli e tifa per la nazionale di calcio italiana, anche quando questa non arriva ai mondiali.
Ma come conciliare una programmazione efficiente senza contraddizioni logiche con il comportamento “umano” di un tifoso di calcio sempre positivo, disponibile e spontaneo? In poche parole, cosa succede quando la mente umana si nasconde dietro l’intelligenza artificiale?Qualche comportamento “strano” in passato (ora “patchato”) è già emerso, facendo le “domande giuste” all’assistente vocale di Windows era possibile aprire un sito infetto sul browser anche senza autenticarsi con password. Come spiegano i ricercatori di McAfee, che hanno escogitato la tecnica di attacco, il problema era legato al fatto che l’assistente vocale di Windows rimaneva attivo anche quando il computer veniva bloccato, ed era possibile utilizzarlo anche senza autenticarsi con password o PIN. Lo scenario divenne ancor più preoccupante quando fu dimostrata la possibilità di utilizzare una “pennetta” USB per sbloccare il pc. Questa serie di combinazioni potrebbero potenzialmente permettere un proliferare di attacchi hacker verso i computer che sono tutti collegati tra loro.
Gli uomini di fatto, stanno attaccando i sistemi di Intelligenza Artificiale e non viceversa, come invece ci saremmo aspettati dai film di fantascienza. Ma per fare che cosa? Per manipolare i risultati dei motori di ricerca, modificare gli algoritmi dei social media, il ranking e la reputazione dei siti web, disturbare il volo dei droni o ingannare una macchina a guida autonoma. E così, al contrario di quello che speravamo, l’uso malevolo degli strumenti di intelligenza artificiale non si è fermato alla creazione di sofisticate campagne di disinformazione.
L’allarme viene da un
rapporto del progetto europeo Sherpa, dedicato a diritti umani e intelligenza artificiale, e che ha evidenziato come singoli criminali e hacker organizzati abbiano trovato un nuovo obbiettivo nell’attaccare i sistemi “intelligenti”, fino ai casi in cui la governance algoritmica può dare priorità a interessi nascosti, danneggiare aziende manipolando dati e informazioni online o beneficiare partiti di governo influenzando il dibattito politico attraverso le fake news
Ma quale è lo stato dell’arte delle IA? Pochi giorni fa un sistema avanzato di IA ha superato un test di scienze di terza media, rispondendo correttamente al 90 per cento delle domande. Il risultato è stato ottenuto da Aristo, una AI realizzata dall’Allen Institute for Artificial Intelligence negli Stati Uniti, dimostrando ancora una volta i rapidi progressi nel settore delle intelligenze artificiali. Centinaia di istituti di ricerca in giro per il mondo lavorano a sistemi come Aristo e, in poco tempo, hanno ottenuto risultati che solo dieci anni fa sembravano irraggiungibili. La maggiore potenza di calcolo dei computer e l’affinamento dei sistemi di catalogazione e apprendimento dei dati hanno permesso di compiere grandi progressi, riducendo i tempi di programmazione.
E mentre siamo un po' tutti preoccupati per “l’avvento della Singolarità, il momento in cui secondo studiosi come Ray Kurzweil l’intelligenza artificiale eguaglierà l’intelligenza umana, non ci rendiamo conto che le tecniche basilari che adesso emulano soltanto alcune funzioni cognitive umane, vengono usate per scopi dannosi, ogni giorno, sono capaci di mettere in crisi tutti quei sistemi che usiamo contro le intrusioni informatiche, le diagnosi mediche, i livelli di approvvigionamento idrico, fino ai sistemi antifrode delle banche. Spiega Andy Patel, ricercatore del centro di eccellenza per l'intelligenza artificiale di F-Secure, partner del progetto Sherpa: "Le persone identificano erroneamente l'intelligenza artificiale con quella umana, e penso che sia per questo che associano la minaccia dell'IA ai robot killer e ai computer fuori controllo. Ma gli attacchi umani contro l'IA avvengono in continuazione. Un esempio popolare di questo attacco è la manipolazione del posizionamento nei motori di ricerca o dei sistemi di reputazione per promuovere o 'nascondere' determinati contenuti a pagamento oppure no. Questi attacchi possono però anche essere usati per il social engineering di individui in scenari di attacco mirati a decisori pubblici. Il rapporto rileva che le tecniche di intelligenza artificiale sono utilizzate per produrre contenuti scritti, audio e visivi estremamente realistici. E' il caso dei deep fake video, clip completamente false, grazie alle quali è possibile, a partire da una ripresa televisiva, mimare il labiale di un parlante per fargli dire cose che non si sognerebbe mai. Che uso se ne può fare? Ad esempio per manipolare delle prove, creare una crisi diplomatica, raggirare un concorrente. Gli usi malevoli dell’intelligenza artificiale sono già tra noi senza doverci immaginare un killer come quello del film Terminator. Per questo i ricercatori suggeriscono di progettare sistemi intelligenti e sicuri, da subito.
I programmatori Microsoft hanno da tempo compreso le potenzialità di un attacco che sfrutta i sistemi di intelligenza artificiale che come ogni buon assistente ha la naturale “propensione ad aiutarci”, difatti hanno provveduto nel tempo a limitarne le capacità di azione e ad acquisire ulteriori expertise anche dalla “concorrenza”, non è passata inosservata l’assunzione dell’ex Vice Presidente Apple Bill Stasior, operazione passata agli onori della stampa come da Siri a Cortana. Questo dimostra che si sta finalmente prendendo seriamente in considerazione il fatto che dare il pieno controllo di un sistema, ad un’intelligenza artificiale non è sinonimo di sicurezza.
A tutt’oggi non è necessario essere un hacker esperto per violare un sistema ed ottenere delle informazioni o guadagnare accessi illeciti, basta conoscere la natura umana che si cela dietro la fredda logica della programmazione e saper porre la domanda giusta. 

Enrico Secci

Fonti:
Cortana: quando la mente umana si nasconde dietro l’intelligenza artificiale

Want to Break Into a Locked Windows 10 Device? Ask Cortana (CVE-2018-8140)

Come accedere ad un computer protetto da password con Cortana


Da Siri a Cortana: Microsoft ha assunto l’ex Vice Presidente Apple Bill Stasior

Un sistema d’intelligenza artificiale (AI) ha superato un test di scienze di terza media, rispondendo correttamente al 90 per cento delle domande

Violare Windows in stato di blocco? Chiedi a Cortana