Traduttore automatico - Read this site in another language

domenica 27 giugno 2021

La storia di Caprilli – come gli interessi strategici cambiarono il volto dell’equitazione per sempre

Capitano Federico Caprilli
Assumo che la maggioranza di voi lettori di questo articolo abbiate, ad un certo punto della vostra vita, assistito ad una competizione di salto agli ostacoli ( almeno in TV) e alcuni di voi magari si siano addirittura dilettati a praticare questo sport. Io so di per certo di averlo fatto. Tuttavia ciò di cui la maggior parte delle persone non sono a conoscenza è che l’elegante sport del salto agli ostacoli – ed il suo vicino cugino, il concorso completo – nacquero da una necessità strategica prima dell’inizio della Prima Guerra Mondiale e dalla pura genialità di un ufficiale Italiano.

Il come ed il perché saranno gli argomenti di questo articolo.

Comincerò introducendovi il protagonista di questa storia: un giovane ufficiale Italiano della cavalleria chiamato Federico Caprilli. Nato nel 1868 a Livorno sulla costa ovest della penisola italiana, entrò nel Collegio Militare di Firenze all’età di tredici anni e fu selezionato per fare parte dell’Accademia Militare di Modena nell’anno 1886. Inizialmente giudicato non adatto per servire nella cavalleria dalle autorità mediche riuscì comunque ad essere selezionato dal Reggimento di cavalleria Piemonte Reale a Saluzzo e seguire i corsi alla Regia Scuola Militare di Equitazione a Pinerolo.

Nel suo reggimento si distinse come cavallerizzo di talento ( sfidando le autorità mediche che lo avevano giudicato non adatto) e fu selezionato per seguire il corso da istruttore alla scuola di equitazione di Pinerolo nel 1891 e nell’Ottobre dello stesso anno fu inviato nel neo costituito Ippodromo Militare di Tor di Quinto, appena fuori Roma. Questo fu creato con lo scopo di migliorare le pessime prestazioni delle forze di cavalleria nel superare gli ostacoli nel campo di battaglia. Proprio qui il giovale Tenente Caprilli cominciò a distinguersi, come cominceremo subito a vedere.

Prima di continuare, è necessaria una breve panoramica storica. Siccome l’introduzione di armi da fuoco moderne sul campo di battaglia fece dei cavalieri in armatura pesante uno strumento obsoleto, l’uso dei cavalli a fini militari fu suddiviso in tre rami con distinte (anche se a volte sovrapposte) aree di responsabilità. Queste erano fanteria montata, cavalleria pesante e cavalleria leggera. Nei prossimi paragrafi, le analizzerò una per una spiegandone le particolarità per capire al meglio il contesto della nostra storia.

La fanteria montata era il ramo meno prestigioso – e tecnicamente non si trattava di cavalleria in quanto il compito dei suoi membri non era quello di combattere a cavallo ( per questo motivo non erano dotati di sciabole o lance). Spesso vestiti in uniformi semplici e a cavallo di esemplari di qualità più bassa rispetto a quelli utilizzati dai colleghi della cavalleria, il loro compito era quello di avanzare velocemente ed occupare il territorio prima del nemico (lo stesso ruolo dell’odierna fanteria motorizzata) . Per questa ragione, erano spesso dotati di fucili da battaglia e non di carabine ed erano addestrati in tattiche di fanteria.

La cavalleria pesante era considerata da molti il ramo più prestigioso della cavalleria a causa dei costi di mantenimento e addestramento di ogni unità. Questa era l’arma di punta di molte armate (non diversa dall’odierno carro armato da combattimento) e il loro compito era attaccare e mandare in frantumi le formazioni della fanteria nemiche - in particolare la cosiddetta formazione a quadrato – una volta che questa veniva indebolita dal fuoco dell’artiglieria. Ciò richiedeva uomini forti su cavalli pesanti, equipaggiati con spade pesanti e capaci di controllare perfettamente le loro cavalcature al fine di presentarsi come fronte omogeneo durante l’attacco.

Per ultima, la cavalleria leggera doveva essere gli occhi e le orecchie dell’armata. A cavallo di esemplari vigorosi operava in piccoli gruppi che avevano il compito di seguire i movimenti dei nemici, trasportare ordini avanti e indietro per il fronte e compiere veloci e precisi attacchi a bersagli di opportunità come carovane di rifornimento nemiche o soldati non organizzati e in fuga dal campo di battaglia.

Ciò richiedeva uomini dotati di arguzia e spirito di sopravvivenza, la cavalleria leggera si evolverà in seguito in ciò che ai giorni nostri viene chiamato gruppo di ricognizione.

Alla fine del diciannovesimo secolo quando la nostra storia prende inizio, entrambi i rami della cavalleria erano ancora formalmente esistenti, tuttavia le linee di confine tra essi erano diventate sempre più sfocate. Tutte le truppe di cavalleria dovevano ricoprire una moltitudine di ruoli che includevano ricognizione e attacchi a cavallo – particolarmente contro altre unità a cavallo o di fanteria sorprese in campo aperto. Allo stesso tempo le armature ed elmetti in metallo scomparvero per l’uso sul campo (tranne che per l’armata Francese) e le fastose armature di una volta stavano diventando sempre più pratiche.

Comunque, la cavalleria non era l’unico ramo delle armate che si era evoluto in questo periodo. Il soldato di fanteria medio era ora equipaggiato con fucili dotati di caricatori e capaci di ratei di fuoco che non si erano mai visti in precedenza ed erano dotati di mitragliatori alimentati a nastro con sistemi di raffreddamento ad acqua e cannoni retrocaricati ed ammortizzati idraulicamente che potevano sparare munizioni esplosive dotate di congegni a tempo. Ciò significava che qualunque attacco di cavalleria contro un nemico ben preparato – e questa era la raison d’etre della cavalleria pesante – sarebbe stato un attacco suicida.

Il giovane tenente Caprilli realizzò ciò e capì che il futuro della cavalleria come arma a sé stante sarebbe stato a rischio se non si fosse presa alcuna misura per assicurare che il militare a cavallo potesse rimanere una figura rilevante sul moderno campo di battaglia. La risposta a questa sfida fu semplice e brillante. La cavalleria avrebbe dovuto trasformarsi nell’equivalente del diciannovesimo secolo del drone moderno, capace di trasportare informazioni e colpire bersagli di opportunità ovunque sul campo di battaglia – su qualunque terreno.

Un metodo per ottenere questo obiettivo era quello di trasformare la combinazione cavallo-cavaliere in un vero e proprio veicolo da fuoristrada capace di attraversare ostacoli che in precedenza sembravano impossibili da oltrepassare e dunque poter colpire da direzioni inaspettate. Nel contesto italiano ciò voleva dire – tra le altre cose – poter saltare muri di pietra e staccionate che separavano i campi nelle zone di campagna e salire e discendere dirupi in velocità. Ciò richiedeva un approccio completamente nuovo nella cavalcata e fortunatamente Caprilli era l’uomo giusto per questo compito.

Salvo vecchio stile

Il salto ad ostacoli a cavallo esisteva come disciplina da ben prima dell’arrivo di Caprilli, soprattutto nei circoli di caccia alla volpe come è stato illustrato più volte in passato, ed è stato utilizzato già dalla cavalleria come metodo di fuga, con il salto di torrenti o staccionate. Il problema risiedeva nello stile del salto che richiedeva al fantino di piegarsi all’indietro sulla sella per bilanciare il suo equilibrio. Questo forzava il cavallo ad atterrare sulle sue zampe posteriori causando sconforto all’animale – ciò significava che l’altezza e la lunghezza del salto erano severamente limitate.

Caprilli decise per prima cosa di scoprire quale era la tecnica di salto dei cavalli quando non erano impediti dal peso e dalla guida del fantino. Usando una fotocamera per documentare le sue scoperte fece saltare vari ostacoli ai cavalli senza il fantino (il cosiddetto salto libero) per osservarne i movimenti. Ciò che scoprì fu che quando il cavallo saltava senza fantino, esso utilizzava le sue potenti zampe posteriori per darsi lo slancio mentre utilizzava le zampe anteriori per atterrare, utilizzando un movimento rotatorio – riferito come “bascule” – per bilanciarsi e sorpassare l’ostacolo.

Lo stile "Caprilli"

Dopo aver stabilito le sequenze del salto naturale come fatto veritiero grazie alle fotografie, Caprilli dunque determinò quale dovesse esser la miglior tecnica del salto con il fantino presente sulla sella. La semplicità della risposta era solo pari alla sua brillantezza. Caprilli accorciò le staffe considerevolmente e spostò il suo seggiolino sulla parte posteriore della sella mentre manteneva le mani sul collo del cavallo. Questo gli permetteva di seguirne da vicino i movimenti e sollevarsi sulle staffe nel momento dello slancio e dell’atterraggio provocando meno fastidio al cavallo durante il salto.

Un altro elemento che Caprilli cambiò fu il ruolo del fantino. Nel vecchio sistema il cavallo era cavalcato verso l’ostacolo con l’aiuto (gamba inferiore, sella e redini) del fantino e veniva costretto a saltare in un preciso istante – essenzialmente facendo del salto un esercizio di dressage (un termine che può essere tradotto come addestramento). Caprilli decise invece di dare al cavallo molta più libertà fidandosi della sua innata abilità nel navigare attraverso gli ostacoli ed aggiustare velocità e momento di slancio per conto proprio. In breve fece del cavallo un compagno attivo e non uno schiavo del fantino.

I risultati di questo nuovo approccio furono spettacolari. Come il Fosbury Flop nelle competizioni di salto in alto della fine degli anni sessanta, questa nuova tecnica permetteva ai cavalli ed ai fantini di saltare più in alto e più in lungo, ben più di quanto si sarebbe mai potuto immaginare. Così Caprilli, nel 1894, fu reso istruttore di equitazione a Tor di Quinto. Tuttavia l’armata italiana fu lenta ad implementare i suoi insegnamenti e dopo essere tornato a Pinerolo nel 1895 fu subito inviato ad un reggimento di lancieri a Nola nel sud Italia. Tuttavia la causa di ciò potrebbe essere stata la sua reputazione da donnaiolo.


Non scoraggiatosi, Caprilli continuò a sviluppare il suo “sistema”, dimostrandone la sua efficacia vincendo competizioni di salto ad ostacoli – a volte impiegando cavalli di qualità “mediocre” per battere i suoi avversari che montavano cavalli decisamente migliori ma che adottavano il vecchio stile. Continuò a raccogliere sostenitori per il suo sistema e nel Giugno del 1902 fu promosso capitano. Nel 1902 battè il record mondiale di salto in alto a cavallo superando un ostacolo di 2.08 metri e nel 1904 gli fu chiesto di tornare a Pinerolo dal comandante della scuola.

Nel 1905 divenne il direttore dei dipartimento e cominciò a mettere assieme le sue note per fissare su carta le sue riflessioni e dunque preservarle per i posteri. Sfortunatamente, il destino volle diversamente. In un fredda mattina di Dicembre del 1907 il suo cavallo scivolò e cadde su un ciottolato ricoperto di neve a Pinerolo. Il capitano Caprilli fu sbalzato a terra e svenne. All’ospedale gli fu diagnosticata una frattura cranica e morì senza mai risvegliarsi – portando con sé nella sua tomba le sue brillanti idee.

Fortunatamente per tutti gli studenti di equitazione (che include il salto agli ostacoli) vi erano molti discepoli che furono in grado di portare avanti la torcia di Caprilli e negli anni venti e trenta Pinerolo e Tor di Quinto erano considerate universalmente la Mecca dell’equitazione cross country con ufficiali da tutto il mondo che viaggiavano in Italia per imparare lo stile Italiano di equitazione. L’ eredità Italiana vive anche nella nomenclatura dello sport del salto ad ostacoli dove gli ostacoli utilizzati per il salto verticale sono chiamati “staccionata” e i piccoli ostacoli costituiti da una singola barra sono chiamati “cavalletti”.

Il disastro che fu la Seconda Guerra Mondiale pose fine a questa era, ma al giorno d’oggi lo spirito di Caprilli vive ancora non solo nello scenario italiano di equitazione ma nei molti fantini di tutto il mondo che saltano ostacoli ogni giorno utilizzando i movimenti naturali dei loro cavalli e mantenendo viva la sua brillante eredità.

Soren Anker Larsen*

____

* Il Tenente Colonnello Soren Anker Larsen è un Ufficiale dell'Esercito danese, attualmente impiegato come Ufficiale di collegamento presso il "Centre de planification et de conduite des opérations" (Comando operativo interforze) a Parigi. Nel tempo libero pratica gli sport equestri, la caccia e lo studio della storia militare con particolare riguardo alla cavalleria. 

L'articolo, originariamente in lingua inglese, è stato tradotto da Francesco Rugolo.

venerdì 25 giugno 2021

Fake News, Deepfake, Fake People – La nuova frontiera della Cyber Security


Le tecnologie sono un “dono di Dio” che “può portare frutti di bene” ma che deve essere utilizzato correttamente se non vogliamo che comporti “gravi rischi per le società democratiche”

[Papa Francesco]

Durante il lockdown dello scorso anno mi misi a scrivere un articolo che non ebbe mai la luce e che aveva come obiettivo di fare riflettere sul fenomeno delle fake news che ho avuto l’ardire di associare alle minacce cibernetiche più invasive degli ultimi anni.

Tratto da : rcmediafreedom.eu

Se nei vari rapporti relativi alle minacce cibernetiche si introducesse la voce “fake news”, sono sicuro che si otterrebbero dei numeri molto interessanti, probabilmente superiori a quelli del phishing, per fare un esempio, che rappresenta il vettore d’attacco più utilizzato in assoluto secondo l’ultimo rapporto Clusit.

Più o meno, l’articolo cominciava così:

Lavorando per un’azienda americana, il termine “storytelling” viene utilizzato in maniera estremamente frequente ormai da diverso tempo. Ciò che meraviglia, forse nemmeno troppo, è che pur avendo una lingua così bella e ricca di termini, è prassi comune e consolidata in Italia, a ogni livello, affidarsi a termini stranieri, il più delle volte inglesi. Devo dire, comunque, che c’é qualcosa di particolare in questa parola, qualcosa che non saprei descrivere ma che suscita una specie di meraviglia e stupore nel chi ascolta, non appena viene evocata. Basta utilizzarla per fare apparire impreziosito un ragionamento, valido o no che sia, ed ecco che come per magia, gli interlocutori si illuminano come se si fosse espresso il concetto più profondo di sempre.

Ormai è diventato di uso comune, tanto che non ci facciamo neanche più caso, tanto che, forse, abbiamo smesso di domandarci veramente cosa intendiamo quando parliamo di storytelling oppure sappiamo di cosa parliamo ma, con tutta probabilità, ce lo siamo dimenticato.

Durante l’emergenza del coronavirus il nostro ruolo è chiaro. Ci è stato raccomandato di “eseguire gli ordini” e di fare la nostra parte rispettando le regole come, del resto, dovrebbe avvenire sempre in un contesto democratico e di comunità. Le mie azioni non hanno impatto solo su me stesso ma anche sulle persone che mi circondano e con le quali interagisco e così, al contrario.

Eppure, durante questa esperienza mai vissuta prima, abbiamo un atteggiamento un po' asimmetrico rispetto a coloro che stanno cercando di affrontare e risolvere l’emergenza e non possiamo fare altro che obbedire e fidarci.

Ed ecco la parola chiave: fiducia. Guardiamo cosa ci dice la Treccani a proposito di questa parola così importante.

fidùcia s. f. [dal lat. fiducia, der. di fidĕre «fidare, confidare»] (pl., raro, -cie).

  1. Atteggiamento, verso altri o verso sé stessi, che risulta da una valutazione positiva di fatti, circostanze, relazioni, per cui si confida nelle altrui o proprie possibilità, e che generalmente produce un sentimento di sicurezza e tranquillità: fin Dionegli uomininella fraternità umananella scienzanel progresso socialefnella vittoriafdi riuscirefnella propria stellanelle proprie forzefnell’esito di un’impresaguardare con fall’avvenireferma f.; fillimitataassolutaincondizionataaverenutrire f.; perdere la f.; dare un attestatouna prova di f.; ispirare f.; guadagnaremeritaregodereavere la fdi qualcunoriporre bene, o malela propria f.; abusare della faltrui. Di uso com. le espressioni: persone di f., di miadi tuadi sua f., persone fidate a cui si ricorre in cose delicate e d’importanza; medicoavvocato di f., quello che è liberamente e abitualmente scelto dal cliente; postoimpiegoincarico di f., di responsabilità, delicato, che si affida solo a persone sicure, fidate. 

  2. In diritto costituzionale, voto di f., votazione mediante la quale il parlamento approva (o, se la votazione dà risultato negativo, disapprova) gli indirizzi politici e la corrispondente azione del governo; mozione di f., la proposta, fatta da una delle Camere, di ricorrere al voto di fiducia; questione di f., richiesta da parte del governo di ricorrere al voto di fiducia per l’approvazione o la reiezione di emendamenti e articoli di progetti di legge: il governo ha deciso di porre la questione di fiducia

  3. In diritto civile, ftestamentaria (o disposizione testamentaria fiduciaria), disposizione di testamento per la quale il soggetto che riceve il bene ne è il beneficiario apparente, avendo l’obbligo di trasmettere quel bene ad altra persona (che normalmente non potrebbe essere erede diretto del testatore).

Fiducia è una parola “pesante” che abbraccia scenari ampi e che rappresenta una responsabilità importante in chi la dà e in chi la riceve.

Questo per dire che dobbiamo confidare in coloro che stanno cercando, con non poche difficoltà, di fare fronte ad un problema a cui nessuno era preparato. Pertanto, dobbiamo avere fiducia nelle istituzioni centrali, nelle amministrazioni locali, nei medici, negli scienziati e, non meno importante, in chi ci racconta ciò che succede, ovvero i giornalisti e i conduttori. 

Fiducia... dobbiamo averla in maniera incondizionata, soprattutto considerando il mondo nel quale viviamo? Un mondo nel quale siamo bombardati quotidianamente da una quantità enorme di notizie che affermano tutto ed il contrario di tutto?

Ecco, forse, il punto fondamentale: la gestione della comunicazione.

Sia da parte delle istituzioni sia da parte dei media, soprattutto all’inizio della pandemia, la modalità con cui si è comunicato ha provocato una fuga di notizie che ha generato profonde discussioni ma anche reazioni irrazionali verso tutto e tutti, a partire dal famoso episodio relativo a coloro che affollarono le stazioni del nord per scappare al sud tanto che, col passare dei giorni ci siamo resi conto che quella reazione così irrazionale è stata pur sempre innescata da un gesto altrettanto irresponsabile.

Sembrava, perciò, esserci stata l’occasione per riflettere sul modo in cui, in parallelo agli sforzi medici, si dovesse e potesse affrontare il coronavirus sul piano della comunicazione, ragionando appunto su uno storytelling dell’emergenza.

Invece, la narrazione della crisi è proseguita su binari che facevano affidamento su termini, pratiche e abitudini che, purtroppo, caratterizzano in negativo la comunicazione da tempo, ben prima della diffusione del Covid-19.

Il sensazionalismo, l’analisi grossolana, la ricerca frettolosa di buoni e cattivi, di eroi e di nemici della patria. In un momento in cui gli italiani non possono far altro che fidarsi di ciò che viene loro detto, la confusione e la disinformazione hanno dilagato tanto quanto il virus, rendendo sempre più difficile la comunicazione e, di fatto, quasi vanificando l’occasione di proporre finalmente una narrazione di qualità, mai come ora di vitale importanza.

E tutto ciò perché oggi come oggi la lettura, l’approfondimento, la ricerca della veridicità delle notizie è privilegio di pochi mentre la maggioranza delle persone ascolta gli imbonitori politici e i giornalisti di parte che pur di raccattare voti, da un lato, e influenzare l’opinione pubblica dall’altro, anche in una situazione così critica come questa, usa la comunicazione in modo fazioso e strumentale.

Tutto ciò, lo vogliate o no, rientra nella categoria delle fake news.

Fake” o fake news” continuano ad essere termini che non rendono giustizia all’ampiezza del fenomeno che stiamo vivendo perché sarebbe più corretto parlare di manipolazione o di disinformazione che non sono, senza dubbio, concetti nuovi ma che, rispetto al passato, si arricchiscono di ulteriori implicazioni.

Appurato che, ormai, la maggior parte della popolazione preferisce apprendere qualsiasi tipo di informazione dai “social”, indipendentemente dall’importanza dell’argomento, è possibile affermare che tra i principali rischi vi sia quello che possano essere ritenute valide informazioni palesemente false.

Questa situazione è ulteriormente ingigantita dal cosiddetto “backfire effect” ossia il fenomeno secondo il quale “quando si contesta un’informazione falsa ma già consolidata, si finisce col confermarla ancor di più perché, purtroppo, si è restii a cambiare la propria opinione”.

Possiamo affermare che tutti i settori culturali della società contemporanea sono vittime delle “fake news” anche se la concentrazione maggiore risulta essere sui contenuti di carattere scientifico.

Il punto di vista personale è che la disinformazione in questo settore trova terreno fertile nel propagarsi perché si basa principalmente sull’ignoranza dei concetti di base.

Il fatto che il linguaggio scientifico sia estremamente specifico permette a coloro che creano disinformazione di ottenere un immediato e notevole successo incidendo negativamente sul mondo accademico che rischia di perdere di credibilità. È emblematico anche il fatto che quando subentrano falsità che riguardano la salute, il danno provocato rischia di diventare irreparabile.

Sono stati svolti molti studi al riguardo e ciò che emerge è che esiste la convinzione da parte di molti nel definire centrale il ruolo delle “tech companies”, le società tecnologiche che, lungi dal funzionare come semplici “piattaforme” svolgono un ruolo più in linea con le caratteristiche e i requisiti delle aziende.

Il grande potere di queste società non si esaurisce nel caricare contenuti su una piattaforma ma, al contrario, si innalza grazie al controllo in maniera selettiva e puntuale di ciò che noi vediamo dal momento che è proprio questo il loro modello di business.

E l’obiettivo finale, come per la politica, del resto, rimane quello di aumentare il loro pubblico di utenti, “lisciandogli il pelo, per usare un eufemismo un po' “francese” 😊, modificando il flusso delle informazioni a dispetto della loro presunta neutralità.

A tal fine fanno largo uso di algoritmi sofisticati, analisi di dati, tecniche di data matching e profiling grazie ai quali viene processata una grande mole di informazioni raccolte, concesse a terzi senza, molto spesso il consenso degli interessati oppure con un consenso inconsapevole; dati che vengono utilizzati, contestualmente alla raccolta, nella promozione pubblicitaria e nel micro targeting attraverso i social media.

I bot sono un altro strumento utilizzato in modo notevole. Si tratta, come sappiamo, di programmi che accedono alla rete attraverso lo stesso tipo di canali utilizzati dagli utenti umani e che consentono, tra le altre cose, attraverso specifici algoritmi, di realizzare compiti precisi come le attività di data scraping e Web scraping che danno luogo all’estrazione di dati e informazioni presenti in una determinata pagina per usarle in altri contesti.

Nella piazza virtuale le informazioni false o scorrette, siano esse di natura commerciale oppure politica, sono occultate, inviate a un micro target di persone sulla base di dati raccolti da potenti società di web marketing, senza che gli interessati ne siano a conoscenza.

Sempre più spesso il “dibattito pubblico”, incentrato su temi di grande complessità e di difficile soluzione, che riguardano il futuro di tutti, viene stravolto e trasformato in vere e proprie campagne di marketing del consenso, fatte di soli slogan che riempiono lo spazio pubblico.

In buona sostanza, le tech companies sono stimolate, anche dal punto di vista economico, a dare la priorità ai contenuti sensazionali dal momento che sono maggiormente suscettibili nell’attirare l’attenzione oltre che nel favorire la polarizzazione e la radicalizzazione dei dibattiti.

La sensazione dilagante è che la disinformazione che circola sulle piattaforme sia frutto di un progetto organizzato e condotto da attori che hanno compreso benissimo alcuni principi basilari dell’economia digitale attraverso i quali ottenere ingenti introiti pubblicitari.

Tutto ciò ha continuato a dilagare in modo incontrollato cosicché, nell’ottobre 2018, le principali piattaforme digitali hanno sottoscritto un “codice di condotta” per combattere la disinformazione online. Si tratta di un inizio ma che rappresenta una tappa fondamentale nella lotta ad un problema che potenzialmente è in grado di minacciare la fiducia dei cittadini verso le istituzioni, come ribadito in ambito UE.

L’obiettivo dell’Unione Europea, tra le altre cose, è quello di gestire un pacchetto di norme di autoregolamentazione su base volontaria, idonee a contrastare la disinformazione del web.

Di fatto, con l’adesione a questo progetto, ogni impresa del web si è data delle regole per combattere la disinformazione in tutti gli Stati membri dell’Ue.

Da tutto ciò si evince che l’informazione si è trasformata in “comunicazione” e che, al contempo, si è sviluppata la disinformazione, che rappresenta senza dubbio un fenomeno complesso e in trasformazione, e che può essere usato come una nuova arma, per finalità di tipo politico, economico o militare.

Oggigiorno sono tantissime e raffinatissime le tecniche di disinformazione tanto da rappresentare una minaccia per la sicurezza e la stabilità di un paese. Per questo, come anticipato, ho l’ardire che possiamo considerarle come una minaccia cyber.

Non è un caso, infatti, che quando si mettono in discussione l’integrità e la stabilità di un Paese si fa ricorso ai servizi di intelligence che giocano un ruolo fondamentale nel contrasto a tali forme di minaccia. Gli stessi servizi di intelligence peraltro sono stati interessati ad una trasformazione che li ha portati ad assumere una connotazione in grado di affrontare le nuove sfide alla sicurezza.

Senza entrare nel dettaglio di cosa si intenda per intelligence e consapevole che il lettore possa, comunque, apprenderlo da diverse fonti (https://www.sicurezzanazionale.gov.it/sisr.nsf/cosa-facciamo/l-intelligence.html), proprio perché occorre confrontarsi con nuove minacce ibride e, soprattutto, asimmetriche, il suo ruolo diventa fondamentale.

L’Intelligence è strettamente legata a ciò che avviene in ambito internazionale, soprattutto in merito ai rapporti di forza tra gli Stati ma anche al mercato globale.

Questo legame è ancora più vero se pensiamo a quelle aree del mondo dove non sono presenti conflitti di natura tradizionale ma che soffrono dei fenomeni di vulnerabilità originati da conflitti economici, forme avanzate di terrorismo di varia matrice ed attacchi attuati con metodologie nuove che, necessitano di forme di intelligence specifiche.

Le tradizionali “minacce alla sicurezza” si sono evolute per arrivare a più complesse minacce cibernetiche operate da attori che, fondamentalmente, possono essere distinti in due macro-gruppi:

  • attori governativi che sono molto strutturati ed estremamente pericolosi in virtù del fatto che dispongono di ingenti risorse economiche ed umane. Possiamo rappresentare le minacce di cui sono autori in due classi: cyber warfare che è una sorta di guerra digitale e cyber espionage che rappresenta lo spionaggio digitale.

  • attori non governativi di cui fanno parte i gruppi terroristici (cyber terrorism), le organizzazioni criminali (cyber crime) ed altri attori riconducibili ad individui mossi da impulsi religiosi, politici e ideologici.

Tutto ciò porta a pensare che sempre più spesso le azioni criminali faranno uso di strumenti tecnologicamente avanzati quali l’intelligenza artificiale il cui fine sarà quello di destabilizzare i rapporti internazionali ed avere una percezione della sicurezza, per così dire, indotta.

Una possibile arma è quella del “deepfake”, basata su processi che sfruttano i principi dell’intelligenza artificiale per modificare e sovrapporre immagini e video partendo dagli originali così da elaborarne altri in cui i soggetti compiono azioni, parlano e si muovono in contesti assolutamente non reali, grazie a tecniche di machine learning quali “generative adversarial network”.

Ci sono poi i “fake people”, persone che non esistono nella realtà ma che sono i protagonisti di video virtuali che generano sentimenti forti quali rabbia, sfiducia, compassione, paura o disagio in funzione delle finalità che si perseguono.

Lo sviluppo di una cyber intelligence efficace è una realtà incontrovertibile che deve adeguarsi ai mutati scenari basandosi sull’analisi di fonti aperte, sull’elaborazione dei big data, sullo sviluppo di tecniche di intelligenza artificiale con le quali far fronte alla cyber warfare e garantire la difesa della collettività.

Da qui, risulta evidente il legame con quanto questo articolo ha avuto la pretesa di evidenziare e cioè: “notizia”, “informazione”, “disinformazione” entrano e si permeano all’interno del sistema “media” e del sistema “intelligence” e per evitare che le tecnologie così pervasive possano far “esplodere” il sistema di comunicazione e di informazione con ripercussioni inimmaginabili sulla stessa società, è fondamentale che l’intelligence assuma un ruolo centrale per garantire la sicurezza.

In sintesi, ci troviamo di fronte ad un sistema estremamente complesso all’interno del quale risulta quasi impossibile stabilire quale sia la fonte di una notizia o verificarne la veridicità. Questo perché chi genera fake news tende a mettere sullo stesso piano qualsiasi opinione o parere in merito ad un dato argomento con il risultato che tutti si sentano dei massimi esperti . Fatto, peraltro, estremamente amplificato dai social. Il dramma è che di fronte a tutto questo la maggioranza degli utenti è impotente anche e soprattutto in virtù del fatto che, ormai, accettano qualsiasi notizia venga loro fornita da giornali, tv o social.

Sembra esistere una tetra similitudine tra i tempi in cui la censura, indipendentemente dal potere politico del Paese nella quale operava, si preoccupava di bloccare le informazioni e il tempo attuale in cui altri organi di potere setacciano, valutano, modificano e costruiscono una grandissima quantità di informazioni inutili ed irrilevanti confondendo e manipolando il destinatario di queste informazioni, ossia l’utente medio, ahimè incapace di opporre resistenza.

Credo sia fondamentale, a questo punto, investire su una moderna ed efficace cyber intelligence in grado di sviluppare capacità di cyber counter intelligence che vada oltre il mero ruolo difensivo e che sia, al contrario, molto più proattiva e finalizzata a potere operare nella dimensione cyber anche con attacchi e simulazioni, il cui scopo possa essere quello di ostacolare gli avversari che via via si materializzano in questo scenario.

Da ultimo ma non per questo meno importante e non ci stancheremo mai di sottolinearlo, bisogna investire su una formazione di tutti gli utenti verso una crescente sensibilità della sicurezza informatica affinché i rischi sempre maggiori e sempre più complessi possano essere rilevati, analizzati ed affrontati.

Carlo Mauceli


Per approfondire:

Papa Francesco: “Le tecnologie sono un dono, usarle correttamente” - CorCom (corrierecomunicazioni.it)

L'intelligence - Sistema di informazione per la sicurezza della Repubblica (sicurezzanazionale.gov.it)

Proteggere i diritti umani nell'era della guerra ciberneticaPrima Pagina | Prima Pagina

Web e disinformazione: il ruolo dell’intelligence (diricto.it)

Fake news: la nuova era della guerra cibernetica | Trizio Consulting

Deepfake e video manipolati: come funziona il lato oscuro dell’intelligenza artificiale - Il Sole 24 ORE

Che cos'è il backfire effect, che non ci fa cambiare le nostre convinzioni errate - Wired

Rete generativa avversaria - Wikipedia

Fake people, cosa sono e perché vanno tenute d'occhio | Il Bo Live UniPD

martedì 15 giugno 2021

Il Sistema Operativo: l'anima dei PC


Possiamo affermare che la prima grande rivoluzione informatica si è avuta con la nascita dei Sistemi Operativi che ha permesso, di fatto, al mondo intero, l’utilizzo dei device.

Grazie a tecnologie più veloci e sempre “meno costose”, i computer hanno avuto uno sviluppo esponenziale ed il sogno di Bill Gates 😊, ossia avere un computer su ogni scrivania, si è avverato. Non solo; si è andati ben oltre tanto che al giorno d’oggi, rispetto al passato, è disponibile una grande varietà di sistemi di elaborazione e non c’è più bisogno di una scrivania ma bastano le nostre tasche 😊.

Vediamo, pertanto, come sono nati i sistemi operativi e, realmente, cosa sono.

Per semplificare le cose, un sistema operativo è un software che viene caricato all’avvio del computer e che permette l’utilizzo di altri software. Possiamo dire che, in assoluto, è il software più utilizzato nella vita di un computer ed è il mezzo attraverso il quale il computer stesso vive. Senza il sistema operativo molte operazioni non potrebbero esistere.

Possiamo dividere il sistema operativo in due grandi classi:

  • La prima è quella testuale;

  • La seconda, è quella grafica. Di fatto, la più utilizzata.

Se andiamo a ritroso nel tempo, il progenitore del sistema operativo possiamo datarlo tra il 1945 e il 1955 quando comparvero i primi elaboratori elettronici dotati di valvole termoioniche. Si trattava di macchine costosissime in cui i programmi venivano scritti in linguaggio macchina ed inseriti nel programmatore attraverso lettori di schede perforate ed i cui risultati venivano, successivamente, inviati alla stampante.

Nel decennio che va dal 1955 al 1965 comparvero i primi elaboratori affidabili, i cosiddetti Mainframe, grazie all’invenzione dei transistor che sostituirono le valvole termoioniche. Si trattava sempre di macchine iper-costose e gigantesche i cui acquirenti erano soltanto banche, Università e Centri di Calcolo. Contestualmente nasce anche il primo vero linguaggio di programmazione, il Fortran, il quale consente di avere un numero sempre crescente di programmatori.

E qui, finalmente, arriviamo al primo vero Sistema Operativo, prodotto dalla General Motors per il proprio IBM 701. Dal momento che non era ancora stata introdotta la tecnologia di accesso diretto alla memoria (DMA) tutte le operazioni di input/output erano a carico della CPU il che rallentava terribilmente l’esecuzione vera e propria. Per questa ragione si adottò la soluzione a lotti, i cosiddetti batch, per cui l’I/O viene gestito da un calcolatore più economico come l’IBM 1401 e l’elaborazione affidata ad un calcolatore centrale come l’IBM 7094. Il sistema operativo di questi calcolatori, il cosiddetto Batch Monitor, svolgeva pochi servizi quali la gestione dell’Input/Output e l’interpretazione ed esecuzione dei comandi contenuti nelle schede di controllo.


Nei primi anni 60, con lo sviluppo sempre maggiore dei transistor, si hanno i primi sistemi operativi in multiprogrammazione time-sharing e sistemi real-time per il controllo di processo. Nel 1962 al MIT si realizza il CTSS, il primo sistema time-sharing, su un IBM 7094 ed è in questo periodo che il MIT, la General Electric e i Bell Labs sviluppano, in modo congiunto, MULTICS, un sistema operativo in grado di supportare centinaia di utenti in time-sharing, una sorta di pietra miliare che ha influenzato lo sviluppo dei sistemi operativi che sarebbero arrivati successivamente.

La primavera del 1964 vede la nascita di IBM OS/360, un sistema operativo omnicomprensivo in grado di gestire il batch, il time-sharing e il real-time, di supportare sia il calcolo scientifico, con il linguaggio Fortran, che quello commerciale, con il linguaggio gestionale Cobol, realizzato l’anno successivo.

Negli anni immediatamente successivi, con lo sviluppo dei minielaboratori, vengono sviluppati appositi sistemi operativi tra cui, il più famoso, è UNIX.

Con l’avvento di UNIX, avvenuto nel 1969, entriamo in una nuova era che vede la nascita di sistemi operativi eterogenei:

  • OS/370 di IBM che introduce il concetto di macchina virtuale;

  • VM/CMS, nato nel 1972;

  • Sistemi operativi distribuiti su una rete di processori


Questi sistemi operativi offrono, per la prima volta, funzioni che prima erano caratteristica dei programmi applicativi determinando la nascita di elaboratori multiprocessore.

Non possiamo a questo punto non dedicare un momento a UNIX. Questo sistema fu progettato a partire dal 1969 da un gruppo di ricercatori della AT&T presso i Bell Labs tra cui sono degni di menzione Ken Thompson che lavorò anche al progetto Multics e Dennis Ritchie, uno dei pionieri dell'informatica moderna, importante per essere stato l'inventore del linguaggio C.

La nascita di UNIX ha dato luogo ad una serie di varianti come BSD (Berkley Software Distribution), SCO System V, Minix e, successivamente, LINUX, realizzato nel 1991 dallo studente finlandese Linus Stallman, famoso per essere stato il paladino del software libero.

A cavallo degli anni 70/80 assistiamo al fenomeno dell’abbattimento dei costi hardware grazie allo sviluppo della tecnologia LSI (Large Scale Integration) e alla costruzione di chip integrati e alla nascita dei Personal Computer in grado di avere prestazioni simili a quelle dei calcolatori medio-grandi di 10 o 20 anni prima. Contestualmente, nel 1964, nasce il Basic, un nuovo linguaggio di programmazione.

I più importanti sistemi operativi di questo periodo sono:

  • CP/M-80 della Digital Research per le CPU Intel 8080 e Z-80;

  • MS-DOS di Microsoft, simile al CP/M-8 adottato da IBM per il proprio Personal Computer, lanciato nel 1981 e che pose le basi per lo sviluppo di Microsoft.

Questi anni sono estremamente vivaci e fertili dal punto di vista informatico ed anche l’Italia ne trae beneficio con l’affermazione e la successiva rapida crescita di Olivetti che nel 1972 costituisce a Ivrea il Servizio Sviluppo Software che può contare sulle esperienze maturate da alcuni ingegneri negli USA presso il MIT. È da questo gruppo, svincolato dai gruppi di sviluppo prodotto per rispondere ad una strategia di rilancio decisa dal top management di allora, l’amministratore delegato Ottorino Beltrami e la responsabile del product planning Marisa Bellisario, che tra il 1973 e il 1975 nasce il Cosmos, sistema operativo del TC 800.

Il TC 800 è un sistema di terminali bancari video-tastiera, ciascuno dei quali ha memoria e disco sufficienti per elaborare la parte locale della transazione bancaria di sportello. I terminali sono poi collegati al master, sempre della stessa famiglia, che concentra il tutto colloquiando con l'elaboratore centrale (in genere un grosso IBM). L'importanza dell'innovazione consiste nel fatto che l'elaborazione non avviene più tutta al centro, ma in parte si svolge presso i terminali di sportello, che diventano parte attiva di un sistema complesso.

La posizione di avanguardia in questo campo si conferma a inizio anni '80 con Cosmos II, su minicomputer S1000, un sistema che presenta protocolli LAN e WAN standard ISO ed ECMA, organismi internazionali di standardizzazione in cui Olivetti gioca un ruolo di rilievo.

Le competenze acquisite nel software consentono in seguito alla Olivetti di avere un ruolo importante anche nei grandi programmi sia italiani (Progetto finalizzato Informatica del CNR), sia europei (Progetto Esprit dell'Unione Europea).

A partire dal 1984 esplodono i sistemi operativi con interfaccia grafica. Ispirandosi all’interfaccia grafica sviluppata da Xerox qualche anno prima, Apple dà vita, sul Macintosh, a Mac OS che rappresenta il primo sistema operativo per PC con interfaccia grafica che rappresentò una vera rivoluzione.


Subito dopo assistiamo alla nascita di X Windows System in ambiente UNIX e a Windows da parte di Microsoft che, all’inizio, non era un vero e proprio sistema operativo ma un’estensione di MS-DOS.

Nel 1987 IBM sviluppa OS/2 per il proprio PC PS/2 che non ha, però, un grande successo. L’imposizione sul mercato da parte di Microsoft avviene con la nascita di Windows 3.0 nel 1990, sistema operativo che supporta il multitasking e la memoria virtuale, a cui seguiranno Windows 3.10 e 3.11 mentre nel 1992 vengono introdotti il supporto multimediale e le funzioni di rete per lan e peer to peer.

Solo a partire da Windows 95 si può parlare di sistema operativo vero e proprio per Windows oltre al fatto che si passa dal calcolo a 16 bit a quello a 32 bit. Seguiranno poi Windows 98, nel 1998, Windows ME, nel 2000, Windows 2000, sempre nel 2000, Windows XP, nel 2001 e via via tutti gli altri fino ad arrivare a Windows 10 dei nostri giorni.


Anche Linux nelle sue varie distribuzioni fornisce l’interfaccia grafica: Red Hat, nel 1994, Debian GNU/Linux, nel 1996, Ubuntu nel 2005.

Una menzione a parte meritano i sistemi operativi di rete che nacquero con il fenomeno che si sviluppò negli anni ’80 con la nascita delle reti di computer.

Nacquero così:

  • Sistemi Operativi di Rete che sono dei normali sistemi operativi con l’aggiunta di software per il collegamento a macchine remote e quindi alle relative risorse condivise come file e stampanti;

  • Sistemi Operativi Distribuiti che sono sistemi operativi che girano su sistemi a più processori oppure che inviano i processi da elaborare ad altri computer della rete.

Su queste basi nasce nel 1983 il sistema operativo Netware di Novell che consente la connessione in rete di computer dotati di sistemi operativo quali MS-DOS, Windows, Unix e Mac OS.

Sull’onda delle nuove esigenze di connessione e condivisione di informazioni e device, Microsoft sviluppa diversi Sistemi Operativi di rete, sempre denominati Windows: NT, nel 1993, 200 Server, nel 2000, Server 2003, nel 2003, Server 2008, nel 2008, Server 2012, nel 2012, ecc.


Al giorno d’oggi, rispetto al passato, è disponibile una grande varietà si sistemi di elaborazione dalle più disparate dimensioni e performance a costi contenuti e sono sempre più diffuse le interconnessioni tra i vari dispositivi in modalità sia wired che wireless.

Tutto questo ha portato allo sviluppo di sistemi operativi per le più svariate architetture ed in particolare per i cellulari i cui due sistemi operativi più importanti sono IOS di Apple e Android di Google.

Ma di questo ne parleremo in un prossimo articolo...

Carlo Mauceli

Storia dei sistemi operativi - Wikipedia

Mainframe - Wikipedia

Cronologia dei sistemi operativi - Wikipedia

Racconti e aneddoti di un pioniere informatico - Difesa Online

IBM 701 - Wikipedia

CTSS - Wikipedia

What is the Compatible Time Sharing System (CTSS)? - Definition from Techopedia

Multics - Wikipedia

StoriaInformatica.it, dove i ricordi digitali prendono forma

COBOL: storia, applicazioni e futuro | Webnews

Microsoft PowerPoint - Giovanni Riccardi - Storia deilinguaggi di programmazione (infn.it)

Unix - Wikipedia

Unix: storia e fondamenti di una pietra miliare - IONOS

Ken Thompson UNIX systems father | Unixmen

Dennis M.Ritchie - The father of the "C" programming language | Unixmen

StoriaInformatica.it, dove i ricordi digitali prendono forma

Storiaolivettti - Software (storiaolivetti.it)

l'evoluzione dell'interfaccia grafica — Design Multimedia (desmm.com)

La storia di Windows, dal DOS alla prima Interfaccia - Lentux Informatica (lentux-informatica.com)

Evoluzione dei sistemi operativi e delle interfacce utente - Lidweb.net

StoriaInformatica.it, dove i ricordi digitali prendono forma

La storia di Windows, anno 1987: OS/2 [TurboLab.it]

StoriaInformatica.it, dove i ricordi digitali prendono forma

StoriaInformatica.it, dove i ricordi digitali prendono forma

Novell (wikiqube.net)