Traduttore automatico - Read this site in another language

venerdì 29 maggio 2020

NATO Defence Planning Process: cos'è e perchè è o dovrebbe essere importante

NDPP, un acronimo più o meno sconosciuto per un processo ancora più sconosciuto.

NDPP significa NATO Defense Planning Process ed è uno dei processi più importanti tra quelli impiegati nell'Alleanza Atlantica. 
Il NDPP infatti ha come scopo di offrire un framework in cui le attività di pianificazione capacitiva militare nazionale e NATO possono essere armonizzate per far si che l'Alleanza nel suo complesso possa disporre delle forze necessarie e delle capacità richieste per affrontare le sfide future.

Si potrebbe pensare dunque, a prima vista, che il NDPP sia una cosa che riguarda la NATO, ma in effetti non è proprio così.
Il processo di allocazione delle risorse all'interno del budget della Difesa è considerato dagli studiosi di questioni strategiche "Grand Strategy".
In un interessante articolo dell'amico Jordan Becker e di Robert Bell (1), gli autori sostengono la tesi che in un periodo quale quello che viviamo in questi anni, definito come ambiguo (fog of peace), le considerazioni di carattere militare operativo, in merito alla allocazione di risorse, sono subordinate a politiche nazionali, regionali e solo alla fine a quelle dell'Alleanza.

Viene dunque da chiedersi, se è vero che il NDPP è il processo impiegato in ambito Alleanza Atlantica per pianificare le risorse e le capacità ottimali necessarie per fronteggiare le sfide emergenti ma gli Stati sono interessati in primo luogo a soddisfare i propri bisogni interni e solo in seguito a soddisfare le richieste della Alleanza, quale sia la reale efficacia del processo messo in piedi.

La domanda non è banale, non me la sono posta io, sia ben chiaro, ma è una domanda che si pongono tutti gli studiosi americani di Grand Strategy.
Ricordiamo che gli impegni in ambito Alleanza sono presi dai capi di Stato o di Governo dei paesi Alleati e non dall'ultimo venuto. 
Nel 2014, per esempio, i Paesi dell'Alleanza si sono impegnati ad incrementare le spese per la Difesa portandole almeno al 2% del PIL entro il 2024. Se è vero che un aumento della spesa nazionale nella Difesa non è detto che conduca ad una crescita capacitiva allineata a quanto deciso in ambito NDPP, è però vero che il continuo decremento del budget nazionale degli ultimi anni compromettere seriamente la possibilità di raggiungere gli obiettivi fissati.

Senza alcuna presunzione di esaustività, proviamo a capire qualcosa di più sul NDPP.

Il NDPP è un processo organizzato su cinque passi, che copre un periodo di tempo di quattro anni.

Il primo passo consiste nello stabilire la guida politica del processo (Political Guidance). Si esplicita in un documento, revisionato ogni quattro anni a cura del Defence Policy and Planning Committee Reinforced - DPPC(R) - che stabilisce scopi e obiettivi generali che devono essere raggiunti dall'Alleanza nei quattro anni successivi. E' redatto a partire da documenti di policy di livello superiore (Strategic Concept) ed ha un livello di dettaglio sufficiente affinché i pianificatori possano determinare chiaramente le capacità necessarie. Al suo interno deve essere riportato il "Level of Ambition" dell'Alleanza, le capacità richieste in termini qualitativi e una indicazione dei tempi e priorità per la realizzazione. 

Il secondo passo consiste nel determinare i requisiti capacitivi (Determine requirements) necessari per assolvere agli scopi e obiettivi indicati nella guida politica. Ad identificare la lista dei requisiti (Minimum Capability Requirements) sono i due Comandi Strategici: Allied Command Operations (ACO) e Allied Command Transformation (ACT).
 
Il terzo passo consiste nel suddividere i requisiti capacitivi individuati tra gli alleati (Apportion requirements and set targets), tramite assegnazione individuale o per gruppi di Stati. I Comandi Strategici, sotto la guida di ACT, e aiutati dal NATO International Staff preparano un pacchetto di capacità da assegnare per lo sviluppo ad ogni alleato, con associate priorità e tempi. Per fare ciò si applica il principio del "fair burden sharing" (2). Una volta che il Ministro della difesa del paese assegnatario accetta di sviluppare il pacchetto capacitivo assegnatogli in ambito Alleanza, questo viene inserito nel processo di pianificazione nazionale.

Il quarto passo consiste nel facilitare la realizzazione del piano di sviluppo capacitivo (Facilitate implementation) complessivo e delle nazioni. Questo passo è trasversale a tutti gli altri e non sequenziale come gli altri. 

Il quinto passo consiste nel revisionare il processo (Review results), a partire dall'esame del livello di raggiungimento degli obiettivi politici iniziali, del livello di ambizione della NATO e delle capacità militari allo scopo di offrire un utile feedback per il ciclo NDPP successivo. Il responsabile della revisione è il Defense Planning Capability Review a guida NATO International Staff.

E' chiaro che il NATO Defense Planning Process è complesso e richiede impegno costante da parte di tutte le nazioni alleate, la NATO infatti si basa su capacità e forze rese disponibili di volta in volta dalle nazioni alleate e non come qualcuno pensa su forze della NATO (spesso letto come USA!).

Se è vero, come discusso dall'amico Jordan Becker, che gli Stati sono più propensi a soddisfare esigenze nazionali, poi regionali e solo dopo dell'Alleanza, allora il rischio è che l'Alleanza prima o poi si trovi nell'incapacità di affrontare le sfide per le quali è stata creata ed ancora esiste.

Allora bisogna fare attenzione a ciò che si dice quando si parla.

Le osservazioni critiche del Presidente americano Trump che bacchetta gli Alleati per non aver mantenuto l'impegno del 2%, come le risposte stizzite dei partners europei verso una Alleanza incapace di adattarsi alle nuove esigenze non servono a niente, o probabilmente sono controproducenti, meglio è allora lasciar parlare la diplomazia, più usa a cercare il compromesso! 

Una Alleanza rispecchia infatti i rapporti di forza esistenti tra elementi di un dato ambiente internazionale, non è certo uno strumento magico per la risoluzione di problemi che esistono da sempre.


Alessandro Rugolo.  


Per approfondire:

1. Jordan Becker & Robert Bell (2020): Defense planning in the fog of peace: the transatlantic currency conversion conundrum, European Security, DOI: 10.1080/096628 39.2020.1716337 al link https://www.tandfonline.com/doi/full/10.1080/09662839.2020.1716337;

2. Con "burden sharing" si intende la distribuzione dei costi e dei rischi tra i membri di un gruppo nel processo di raggiungere un obiettivo. Foster & Cimbala, The US, NATO and military burden sharing, 2005. 

- https://www.nato.int/cps/en/natohq/topics_49202.htm;

- https://foreignpolicy.com/2009/04/08/what-is-grand-strategy-and-why-do-we-need-it/;

- https://www.nato.int/cps/en/natohq/events_112136.htm;

giovedì 21 maggio 2020

La regione "Ile de France" rilancia sulla Intelligenza Artificiale

La Francia è lanciata all'inseguimento dei big sulla strada dell'Intelligenza Artificiale. Non è una novità infatti la sua aspirazione al raggiungimento di una certa indipendenza in quelli che sono considerati settori strategici del mondo della tecnologia.

Le nuove tecnologie, e tra queste l'Intelligenza Artificiale in primis, sono infatti da sempre oggetto di interessi nazionali.

Il governo del mondo è controllato sempre più dalle nuove tecnologie.
L'Intelligenza Artificiale consente l'accelerazione nello sviluppo di molti campi della conoscenza della nostra società in quanto aiuta l'uomo nel governo di enormi masse di dati e nella ricerca di pattern dagli usi più disparati.

L'impiego di strumenti dotati di Intelligenza Artificiale è sempre più presente all'interno dei governi, delle imprese e della società in generale ed in particolare nel settore di "supporto alle decisioni".
Sempre più organizzazioni, civili e militari, fanno ricorso a strumenti di analisi predittiva basati su Intelligenza Artificiale per lo sviluppo del proprio business e gli Stati si attrezzano, forse troppo lentamente, per governare questo nuovo campo di ricerca.

Nel settembre 2017 il Primo Ministro francese, Edouard Philippe, ha assegnato ad un matematico francese di chiara fama, Cédric Villani, il compito di preparare un rapporto sulla Intelligenza Artificiale incentrato sui provvedimenti necessari affinché la Francia fosse in condizione di sfruttarne tutte le possibilità.
Villani mise in piedi un gruppo di lavoro composto da sette persone con background differente che lavorasse a tempo pieno per il raggiungimento dell'obiettivo assegnato.
Qualche mese dopo il rapporto viene presentato e pubblicato.
La prima parte dello studio, "Une politique économique articulée autour de la donnée", riconosce l'importanza dei dati nella società attuale e il sempre crescente interesse per lo sviluppo economico e sociale.

Il rapporto, che consiglio di leggere con attenzione a chi è interessato all'argomento, è ricco di spunti e seppure incentrato sulla Francia può essere una ottima guida anche per l'Italia.

La Francia ha dunque lanciato una sua strategia per l'Intelligenza Artificiale e in modo molto pragmatico la segue.
Come effetto della strategia nazionale si può considerare il "Plan IA 2021" per lo sviluppo della Intelligenza Artificiale nella regione "Ile de France".
Il piano, molto sintetico e chiaro, è basato su quattro linee di condotta a loro volta articolate in quindici punti. Vediamoli assieme.

La prima linea di indirizzo consiste nel mettere l'IA al servizio della economia della regione "Ile de France" (che comprende Parigi) e in particolare della sua industria.
Si articola in sette misure pratiche o obiettivi:
1. Facilitare l'uso della AI per le piccole e medie imprese (PME) e per le imprese di taglia intermedia (ETI).
2. Rendere leggibile l'offerta e i servizi di IA ed avvicinare l'offerta agli utilizzatori.
3. Favorire l'innovazione in IA mettendo in comune i dati industriali.
4. Dare accesso ad una potenza di calcolo e di stoccaggio dei dati competitivo e sovrano.
5. Proporre una offerta di ricerca in IA per le PME, ETI e start-up: il progetto INRIATECH, e favorire il reclutamento di dottorandi.
6. Realizzare dei percorsi formativi accessibili ai giovani e a chi cerca lavoro.
7. Creare il primo liceo IA di Francia.

La seconda linea d'indirizzo consiste nel rafforzare la leadership e l'attrattività internazionale dell'Ile de France in materia di IA. Si articola in tre obiettivi:
8. Sostegno al progetto DIGIHALL.
9. Accelerare le cooperazioni internazionali con il Québec, la Baviera e la Corea del Sud.
10. Una strategia di comunicazione internazionale relativa a "IA Paris Region", per mezzo di Paris Region Entreprise (PRE) e degli ambasciatori IA.

La terza linea d'indirizzo consiste nel togliere i freni tecnologici sulle filiere regionali prioritarie.
11. L'IA al servizio della Sanità - sfida "IA Oncologie" e dispiegamento dell'ospedale del futuro.
12. L' IA al servizio dell'industria - sfide "IA de confiance" e "transfer Learning".
13. l'IA al servizio dei cittadini - sfida "AI emploi".
14. Innov'Up: promuovere ed adattare gli aiuti regionali nel settore innovazione per favorire l'uso della IA.

Ed infine la quarta linea d'indirizzo che consiste nel pilotare e valutare tutto il processo messo in opera.
15. Mettere in opera una governance federatrice e strutturata.

Per ognuno degli obiettivi sono indicati i partners strategici e le modalità per il raggiungimento, comprensive di tempi e investimenti o progetti messi in campo. 
In alcuni casi si tratta "semplicemente" di mettere a sistema le varie iniziative sorte nel tempo per avere una chiara visione di ciò che accade, in altri casi si tratta di veri e propri investimenti.
Un esempio per tutti: il punto 7 consiste nel creare il primo liceo francese , progetto sviluppato in collaborazione con Education nationale, Thales, Microsoft, IBM, Qwant e alcune start-up, con lo scopo di formare circa 200 ragazzi all'anno. I programmi prevederanno studi sull'IA e su varie branche della matematica e statistica.
Una delle sfide per la buona riuscita di questo progetto consiste nella preparazione degli insegnanti, inizialmente le risorse umane saranno reperite all'interno delle società e delle istituzioni accademiche più avanti nel settore.

Cosa sta accadendo in contemporanea in Italia?

Per provare a dare una risposta possiamo utilizzare varie fonti, tra le quali il rapporto di Oxford Insights sulla AI per l'anno 2019 che indica la preparazione complessiva di una nazione in ambito AI. 
Mentre eravamo al corrente dell'altissimo livello raggiunto da Singapore (facilitato dalle dimensioni…), ci ha sorpreso vedere la Cina al ventesimo posto. 
Secondo il rapporto la Francia è nel gruppo di testa in Europa, assieme a Germania, Finlandia e Svezia, mentre l'Italia si colloca al quindicesimo posto a livello mondiale e ottava in Europa con un valore dell'indice sensibilmente più basso rispetto ai paesi di testa. 
Anche tenendo in considerazione eventuali distorsioni dovute all'approccio metodologico usato nella realizzazione del report (la posizione della Cina sembra essere un evidente indizio), il ritardo dell'Italia è evidente, nonostante l'ottimo livello della ricerca accademica e industriale, come testimoniato lo scorso anno durante il primo convegno nazionale del CINI sull'Intelligenza Artificiale.
Quello che è mancato finora all'Italia è la messa a sistema delle conoscenze e competenze distribuite tra Università, centri di ricerca e imprese.
Le ultime notizie dalle commissioni nominate lo scorso anno, una presso il Ministero dell'Università e Ricerca e una presso il MISE risalgono rispettivamente al mese di marzo e di agosto 2019.

Un anno è passato senza che sia stata approvata una strategia nazionale e allocati dei fondi per sostenere lo sviluppo.
Un tempo incompatibile con la velocità della trasformazione in atto.


Alessandro Rugolo e Giorgio Giacinto

Per approfondire:

- https://www.iledefrance.fr/la-region-ile-de-france-presente-son-plan-regional-sur-lintelligence-artificielle-ia-2021-et-les

- https://www.enseignementsup-recherche.gouv.fr/cid128577/www.enseignementsup-recherche.gouv.fr/cid128577/www.enseignementsup-recherche.gouv.fr/cid128577/rapport-de-cedric-villani-donner-un-sens-a-l-intelligence-artificielle-ia.html

- https://www.enseignementsup-recherche.gouv.fr/cid114739/rapport-strategie-france-i.a.-pour-le-developpement-des-technologies-d-intelligence-artificielle.html

- https://uk.ambafrance.org/Strategie-de-la-France-en-intelligence-artificielle

- https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/rapport-villani-la-plan-de-la-france-pour-devenir-leader-sur-l-intelligence-artificielle_122549

- https://www.insee.fr/fr/metadonnees/definition/c2034

lunedì 18 maggio 2020

1,5 miliardi di dollari in Italia: mega investimento Microsoft

Qualche giorno fa Microsoft ha annunciato il più grande investimento della sua storia in Italia, ossia la realizzazione della Datacenter Region. Si tratta di un investimento di 1,5 miliardi di dollari con un piano di attività di supporto per accompagnare i nuovi servizi cloud con risorse per competenze, tecnologie avanzate e sostenibilità.
La cosa non è passata inosservata e così abbiamo chiesto a Carlo Mauceli, Chief Technology Officer per Microsoft Italia, di raccontarci in cosa consiste il progetto.

CM: L’annuncio che Microsoft abbia deciso di aprire un nuovo Data Center Region ci ha colti quasi di sorpresa, anche se il lavoro preparatorio fatto ci dava delle ottime chances. La notizia e l’eco che ha avuto ci ha un pò stupiti piacevolmente e ora sappiamo per certo che anche le aspettative, sia in azienda che in tutta Italia, sono alte. L’investimento di 1,5 miliardi di dollari è per la creazione di una “Data Center Region” e per gestire tutto ciò che serve per aiutare il paese nella crescita digitale. Abbiamo la convinzione che l’apertura del Data Center porterà tanto in Italia, sia in termini di investimenti diretti ma soprattutto di indotto e di sviluppo della conoscenza. Dobbiamo dare qualche dettaglio tecnologico per spiegare di cosa stiamo parlando perché l’architettura su cui si basano i Datacenter di Microsoft non ha uguali in nessun’altra realtà, sia essa privata oppure pubblica. Tutte le informazioni, in ogni caso le potete trovare qui.


I tre concetti di base sono i seguenti:

Aree o Region
Un'area è un set di data center distribuiti entro un perimetro definito dalla latenza e connessi tramite una rete regionale dedicata a bassa latenza.
Con un numero di aree globali superiore rispetto a qualsiasi altro provider di servizi cloud, Azure offre ai clienti la flessibilità necessaria per distribuire le applicazioni dove necessario. Azure è disponibile a livello generale in 58 aree nel mondo, a cui si devono aggiungere Polonia, Nuova Zelanda e Italia.

Aree geografiche

Un'area geografica è, in genere, rappresentato da un territorio specifico, che include in genere due o più aree e che soddisfa i requisiti relativi a residenza dei dati e conformità.
Le aree geografiche consentono ai clienti con esigenze specifiche, che possono essere normative oppure tecnologiche, di mantenere la cosiddetta Data Residency e utilizzo delle applicazioni con latenza molto bassa. Le aree geografiche garantiscono alta affidabilità, Disaster Recovery, Business Continuity e Geo Replication.

Zone di disponibilità

Le zone di disponibilità sono località separate fisicamente entro un'area o Region di Azure. Ogni zona di disponibilità è costituita da uno o più data center dotati di impianti indipendenti per l'energia, il raffreddamento e la rete.
Le zone di disponibilità consentono ai clienti di eseguire applicazioni cruciali con disponibilità elevata e replica a bassa latenza.



Ingegnere, in poche parole, cos’è un Data Center Region? 
E come potrebbe aiutare la crescita della digitalizzazione?
CM: Un Data Center Region è un insieme di data center per la erogazione dei servizi, installato in una determinata area geografica, nel nostro caso in Italia. 
Si tratta dunque di un certo numero di data center distribuiti sul territorio, progettati e realizzati per garantire uno SLA (livello di servizio) del 99,99999 %, ovvero con valori di resilienza elevatissimi. Diciamo che se nella classificazione standard dei data center il livello massimo è quattro, un Data Center Region è progettato per raggiungere un livello 5 !
Ogni singolo data center è totalmente indipendente dagli altri in merito alle strutture di protezione ed alimentazione ed è pronto a sopperire alle eventuali mancanze di uno dei data center dell'area (vedi figura precedente).
Inoltre, cosa da non sottovalutare, la strategia Microsoft è quella di avere un basso impatto ambientale, cercando di sfruttare le opportunità del territorio sia per alimentare che per raffreddare i
data centers come parte del piano che abbiamo lanciato per diventare carbon negative entro il 2050.

Sicuramente una iniziativa complessa. 
Ingegner Mauceli, quali sono i motivi che hanno spinto Microsoft a questo investimento? Perché l’Italia è stata scelta per l’installazione di un Data Center Region?

CM: Le motivazioni alla base di una scelta simile sono tante, sicuramente c’è la volontà di migliorare I servizi resi alle società italiane, poi la presenza di un Data Center Region è un facilitatore dell’innovazione dei processi di digitalizzazione. 
Non bisogna poi dimenticare che l’Italia è un paese complesso in cui la normativa per la sicurezza e per la privacy sono declinate, interpretate e poste in essere in modo tale da soddisfare le proprie esigenze principalmente nazionali, oltre che internazionali, il Data Center Region, sul territorio nazionale, consentirà di aderire ancora meglio alle policy nazionali per esempio in materia di custodia dei dati sensibili sul territorio. 
Questo significa che il data center in Italia ha anche una valenza nazionale e che Microsoft crede nel potenziale digitale dell’Italia, probabilmente fino a questo momento, inespresso.

E riguardo la complessità? 
Avete intenzione di fare tutto da soli o vi farete aiutare?

CM: Il progetto è ambizioso e complesso sotto tanti punti di vista ma in Europa vi sono altri Data Center Region per cui non partiamo da zero. 
Il nostro amministratore delegato Satya Nadella, da quando guida la società, ha inaugurato un nuovo corso. La società è ora sempre più vicina al mondo esterno, cerca partnership con coloro che possono apportare conoscenze particolari in un campo limitrofo. 
Questo progetto ha anche la pretesa di coinvolgere nel processo di sviluppo digitale le Università e le imprese che avranno qualcosa di costruttivo da apportare al progetto. 
Noi siamo italiani e per definizione geniali in tantissimi campi, ma spesso ci perdiamo in diatribe e non guardiamo un progetto nel suo insieme. Per raggiungere un obiettivo ambizioso occorre essere geniali ma anche superare le rivalità interne e riuscire a fare sistema. Il Data Center Region vuol essere un’occasione per l’Italia per superare queste difficoltà e fare crescere il Paese dal punto di vista della digitalizzazione. È inaccettabile che l’Italia sia al quart’ultimo posto per competenze digitali, come espresso dall’indice DESIi. Un paese come il nostro merita ben altro e, siccome in un mondo globalizzato, è difficilissimo riuscire a emergere da soli, l’idea è proprio quella di sfruttare questa occasione per stringere alleanze e rapporti tra pubblico e privato. 
Siamo sicuri di potercela fare e la recente crisi pandemica ha funzionato da stimolo per far crescere l’Italia esattamente in questo senso. In pochi mesi sono state fatte delle scelte che in dieci anni hanno sempre trovato ostacoli enormi, basta guardare cosa è successo nel campo del telelavoro o della didattica a distanza.

Ingegnere, cosa ci dice dei tempi? 
Su quanti anni si sviluppa il progetto?

CM: Ancora non ho dati esatti, sicuramente è un progetto pluriennale, che dovrà coinvolgere tanti partners, istituzionali e privati, penso sicuramente alle università che dovranno in qualche modo aiutarci nella preparazione dei ragazzi che verranno a lavorare da noi o che vorranno sviluppare esperienze basate sulle tecnologie messe a disposizione. Sicuramente avremo bisogno di ingegneri e tecnici hardware e software ma non solo. Occorreranno anche manager capaci nel settore della gestione del rischio, nella sicurezza informatica ed esperti della normativa italiana. Quindi le Università saranno uno dei nostri partners privilegiati. Comunque, come ho già detto, noi siamo aperti a tutti coloro che hanno un obiettivo chiaro.
Non bisogna dimenticare che la nostra tecnologia è un mezzo per far raggiungere ad imprese e persone i loro obiettivi e siamo tutti convinti che la multidisciplinarietà sia un valore aggiunto, questo per dire che il Data Center Region, ancora una volta, fungerà da acceleratore in tutti
i campi in cui si potrà sfruttare la creatività e il genio tutto italiano
Posso aggiungere che se usiamo delle stime realizzate dal Politenico di Milano School of Management, anche dalle esperienze della creazione degli altri distretti, per i prossimi cinque anni vi sarà un indotto di circa 10.000 posti di lavoro dall’indotto, dalle assunzioni dirette ai partners a tutti i livelli, fino alle imprese che potranno realizzare nuovi progetti sulla nostra piattaforma.

E nel campo della ricerca e dello sviluppo software?

CM: Come ho accennato prima il Data Center Region è una piattaforma abilitante, per cui il limite è la fantasia degli italiani e la propensione alla trasformazione digitale delle società. Se vi saranno start-up o imprese che vogliono sviluppare software o specifiche soluzioni tecnologiche in qualsiasi campo, noi li aiuteremo mettendo a disposizione quelle che sono le potenzialità della piattaforma. Stessa cosa vale per l’Intelligenza Artificiale o altri settori tecnologici relativamente nuovi. Ancora una volta, il limite non sarà Microsoft ma, eventualmente, la mancanza di immaginazione, ma non credo sia il caso degli italiani.
Mi piace dire che Microsoft è un abilitatore, il cloud è una piattaforma disponibile per essere sviluppata e per far sorgere progetti e soluzioni.

Ingegner Mauceli, una domanda un pò scomoda. 
Pensa realmente che la classe dirigente italiana sia pronta a questo salto? Noi abbiamo tante volte accennato alla mancanza di consapevolezza nel settore digitale e in particolare nel settore della cybersecurity a causa della impreparazione della classe dirigente e della bassa propensione al rischio…

CM: Io sono fiducioso. 
Negli ultimi anni abbiamo visto tante aziende che sono state capaci di cambiare, con alcune abbiamo stretto delle partnership mentre con altre, stiamo lavorando assieme per farlo, con altre ancora, magari, ci sarà la possibilità di farlo in un prossimo futuro. 
Il mondo sta cambiando, l’Italia si sta muovendo verso il futuro. Anche altre grosse industrie, nostre dirette concorrenti in alcuni casi, se ne sono accorte e hanno fatto la nostra stessa scelta, investire nel Bel Paese, per aiutarlo a crescere e crescere insieme.


Alessandro Rugolo, Giorgio Giacinto, Danilo Mancinone


Per approfondire:

i Il DESI (Indice di digitalizzazione dell'economia e della società) è lo strumento mediante cui la Commissione europea monitora la competitività digitale degli Stati membri dal 2015. https://ec.europa.eu/digital-single-market/en/desi

giovedì 7 maggio 2020

COVID 19, per capirci!



Lavorando per un’azienda americana, il termine “storytelling” viene utilizzato in maniera estremamente frequente ormai da diverso tempo. Ciò che meraviglia, forse nemmeno troppo, è che pur avendo una lingua così bella e ricca di termini, è prassi comune e consolidata in Italia, a ogni livello, affidarsi a termini stranieri, il più delle volte inglesi. Devo dire, comunque, che c’é qualcosa di particolare in questa parola, qualcosa che non saprei descrivere ma che suscita una specie di meraviglia e stupore nel chi ascolta, non appena viene evocata. Basta utilizzarla per fare apparire impreziosito un ragionamento, valido o no che sia, ed ecco che come per magia, gli interlocutori si illuminano come se si fosse espresso il concetto più profondo di sempre.


Ormai è diventato di uso comune, tanto che non ci facciamo neanche più caso, tanto che, forse, abbiamo smesso di domandarci veramente cosa intendiamo quando parliamo di storytelling oppure sappiamo di cosa parliamo ma, con tutta probabilità, ce lo siamo dimenticati.


Durante l’emergenza del coronavirus il nostro ruolo è chiaro. Ci è stato raccomandato di “eseguire gli ordini” e di dovere, così, fare la nostra parte, rispettando le regole come, del resto, dovrebbe avvenire sempre in un contesto democratico e di comunità. Le mie azioni non hanno impatto solo su me stesso ma anche sulle persone che mi circondano e con le quali interagisco e così, al contrario.

Eppure, durante questa esperienza mai vissuta prima, abbiamo un atteggiamento un po' asimmetrico rispetto a coloro che stanno cercando di affrontare e risolvere l’emergenza e non possiamo fare altro che obbedire e fidarci.

Ed ecco la parola chiave: fiducia. Guardiamo cosa ci dice la Treccani a proposito di questa parola così importante.



fidùcia s. f. [dal lat. fiducia, der. di fidĕre «fidare, confidare»] (pl., raro, -cie).



  1. Atteggiamento, verso altri o verso sé stessi, che risulta da una valutazione positiva di fatti, circostanze, relazioni, per cui si confida nelle altrui o proprie possibilità, e che generalmente produce un sentimento di sicurezza e tranquillità: fin Dionegli uomininella fraternità umananella scienzanel progresso socialefnella vittoriafdi riuscirefnella propria stellanelle proprie forzefnell’esito di un’impresaguardare con fall’avvenireferma f.; fillimitataassolutaincondizionataaverenutrire f.; perdere la f.; dare un attestatouna prova di f.; ispirare f.; guadagnaremeritaregodereavere la fdi qualcunoriporre bene, o malela propria f.; abusare della faltrui. Di uso com. le espressioni: persone di f., di miadi tuadi sua f., persone fidate a cui si ricorre in cose delicate e d’importanza; medicoavvocato di f., quello che è liberamente e abitualmente scelto dal cliente; postoimpiegoincarico di f., di responsabilità, delicato, che si affida solo a persone sicure, fidate. 
  2. In diritto costituzionale, voto di f., votazione mediante la quale il parlamento approva (o, se la votazione dà risultato negativo, disapprova) gli indirizzi politici e la corrispondente azione del governo; mozione di f., la proposta, fatta da una delle Camere, di ricorrere al voto di fiducia; questione di f., richiesta da parte del governo di ricorrere al voto di fiducia per l’approvazione o la reiezione di emendamenti e articoli di progetti di legge: il governo ha deciso di porre la questione di fiducia
  3. In diritto civile, ftestamentaria (o disposizione testamentaria fiduciaria), disposizione di testamento per la quale il soggetto che riceve il bene ne è il beneficiario apparente, avendo l’obbligo di trasmettere quel bene ad altra persona (che normalmente non potrebbe essere erede diretto del testatore).



Fiducia è una parola “pesante” che abbraccia scenari ampi e che rappresenta una responsabilità importante in chi la dà e in chi la riceve.

Questo per dire che dobbiamo confidare in coloro che stanno cercando, con non poche difficoltà, di fare fronte ad un problema a cui nessuno era preparato. Pertanto, dobbiamo avere fiducia nelle istituzioni centrali, nelle amministrazioni locali, nei medici, negli scienziati e, non meno importanti, in chi ci racconta ciò che succede, ovvero i giornalisti e i conduttori. Dobbiamo averla in maniera incondizionata, soprattutto considerando il mondo nel quale viviamo? Un mondo nel quale siamo bombardati quotidianamente da una quantità enorme di notizie che affermano tutto ed il contrario di tutto.

Ecco, forse, il punto fondamentale; ossia la gestione della comunicazione, sia da parte delle istituzioni sia da parte dei media che, soprattutto all’inizio, ha provocato una fuga di notizie che ha generato profonde discussioni ma anche reazioni irrazionali verso tutto e tutti, a partire dal famoso episodio relativo a coloro che affollarono le stazioni del nord per scappare al sud tanto che, col passare dei giorni ci siamo resi conto che quella reazione così irrazionale è stata pur sempre innescata da un gesto altrettanto irresponsabile.

Sembrava, perciò, esserci stata l’occasione per riflettere sul modo in cui, in parallelo agli sforzi medici, si dovesse e potesse affrontare il coronavirus sul piano della comunicazione, ragionando appunto su uno storytelling dell’emergenza. Invece, la narrazione della crisi è proseguita su binari che facevano affidamento su termini, pratiche e abitudini che, purtroppo, caratterizzano in negativo la comunicazione da tempo, ben prima della diffusione del Covid-19.

Il sensazionalismo, l’analisi grossolana, la ricerca frettolosa di buoni e cattivi, di eroi e di nemici della patria. In un momento in cui gli italiani non possono far altro che fidarsi di ciò che viene loro detto, la confusione e la disinformazione hanno dilagato tanto quanto il virus, rendendo sempre più difficile la comunicazione e, di fatto, quasi vanificando l’occasione di proporre finalmente una narrazione di qualità, mai come ora di vitale importanza.

E tutto ciò perché la stragrande maggioranza delle persone non legge, non si informa, non studia e ascolta gli imbonitori politici che pur di raccattare voti, anche in una situazione così critica come questa, usa la comunicazione in modo fazioso e strumentale.

Personalmente, da tempo, ho deciso che tutto questo creare confusione nella mia capacità di capire e conoscere, il più possibile, la verità, dovesse finire e così mi sono dedicato a cercare, in primo luogo, da ingegnere, se ci fossero degli elementi matematici che fossero in grado di darmi le chiavi per capire se e come determinati comportamenti richiesti dal Governo avessero senso e fossero, in definitiva, corretti e quali fossero gli elementi chiave per studiare l’evoluzione di una epidemia prima e di una pandemia dopo.

Per fortuna, ho trovato tante fonti che mi hanno aiutato a comprendere meglio un fenomeno che, penso, nessuno di noi ha mai vissuto prima e possiamo affermare, senza tanti giri di parole, che, oltre al virus vero e proprio, ne esiste un secondo, parallelo e "virtuale", legato alla rapida e capillare diffusione delle notizie e alla conseguente apprensione che riesce a generare nella popolazione.

Questo fatto ci riporta a una interessante analogia: la modalità con la quale un virus si trasmette nella popolazione durante un'epidemia è, spesso, estremamente simile alla dinamica che regola la diffusione di un tweet, di un post, di un video, di un meme o di un altro contenuto sulla rete. Sarà un caso se a questo tipo di contenuti di successo associamo l’aggettivo "virale"?

Per comprendere meglio questi fenomeni, ci viene in soccorso la matematica e, in questo, devo ringraziare Paolo Alessandriniiii ed il suo blog che spiega, in modo semplice, queste dinamiche.

Io ho cercato di prendere il meglio di quanto descritto, di farlo mio e di conseguenza, di capire le ragioni per cui il Governo ha deciso di intraprendere la strada di cui tutti quanti noi siamo attori. È un dato di fatto che il Comitato Tecnico Scientifico (CTS) che fornisce le stime e le curve di crescita e di decrescita dell’epidemia ha utilizzato il modello proposto nel 1927iii dagli scienziati scozzesi William O. Kermack (1898-1970) e Anderson G. McKendrick (1876-1943).
Questo modello si basa sulla divisione della popolazione in tre categorie o cluster:
1. gli individui suscettibili, "susceptible", indicati con S, che non sono stati ancora contagiati ma che potrebbero diventarlo;
2. gli individui infettivi, "infectious", indicati con I, che sono stati infettati e sono contagiosi;
3. gli individui guariti, "recovered", indicati con R, che sono stati infettati ma non sono più contagiosi perché sono o guariti oppure sono deceduti o, ancora, sono stati isolati.



Figura 1 - Flusso tra le Categorie



Di fatto, il modello di Kermack e McKendrick prevede che, nella maggior parte delle epidemie, una persona può passare soltanto dalla classe 1 alla classe 2 oppure dalla classe 2 alla classe 3, non essendo possibile un ritorno dalla classe 3 alla classe 2, ovviamente, ipotizzando che chi è guarito dalla malattia si sia immunizzato.
Questo modello si basa su un sistema di equazioni differenziali che permettono di prevedere l'andamento nel tempo della numerosità delle tre classi epidemiologiche sopra descritte: S(t), I(t) e R(t).


Il modello in questione viene chiamato SIR ed il suo principale obiettivo è quello di prevedere l'evoluzione di un'epidemia e stimare la porzione di popolazione che contrarrà la malattia.


Questi modelli sono applicabili se sussistono alcune ipotesi:

  • durante l’epidemia la popolazione non si riproduce, cioè non vi sono nuove nascite;
  • durante l’epidemia la causa principale di morte è la malattia epidemica stessa;
  • la popolazione è isolata, cioè non vi sono entrate o uscite rispetto all'esterno;
  • la malattia non ha un periodo di incubazione;
  • dopo la guarigione si acquisisce immediatamente l'immunità;
  • tutti gli individui infettivi sono ugualmente contagiosi, indipendentemente dal tempo trascorso dal contagio.

È evidente come queste ipotesi siano abbastanza lontane dalla realtà, soprattutto nel caso del COVID-19. Ad esempio, il periodo di incubazione esiste ed è stato valutato che la sua durata è variabile perché si può andare da 9 a 14 giorni.

Anche l'immunità dei guariti non è stata verificata ed anche le prime due ipotesi non reggono. La verità, in questo caso, è che di questo virus si conosce davvero poco e, dunque, è difficilissimo fare ipotesi che abbiano un senso.

Allo stesso tempo, però, da qualche parte bisogna cominciare ed il trucco, quando si formula un modello matematico, è quello di concentrarsi sugli elementi chiave, tralasciando quelli che, alla fine, possono essere considerati dei dettagli.

Pertanto, alla luce di queste considerazioni, la dinamica di un modello SIR è, tutto sommato, elementare e può essere rappresentato dalla figura 2:

  1. All'inizio dell'epidemia la classe S, ossia gli individui non ancora contagiati, diminuirà progressivamente a causa dei contagi mentre la classe I, ossia quella degli infettivi, aumenterà per la medesima ragione.
  2. Più cresce la classe I è più aumenta la probabilità di un suscettibile di essere contagiato. Ciò significa che l'aumento degli infettivi tenderà inizialmente ad accelerare.
  3. Alcuni individui, però, cominceranno a passare dalla classe degli infettivi a quella dei "recovered", perché nel frattempo sono guariti, oppure deceduti, oppure messi in isolamento.
  4. Da qui in poi la situazione sarà basata sul saldo tra i due passaggi: fino a quando i contagi saranno maggiori dei recovered, l'epidemia resterà nella sua fase ascendente ma quando la situazione si invertirà, allora l’epidemia entrerà nella fase discendente.
In tutto ciò, vale la regola che S è sempre decrescente ed R è sempre crescente.
Figura 2 - Tipico andamento di una epidemia secondo lo schema SIR


Alla luce di quanto descritto, credo sia chiaro perché questo modello è applicabile anche al fatto che un contenuto digitale, pubblicato in rete, possa diventare virale.
Al momento della pubblicazione, rispetto alla potenzialità "viralità" del meme, tutta la popolazione mondiale appartiene alla classe dei suscettibili, perché nessuno ha ancora visto il meme ma potrebbe farlo in futuro. 
Man mano che le persone scoprono il meme e lo condividono a loro volta, questi passano dalla classe dei suscettibili a quella degli infettivi: diventano infatti "vittime" del contenuto virale, cioè se ne appassionano e sono attive nel diffonderlo verso altre persone. Col passare del tempo, sempre più persone cesseranno di interessarsi al contenuto e smetteranno di diffonderlo, passando così nella classe dei "guariti".
A questo punto al di là di alcune domande che sorgono spontanee quali: perché il Covid-19 si diffonde secondo uno schema epidemico ed è corretto affermare che lo schema precedente sia quello giusto per studiare l’andamento epidemico del virus?, credo che, dato per assunto che il modello utilizzato dal CTS è questo, cerchiamo di capire come la matematica ha aiutato a finalizzare alcuni concetti.
Senza entrare nel dettaglio di una dimostrazione matematica che potete, tranquillamente, trovare al seguente link, grazie al già citato Paolo Alessandrini, da parte nostra consideriamo alcuni elementi chiave tramite i quali si è arrivati a definire le azioni intraprese dal Governo.
Per farlo partiamo da una considerazione fondamentale. Quando si può dire che un virus scatena un’epidemia, matematicamente parlando?
Riprendiamo il flusso delle varie classi:


Ci sono due nuovi parametri da considerare:


  • α che è l’indice di contagiosità;
  • β che è l’indice della possibilità che un malato passi nello stato recovered.


Il rapporto tra β e α ha il significato di soglia all'inizio dell'epidemia: se il numero di individui suscettibili è maggiore di questa soglia, l'epidemia può innescarsi e tenderà, in una prima fase, a espandersi in modo molto rapido; se invece è minore, l'epidemia non riesce nemmeno a partire perché il numero degli infettivi si estingue subito.

Siccome il numero di suscettibili, in base a questo modello, diminuisce sempre, questo ci assicura che, anche nelle epidemie più devastanti, prima o poi esso scenderà al di sotto del rapporto β/α, dando avvio alla fase discendente dell'epidemia. In alcuni casi, purtroppo, ciò avviene al prezzo di un elevato numero di vittime.

Queste considerazioni sfociano nella capacità di individuare il numero di persone che, mediamente, un singolo individuo è in grado di contagiare durante il periodo infettivo. Poiché all'inizio dell'infezione, il numero di suscettibili è uguale a tutta la popolazione, diciamo N, perché ancora nessuno si è ancora contagiato, se potessimo fotografare la situazione in quel momento e quantificare il numero:

potremmo farci un'idea di come evolverà la situazione: l'epidemia si scatena solo se questo numero è maggiore di 1, altrimenti la diffusione della malattia si arresta sul nascere.


Pertanto, R0 rappresenta il numero medio di infezioni secondarie prodotte da ciascun individuo infetto in una popolazione completamente suscettibile, cioè mai venuta a contatto con il nuovo patogeno emergente. Perché R0 è così importante? R0 è funzione:


  • della probabilità di trasmissione per singolo contatto tra una persona infetta ed una suscettibile,
  • del numero dei contatti della persona infetta e
  • della durata dell'infettività.
  • Tabella 1 - Tasso di Contagio nelle Epidemie


Tabella 1 - Tasso di Contagio nelle Epidemie
Questo ci dice che riducendo almeno uno dei tre parametri possiamo ridurre tale valore e quindi poter controllare, o almeno ritardare, la diffusione del patogeno ad altre persone. La probabilità di trasmissione e la durata dell’infettività (senza un vaccino o un trattamento che riduca la viremia) non sono in questa fase modificabili ma, l’immediata diagnosi/identificazione della persona infetta, o di quella potenzialmente infettata, e la possibilità di ridurre i suoi contatti con altre persone permetterebbe una riduzione di R0.



Nella tabella 1 sono rappresentati i tassi di contagio delle epidemie più importanti della storia.

Alla luce di queste considerazioni si possono comprendere meglio le misure messe in atto dalle autorità sanitarie e dalle istituzioni per contenere l'infezione. L'obiettivo è cercare di ridurre il valore di R0. Se si raggiunge questo risultato, l'epidemia viene sconfitta. Per farlo, si può agire in diverse direzioni:

  1. abbassare il numero dei suscettibili attraverso lo sviluppo di un vaccino ed effettuando vaccinazioni di massa;
  2. aumentare il rapporto di soglia β /α, cosa che si può fare in due soli modi:
    1. alzando β (risultato conseguibile migliorando le terapie e innalzando così la percentuale di guarigioni);
    2. abbassando α, che rappresenta la facilità del contagio. Questo risultato è ottenibile mediante una migliore educazione igienico-sanitaria e, soprattutto, attraverso il distanziamento sociale, esattamente quello a cui mirano le misure adottate dal Governo.

C'è un'ultima considerazione da fare. L'obiettivo del modello di Kermack e McKendrick è studiare l'andamento della funzione I(t), cioè la curva del numero di individui infettati.
Figura 3 - Due possibili andamenti di un'infezione

Nella figura a fianco sono mostrati due diversi andamenti possibili per la funzione I(t).

L'andamento che presenta il picco corrisponde a un'epidemia in piena regola. Viceversa, l'altra curva, che non fa nemmeno in tempo a salire perché mostra fin dall'inizio una flessione indica un'infezione che passa inosservata perché si esaurisce subito. I modelli SIR ci permettono di distinguere tra queste diverse dinamiche.


Ma c'è una cosa che i modelli SIR non ci possono dire ed è il numero di vittime che l'infezione può provocare.


Se vogliamo prevedere il numero di decessi, occorre "smembrare" quel parametro β corrispondente alla percentuale di infettivi che ogni giorno passano nella classe R. β, infatti, è la somma di tre diversi parametri associati ai tre diversi eventi di rimozione: guarigioni, decessi e quarantene.

Lo specifico parametro legato ai decessi è noto come tasso di letalità dell'infezione: esso è quindi definito come il rapporto tra il numero dei decessi e il numero totale di individui infettivi.

Da non confondere con il tasso di mortalità che è, invece, il rapporto tra il numero di persone morte per una specifica malattia e il numero totale degli esposti, ossia tutta la popolazione.

Nel corso di un'epidemia, questo indice può variare molto, perché possono modificarsi le condizioni al contorno che rendono la malattia più o meno mortale e perché è funzione del modo in cui si decide di rilevare il numero delle persone malate. Ne deriva che il tasso di letalità è una percentuale più consistente rispetto a quella derivata dal tasso di mortalità che, però, restituisce un dato più rilevante per la valutazione dei rischi che comporta un’epidemia per tutta la popolazione.

Spieghiamo meglio la differenza con un esempio. Se in un Paese di 100 abitanti ci sono 10 contagiati e 5 morti, il tasso di letalità sarà pari al 50% ma il tasso di mortalità sarà solo del 2%.
Nella tabella a fianco,

possiamo vedere il tasso di letalità stimato per alcune malattie: per alcune è davvero altissimo (evidente il caso dell'Ebola), per altre ovviamente quasi trascurabile (si pensi all'influenza stagionale), mentre il tasso di letalità del nuovo Coronavirus è per adesso stimato attorno al 2%.


Oltre a questi parametri, dobbiamo considerarne altri due che, spesso, hanno creato e continuano a generare confusione:


  • tasso di letalità apparente (case fatality rate, CFR). Il CFR è il rapporto tra il numero di decessi diviso per il numero di casi confermati (preferibilmente mediante test di acido nucleico) di malattia;
  • tasso di letalità plausibile ( infection fatality rate, IFR). L'IFR è il rapporto tra decessi divisi per il numero di infezioni effettive con SARS-CoV-2. Di fatto, l’IFR serve a stimare il numero di possibili infettivi dato il numero di decessi.

Poiché il test dell'acido nucleico è limitato e attualmente disponibile, principalmente, per le persone con indicazioni significative e fattori di rischio per la malattia di covid-19, e perché un gran numero di infezioni con SARS-CoV-2 provocano una malattia lieve o addirittura asintomatica, l'IFR è probabile che sia significativamente inferiore al CFR.

Ora, il Comitato tecnico Scientifico ha utilizzato un IFR pari a quello della Cina, ossia 0,657%, per simulare i vari scenari su cui sono state prese le decisioni che si sono tradotte nelle misure attuate dal Governo. Il rapporto è disponibile a questo link per chi volesse leggerlo.

In realtà, l’Italia, per scenario demografico, cluster di età e caratteristiche è diversa dalla Cina ed altri studi hanno messo in evidenza come l’IFR medio dell’Italia sia di 1,382% il che porterebbe a considerare che il CTS abbia sopravvalutato le stime dei possibili contagi in funzione dei vari scenari di apertura delle varie attività. Uno studio di Carisma Holding ha messo in dubbio la correttezza del rapporto.

Ora, senza entrare nel merito di chi abbia ragione e chi torto, da tutto ciò appare evidente come possa bastare un nulla per creare confusione e come la comunicazione sia fondamentale per garantire serenità.

Si tratta di una sfida complicata e difficile e c’è ancora molto da fare. Da parte nostra non possiamo che aspettare ed eseguire ciò che ci chiedono, senza dimenticare, però, che l’informazione non è solo quella che ci viene propinata ma anche e soprattutto quella che riusciamo a filtrare grazie all’analisi e allo studio che ognuno di noi può effettuare.

Oggi, rispetto al passato, abbiamo un grande vantaggio nel capire l’andamento di un’epidemia: i dati. Per farlo, però, bisogna avere quella che il mio amico Andrea Benedetti, chiama, la “cultura del dato”. Per questo vi segnalo questo bellissimo articolo da lui scritto.

Il dato, utilizzato in modo opportuno, diventa un potente abilitatore che permette di prendere decisioni basate su informazioni certe, tralasciando il più possibile quelle che sono scelte dettate da sensazioni, senza valutare numeri e indicatori: non si costruisce un futuro solido tirando dadi e facendo scommesse.

Come per l’informazione anche per i dati serve attenzione e, soprattutto, la capacità di informarsi correttamente, indagare e studiare, come detto in precedenza.

Carlo Mauceli