È ormai da diverso tempo che le aziende hanno compreso l’importanza dei dati, considerati un asset fondamentale in forma strutturata così come non strutturata e dei quali la seconda tipologia oggi rappresenta la porzione più rilevante. Oggi assistiamo ad una decisa esplosione della produzione dei dati in ogni loro forma. Pensate che dalla civilizzazione al 2003 abbiamo generato 5 exabytes di dati, ora ne produciamo 5 exabytes ogni due giorni (sono 5 con 18 zeri !) (1).
Noi stessi siamo generatori di dati: nel mondo si parla di 300 miliardi di messaggi e-mail scambiate al giorno e per intenderci Cisco aveva previsto che nel 2020 ogni persona avrebbe generato 1,7 megabytes al secondo. Si può dire che siamo in una nuova dimensione, quella dell’Infosfera, come definita da Luciano Floridi (2).
Ricordiamoci che questa esplosione di dati per l’80% è non strutturata ed è l’effetto del digitale ovvero l’uso dei canali social, di piattaforme digitali e del crescente utilizzo dell’Internet of Things. Quindi immagino che le domande emergenti siano come valorizzare questo enorme, eterogeneo e dinamico mondo di dati?
E se il dato è il nuovo “petrolio” per le aziende, l’asset del futuro sarà fondamentale trattarlo, conservarlo, proteggerlo e garantirne nel tempo la qualità e veridicità. Abbiamo incontrato Carlo Viganò Techinical Sales Manager di Veritas e Massimo Poli Head of System Integration Business Unit di Sferanet che rappresentano due società che hanno deciso di mettere insieme le forze per portare ai propri clienti un’offerta integrata capace di soddisfare sia le esigenze tecnologiche che di analisi, impostazione e organizzazione di una strategia orientata sul dato.
Da anni si parla di big data, di orientare le aziende ad essere data driven e sembra sia chiaro che il dato possa essere un asset fondamentale per meglio comprendere mercati e clienti, generare più valore, ritagliare servizi su esigenze specifiche, e prendere le decisioni in modo più veloce e mirato. Bene, ma allora come mai secondo i dati dell’Osservatorio del Polimi vi è ancora un divario importante tra grandi aziende e PMI ? Quali gli elementi di difficoltà?
Massimo Poli: Ogni singola realtà PMI ha ovviamente le sue caratteristiche peculiari ma ci sono alcuni tratti generali abbastanza comuni, in termini di brutale capacità di spesa e di disponibilità delle opportune competenze tecniche, che spiegano, almeno parzialmente, lo spostamento dell’ago della bilancia nel confronto con le grandi aziende. Altra considerazione generale è la tendenza di molte PMI a focalizzare le esigenze immediate piuttosto che allargare lo sguardo ad una visione più ampia. Spesso le due considerazioni precedenti si scambiano il ruolo di causa ed effetto. Uno dei compiti di un System Integrator è quello di proporre una soluzione “su misura” che possa sia soddisfare un’esigenza puntuale sia essere il nucleo, o una componente, di una visione più ampia. In quest’ottica Sferanet vuole rafforzare ulteriormente la partnership con Veritas, che offre soluzioni versatili, scalabili e Cloud Oriented per il Data Management, la Data Protection e la Data Analytics.
Mentre sempre secondo la recente analisi del POLIMI la PA e Sanità sono i settori meno attivi (5% del mercato) ed orientati sui dati eppure sarebbero quelli che potrebbero trarre maggiore valore per i cittadini e pazienti. Qui dove vedete gli elementi di freno e difficoltà?
Massimo Poli: L’utilizzo della Intelligenza Artificiale può dare un forte impulso al settore della Sanità. Per fare un esempio Sferanet ha sviluppato una sua piattaforma, Take Care, che tramite modelli di Intelligenza Artificiale mette a disposizione delle persone un Assistente Medico Virtuale, un Avatar, in grado di: Monitorare in real time, Prevedere e Diagnosticare. Il freno può essere dovuto al debito tecnico accumulato dalle aziende che rischia di frenare l’avanzata dell’Intelligenza Artificiale in ambito Industria 4.0 e IoT. Per ovviare al problema, sono necessarie pratiche virtuose quali l’investimento sulle persone e la creazione di una cultura di gestione dei dati.
Sicurezza e Privacy sono sicuramente i temi che balzano subito in evidenza specie se guardiamo alla pubblica Amministrazione e alla Sanità, oggi quali sono le tecnologie che possono essere in grado di minimizzare rischi e proteggere i dati?
Carlo Viganò: Certamente oggi le tematiche di rischio e protezione dati sono strettamente legate al tema della complessità di architetture ibride, miste fra microservizi, virtualizzate e ancora client server/legacy, e alle sfide sempre più frequenti dei cyberattack. Una prima area di intervento legata alla minimizzazione dei rischi e alla protezione, sta nel poter disporre di strumenti semplici di ricerca, classificazione ed analisi dei dati e metadati, per capirne il loro stato di sicurezza, efficienza, protezione: dove sono dislocati, chi vi può accedere, chi vi ha acceduto o ci ha provato ed in che modo, se contengono o meno informazioni sensibili, come e quando sono stati backuppati, messi in sicurezza e in alta affidabilità.
Veritas offre un cruscotto di Data & Asset Visibility che unisce le capability di due prodotti leader di mercato come Data Insight ed Aptare che facilitano i clienti in complesse analisi sui propri dati ed infrastrutture, magari distribuite, con modelli cost-performance e what-if, aiutando i clienti non solamente nell’analisi dei livelli di servizio e dei rischi ma anche su come efficientare le applicazioni ad essere migrate in cloud pubblico o privato in modo sicuro ed efficiente. Sempre mediante gli stessi strumenti aiutiamo i nostri clienti anche in indagini e reportistiche ai fini forensi e/o di auditing, garantendo le compliance.
In questo senso con gli strumenti di Data Visibility accennati, Veritas offre ai clienti un single pane of glass di data/ asset governance, che fornisce preziose informazioni, indicazioni e suggerimenti di risk management e remediation, così da poter affrontare in modo adeguato un altro tema importantissimo: quello della Data Protection, dove con Veritas Netbackup e Backup Exec possiamo assicurare ai nostri clienti tanto la protezione e messa in sicurezza dei loro dati nelle tradizionali tematiche di backup e recovery, quanto in quelle di tutela da attacchi informatici
La tecnologia è sufficiente? In quale modo si può impostare un progetto sulla gestione dei dati e quali i passi fondamentali da mettere in campo?
Massimo Poli: L’impostazione generale di un progetto sulla gestione dei dati non si discosta molto dalle linee di comune buon senso: obiettivi da raggiungere, come raggiungerli, individuazione delle competenze e pianificazione. La definizione degli obiettivi discende da una chiara identificazione dei bisogni e questo è sicuramente uno step fondamentale a cui è necessario dedicare il massimo sforzo. Il fine è quello di avere il più possibile le idee chiare in un contesto che comunque è per sua natura in evoluzione. In questo senso è vincente l’utilizzo di una tecnologia funzionale a tutte le tematiche in gioco, dalla disponibilità dei dati, alla loro gestione, alla loro sicurezza, all’analisi e alla fruizione dei risultati di quest’ultima. Tutto ciò permette di impostare un percorso che possa proseguire oltre gli obiettivi di progetto specifici, con una serie di passi successivi. Altro step fondamentale è la costituzione di un gruppo di lavoro multidisciplinare, non solo dal punto di vista tecnico ma che coinvolga tutte le funzioni aziendali impattate dal progetto.
Sappiamo che oggi nel panorama tecnologico stanno scendendo in campo tecnologie avanzate che coniugano da un lato la capacità computazionale, perché il volume dei dati da trattare è enorme, e dall’altro l’intelligenza capace di leggere, interpretare, comparare ed estrarre valore. Mi riferisco a Machine learning e AI quale è lo stato dell’arte in Italia? Quali i vantaggi che possono apportare queste tecnologie?
Carlo Viganò: l’intelligenza artificiale di per se non basta, occorre possa essere inserita in un contesto di ricerca e sviluppo costate e in un insieme di dati di campionamento sufficientemente vasto tale da poter produrre il più ampio bacino di situazioni reali, minimizzando casistiche ignote e/o falsi positivi. Veritas vanta una base installata delle proprie piattaforme da leader di mercato (vastità e varietà di volumi di dati) tale da poter permettere di essere all’avanguardia ed anticipare nel modo più efficace possibile la bontà dei propri algoritmi di ML, ormai più che maturi, ad oltre un decennio dalla loro prima adozione. Da questo punto di vista Veritas adotta il ML all’interno delle proprie soluzioni per affinare le analisi predittive di rischio e dei trend di utilizzo / consumo sulle infrastrutture, di efficientamento delle infrastrutture stesse via via che il cliente ne fa uso in produzione. Un’ulteriore area di utilizzo la troviamo nell’IT decision support, nel data retrieval e nella behaviour analysis, sempre nel pieno rispetto delle policy di privacy.
È sufficiente l’intelligenza artificiale a garantire la qualità e veridicità del dato trattato o forse è necessario qualcosa di più…?
Massimo Poli: In molti casi l’Intelligenza Artificiale deve essere messa in grado di operare al meglio, in particolare in funzione della qualità e veridicità del dato elaborato. Per fare un esempio specifico Sferanet ha sviluppato per il mondo del turismo una applicazione chiamata MTQM (Master Tourism Quality Management). Le azioni dei turisti digitali possono essere: visita del sito web, prenotazione, annullamento, acquisti, spostamento da una zona all’altra con mezzi di trasporto collettivo, recensione. Tutte queste azioni, delle quali si può avere evidenza sui portali di prenotazione o sui social network, vanno ad alimentare dei contatori che vengono raccolti dalle varie fonti dati interne ed esterne con operazioni di scraping o con operazioni di download.
I dati dei contenitori di raw data, opportunamente “ripuliti” e organizzati in una base dati attraverso l’utilizzo del modulo MTQM, costituiscono l’input dell’entità logica chiamata “AI Block”, all’interno della quale modelli di Intelligenza Artificiale opportunamente addestrati stimano gli indicatori e forniscono i dati di previsione. L’Intelligenza Artificiale applicata al turismo può mettere in luce le potenziali criticità, anticipando le tendenze negative. Infine, alla luce dei recenti eventi mondiali riguardanti la pandemia di Covid19, l’AI può far luce sulle strategie che possono risollevare il comparto turismo in questa crisi globale.
Quanto più se ne parla quanto più ci rendiamo conto che i dati sono un grande valore per il futuro delle organizzazioni sia pubbliche che private per cui non soltanto dobbiamo proteggerle da attacchi informatici, ma anche da eventuali interruzioni dei sistemi per svariati motivi. Come si organizza un piano di back up e recovery di questi dati?
Le aziende dovranno proseguire o intraprendere un percorso di minimizzazione del rischio su vari livelli: attraverso azioni di sensibilizzazione ed education verso i dipendenti, mettendo a punto metodologie e processi di data governance, availability e protection, adottando strumenti che evidenzino aree a rischio ed introducendo meccanismi perimetrali ed infrastrutturali di tutela e sicurezza. Veritas mette a disposizione la soluzione più robusta e versatile di Data Availability e Data Protection, in qualunque modello di deploy (BYO, Appliance, SaaS), per garantire continuità di servizio delle proprie applicazioni ed infrastrutture IT, fra on-prem e cloud, durante le migrazioni, fra cloud e cloud anche eterogenei, proteggendo al contempo da corruzioni logiche, da errori umani e da fattori naturali tutti i dati le applicazioni ed i carichi di lavoro, siano essi su ambienti fisici legacy, su ambienti virtualizzati, container, NO-SQL e/o Microservizi.
Inoltre, per far fronte ai sempre più sofisticati e frequenti attacchi informatici, che puntano a bloccare, corrompere o distruggere i dati di backup, Veritas fa in modo che il dato di backup resti immutabile, proponendo backup appliance hardeninzzate, con controlli di accesso dedicati, adottando i più stringenti standard in fatto di sicurezza e di vulnerability test. Con le nuove release di Netbackup 8.3 e Backup Exec 21, Veritas parla di possibilità copie multiple di backup, in diverse location e su sistemi differenti dove garantiamo, appunto, l’immutabilità dello storage dove i dati di backup vengono depositati. Tutte queste componenti hanno lo scopo di mettere sempre a disposizione una copia di backup dalla quale ripartire, in locale o nel cloud, anche a fronte di attacchi ransomware che possono aver già bloccato i dati di produzione e le postazioni di lavoro.
Abbiamo qualche esempio nel mondo della PA o della Sanità da portare per meglio far arrivare il valore aggiunto apportato dall’estrazione ed elaborazione dei dati?
Massimo Poli: Un esempio è il progetto di Scanner Data sviluppato per Istat, che consiste nell’acquisizione dei dati dei prezzi al dettaglio per permettere l’analisi e il calcolo degli indici di mercato e l’andamento dei prezzi in maniera molto più veloce e puntuale basandosi su una architettura Big Data.
Per concludere una domanda che faccio ad entrambi se un comune volesse diventare “ data driven” per meglio rispondere alle richieste dei cittadini da dove dovrebbe partire?
Massimo Poli: Sicuramente il punto di partenza è la creazione di una “cultura del dato” e la sua diffusione a tutti i livelli. Essere “data driven” vuol dire costruire processi decisionali che siano basati sui dati oggettivi; è quindi necessario sviluppare competenze che permettano l’individuazione di tutte le possibili sorgenti di dati utili ad un determinato processo decisionale e delle metodologie migliori per la loro elaborazione. Molti comuni, soprattutto i più grandi, hanno già intrapreso questo percorso, almeno parzialmente, e potrebbero condividere il loro approccio con quelli più indietro, contribuendo alla ulteriore diffusione della cultura di cui sopra. La tecnologia sostiene questo percorso tramite infrastrutture opportunamente dimensionate e piattaforme di elaborazione disegnate per essere flessibili, versatili, interoperabili e sicure.
Carlo Viganò: come abbiamo ormai ben compreso in questa breve sintesi, il primo passo sta nell’acquisire conoscenza, cura e metodo nella gestione delle informazioni; nel poterne disporre dimostrandone la loro sicurezza, efficienza e trasparenza, informazioni sensibili incluse. Occorre poterli proteggere da indisponibilità dovute a eventi naturali, accidentali o criminali; poterli classificare, capirne l’utilità nel tempo ed il loro ciclo di vita per poterli utilizzare, proteggere, archiviare ed eventualmente reperire nuovamente in modo semplice ed efficiente. Occorre poter attribuire dei fattori di rischio legati alla sensibilità dei dati stessi al fine di indirizzare le più stringenti normative vigenti. In breve occorre costruire e sviluppare una vera e propria cultura dell’informazione. Oggi Veritas è in grado di seguire i propri clienti, piccoli o grandi che siano, nelle loro esigenze in termini di semplicità di utilizzo, ai massimi livelli di sicurezza e conformità ed a costi adeguati.
1) Erich Schmidt, Executive Chairman di Google
2) Luciano Floridi è un filosofo italiano naturalizzato britannico, professore ordinario di filosofia ed etica dell’informazione presso l’Oxford Internet Institute dell’Università di Oxford, dove è direttore del Digital Ethics Lab. Attualmente è visiting professor all’Università di Ferrara
InnovazionePA è una iniziativa Soiel International, dal 1980 punto d’informazione e incontro per chi progetta, realizza e gestisce l’innovazione.
Tra le altre iniziative editoriali di Soiel:
Soiel International Srl
Via Martiri Oscuri 3, 20125 Milano
Tel. +39 0226148855
Fax +39 02827181390
Email: info@soiel.it
CCIAA Milano REA n. 931532 Codice fiscale, Partita IVA n. 02731980153