Il tema dei dati e dell’uso che se ne fa in un’organizzazione, che sia pubblica o privata, è oggi più che mai di stretta attualità. Certamente nell’era analogica, dove questi erano sostanzialmente scritti e archiviati su supporto cartaceo, nel momento in cui non erano più ‘freschi’ spesso finivano dimenticati in qualche schedario a fare polvere, ignorando il valore che potevano ancora avere. Con l’avvento dei sistemi informatici e quindi del digitale i dati hanno tuttavia iniziato a guadagnare un nuovo spazio vitale diventando poi, con lo sviluppo delle applicazioni dapprima di database e calcolo, e successivamente di analisi – parliamo della Business Intelligence, degli Analytics e di tutti i loro derivati – quanto da più parti viene definito come “il nuovo petrolio”. Questo ancor più da quando è stato coniato, e siamo ormai a una ventina di anni fa, il termine Big Data con diverse definizioni che sono state date, a partire da quella di Gartner che parla di “asset informativi ad elevato volume, elevata velocità, e/o elevata varietà che richiedono forme innovative e convenienti di elaborazione delle informazioni che abilitano una maggiore comprensione (il termine originale è ‘insight’), presa di decisioni, e automazione dei processi”.
Un petrolio che appunto per poter generare un vero valore (e quindi informazioni utili) deve essere tuttavia raffinato attraverso strumenti ritenuti decisivi per poter svolgere la propria attività in modo efficace ed efficiente sui tanti versanti coinvolti. E con i relativi ruoli che evolvono per poter trovare il propellente perfetto al rispettivo motore, con il vantaggio di non ‘inquinare’ l’attività, ma anzi renderla più ordinata e limpida. Ma procediamo con ordine. Di fatto oggi tutto quanto ci circonda può essere convertito facilmente in dato. Come spiega il documento ‘Big Data’ pubblicato lo scorso anno dal Servizio Economico e Statistico di AGCOM (Autorità per le garanzie nelle comunicazioni) “le parole si trasformano in dati, la posizione geografica si trasforma in dati, le interazioni sociali si trasformano in dati, anche le cose, se connesse in rete (IoT), diventano dati. Le fonti possono essere rinvenute in qualsiasi device, sensore, sistema operativo, motore di ricerca, social network”, facendo successivamente anche un interessante paragone con il passato: “Nell’epoca degli small-data, ossia quando i dati rappresentavano una risorsa scarsa, tipicamente era necessario porsi una domanda di ricerca e conseguentemente raccogliere i dati (‘data-is-scarce-model’), ovvero acquisire dati su piccole parti di un universo di riferimento (un campione); le problematiche che ne scaturivano venivano trattate distintamente a seconda che si trattasse di costruire banche dati, ripetere rilevazioni di dati, ottenere risposte in tempi brevi o, anche, far ‘interagire’ dati che presentavano formati diversi”.
Ecco che applicando ai Big Data le tecniche di analisi più opportune si può da un lato ottimizzare le attività che li coinvolgono e dall’altro offrire agli utenti finali (nel caso della Pubblica Amministrazione i suoi dipendenti così come i cittadini) servizi sempre migliori e personalizzati. Con tutto quello che ne consegue in termini di soddisfazione. A patto però di riuscire a lavorare sui tre fattori evidenziati nella definizione di Gartner, quindi volume, velocità e varietà (ma non solo come vedremo nell’intervista delle prossime pagine), in un contesto in cui la diffusone crescente di dati non strutturati (ossia che non sono memorizzati attraverso uno schema, come invece avviene con quelli strutturati) rende tutto questo ancora più sfidante. Ma proviamo prima a dare qualche numero partendo dal tema dei volumi. In tale contesto ci vengono in aiuto i dati di un documento intitolato ‘Data Age 2025’ e rilasciato alla fine dello scorso anno da IDC (commissionato da Seagate) in cui veniva previsto il passaggio da 33ZB (zettabytes) di dati a livello mondiale a 175ZB nel 2025, per un tasso di crescita composto dal 61%. Una quantità esorbitante se si pensa che 1 zettabyte corrisponde a 1 bilione (trillon in americano) di Gigabyte, ma ancor più – come spiegava David Reinsel, senior vice president di IDC – pensando che potendo memorizzare 175ZB su dischi Blu-Ray si andrebbe a comporre una pila per compiere 23 volte il viaggio verso la luna. Ma non solo, proseguiva Reinsel, anche scaricando quei 175ZB sul supporto di storage attualmente più grande disponibile ci vorrebbero 12 miliardi e mezzo di unità.
Passando al tema della velocità qui si entra, come spiega AGCOM nel suo report, su due versanti. Il primo è quello della velocità di produzione e raccolta dei dati, con riferimento a un mondo sempre più social e interconnesso, dove si scrivono e inviano in continuazione messaggi e contenuti di vario genere, e quindi dati, ma anche dove per l’Internet of Things – ossia le tecnologie che abilitano gli oggetti e le cose in generale alla connessione in rete – Gartner prevede solo per quanto riguarda il mondo enterprise ed automotive 5,8 miliardi di endpoint in uso nel 2020 a livello mondiale, contro i 4,8 del 2018. E con il settore pubblico che passerà in tre anni da 0,40 a 0,70 miliardi di unità installate (vedi tabella).
.
.
Il secondo tema della velocità riguarda l’attività di elaborazione per ricavarne al più presto il valore ricercato e intervenire in tempo reale, o quasi. Pensiamo al settore della Sanità dove è di fatto sempre più importante per arrivare a diagnosi più precise e interventi più tempestivi (vedi il box in queste pagine). Infine
si arriva alla varietà. Qui il documento AGCOM citato in precedenza evidenzia come il riferimento sia “alla eterogeneità nelle fonti sorgenti dei dati, nei formati, con cui vengono acquisite le informazioni (tradizionali/strutturati e, soprattutto, non strutturati) e nella rappresentazione e analisi (anche semantica) dei dati immagazzinati. E che essendo i dati non strutturati la maggioranza delle informazioni oggi disponibili, è evidente che il problema della gestione dell’eterogeneità, e della sua complessità, diventa cruciale.”
Ma quali sono allora le tecnologie che oggi ci permettono di lavorare sui Big Data? Prima di tutto bisogna dire che il data processing è passato attraverso diverse fasi che hanno visto prima dell’avvento dei Big Data la diffusione dei cosiddetti database relazionali, quindi dei sistemi ETL (Extract, Transformation, Load, ossia estrazione, trasformazione e caricamento dei dati poi organizzati e centralizzati all’interno di un unico contenitore), per arrivare alle tecnologie Big Data così come le conosciamo oggi declinate in modalità on premise e cloud. Il tutto senza dimenticare che il dato ha un suo ciclo di vita virtuoso, continuo e concentrico, che (in breve) partendo dalla sua produzione atterra sui sistemi di storage da cui vengono poi raccolti e preparati per essere elaborati dai sistemi di analisi che produrranno a loro volta altri dati (e informazioni, così come previsioni e descrizioni) da presentare e memorizzare, e così via.
Centrale in tutto questo è quindi la tecnologia nelle sue diverse forme, hardware e software, ma anche i servizi che non solo permettono di conservarlo od elaborarlo ma anche difenderlo, come accade con il disaster recovery (veder box sul tema in queste pagine). Fino ad arrivare agli approcci più attuali per poter gestire una forma di dati che come abbiamo visto in precedenza è eterogenea e sempre più ampia, e che ha visto al termine Big Data associato prima quello di Data Warehouse e oggi anche quello di Data Lake. Il primo Gartner lo definisce “un’architettura storage progettata per contenere i dati estratti dai sistemi transazionali, store di dati operativi e fonti esterne. Il warehouse quindi combina i dati in una forma aggregata e riassunta adatta a un’analisi e reportistica per esigenze di business predefinite”. Il secondo invece è un “concetto che consiste in una raccolta di istanze di storage di vari asset di dati, memorizzate in una copia quasi esatta, o addirittura esatta, e che sono in aggiunta agli store di dati originari”.
Per approfondire, su questo punto ci vengono in aiuto alcuni esperti di McKinsey che in un intervento su Internet intitolato ‘A smarter way to jump into data lakes’ scrivono che si tratta di “piattaforme di storage progettate per mantenere, processare, e analizzare dati strutturati e non strutturati. Usati tipicamente insieme ai tradizionali enterprise data warehouse, ma costando meno in termini di gestione. Risparmi che derivano dal fatto che è possibile utilizzare hardware semplice da ottenere e in quanto i set di dati non hanno la necessità di essere indicizzati e preparati per lo storage al momento della loro induzione. I dati sono mantenuti nei loro formati nativi e riconfigurati solo quando serve, in base alle esigenze. Può essere anche necessaria la gestione di database relazionali come parte della piattaforma data lake, ma solo per agevolare la capacità degli utenti di accedere ad alcune fonti dati”.
Insomma se da un lato i Big Data rappresentano una grande opportunità dall’altro necessitano di strumenti e metodi adeguati per essere sfruttati al massimo e non restare abbandonati in modo disordinato e confuso. Fine ultimo anche quello di avere un’organizzazione e quindi degli strumenti e servizi, e in ultima analisi esperienze, migliori da offrire ai cittadini.
Nel report intitolato Study on Big Data in Public Health, Telemedicine and Healthcare pubblicato dalla Commissione Europea e scritto dal Gesundheit Österreich Forschungs- und Planungs GmbH (l’istituto nazionale per la salute pubblica dell’Austria) viene spiegato che “con il termine Big Data nella Sanità si fa riferimento a un ampio insieme di dati raccolti regolarmente o automaticamente, che sono catturati e memorizzati elettronicamente. Questi dati sono riusabili nel senso di dati polivalenti e comprendono la fusione e la connessione di database esistenti allo scopo di migliorare la salute e le prestazioni del sistema sanitario. Essi non si riferiscono ai dati raccolti per uno studio specifico”. In tale contesto vengono quindi segnalate una serie di applicazioni in termini di monitoraggio potenziale oppure di analisi a posteriore dei dati con possibili contributi in termini di:
Miglioramento dell’efficacia e della qualità dei trattamenti con esempi quali un intervento più precoce sulle malattie, una minore probabilità di reazioni avverse ai farmaci, meno errori medici, determinazione delle casualità e comprensione delle comorbilità (ossia la compresenza di patologie diverse in uno stesso individuo), il collegamento reciproco tra fornitori e professionisti della sanità, l’intensificazione delle reti di ricerca e infine la fusione di reti diverse quali quelle di tipo social, disease o medicine.
L’uso dei Big Data, viene spiegato, può ampliare la possibilità di prevenzione delle malattie identificando i fattori di rischio a livello di popolazione, sub popolazione, e singolo individuo, e migliorando l’efficacia degli interventi per aiutare le persone a raggiungere comportamenti più sani in ambienti più salubri. Inoltre si parla di miglioramento in ambito di farmaco vigilanza e sicurezza del paziente attraverso la capacità di prendere decisioni mediche più informate basate su informazioni erogate direttamente ai pazienti, previsione di risultati come ad esempio contenimento e miglioramento delle patologie croniche, sorveglianza globale delle malattie infettive attraverso mappe di rischio in evoluzione, e migliore comprensione delle sfide e dei trend demografici così come delle modalità di trasmissione delle malattie. Infine nello studio si parla di disseminazione di conoscenza, ad esempio aiutando i medici a restare aggiornati sulle pratiche cliniche più recenti e le relative linee guida, e di riduzione di inefficienze e sprechi, con un migliore contenimento dei costi.
“La continuità operativa è l’insieme di attività volte a minimizzare gli effetti distruttivi, o comunque dannosi, di un evento che ha colpito un’organizzazione o parte di essa, garantendo la continuità delle attività in generale.” Questa definizione presente sul sito di AgID (Agenzia per l’Italia Digitale) introduce il tema del disaster recovery, così fondamentale per un’organizzazione che non voglia subire interruzioni alla propria operatività ma anche non accedere e finanche perdere tutte quelle informazioni preziose che si possono ricavare dalla moltitudine di dati prodotti, raccolti e ricevuti.
Più nel dettaglio, nel Piano Triennale per l’Informatica nella Pubblica Amministrazione 2019 – 2021 il disaster recovery viene anche definito come “L’insieme delle misure tecniche e organizzative adottate per assicurare all’organizzazione il funzionamento del centro di elaborazione dati e delle procedure e applicazioni informatiche dell’organizzazione stessa, in siti alternativi a quelli primari/di produzione, a fronte di eventi che provochino o possano provocare indisponibilità prolungata.”
Un tema che per il quale proprio AgID aveva pubblicato delle linee guida indirizzate alla Pubblica Amministrazione, ai sensi del c. 3, lettera b) dell’art. 50bis del Codice dell’Amministrazione Digitale. L’articolo è stato poi abrogato dal D.Lgs. n. 179/2016, ma la disciplina in materia è stata ritenuta dall’Amministrazione proponente – come scritto nel Parere del Consiglio di Stato sullo schema di d.lgs recante “modifiche e integrazioni al Codice dell’Amministrazione Digitale di cui al d.lgs 7 marzo 2005, n. 82, ai sensi dell’art.1 della l. 7 agosto 2015, n. 124 in materia di riorgan. delle Ammin. Pubbl. – “ricompresa nel novellato art. 51 del Codice”, nella parte in cui dispone che le regole tecniche di cui all’art. 71 del CAD debbano anche individuare delle modalità che garantiscano “l’esattezza, la disponibilità, l’accessibilità, l’integrità e la riservatezza dei dati, dei sistemi e delle infrastrutture” informatiche, in attuazione, peraltro, del criterio di delega di cui all’art. 1. comma 1, lett. m) della legge n. 124 del 2015. Inoltre – prosegue il Parere – sempre relativamente alla succitata tematica, il dicastero proponente ha sottolineato che le regole tecniche di cui all’art. 71 del CAD risultano uno strumento più flessibile rispetto al disposto del citato art. 50 bis del CAD e, quindi, più idoneo a tener conto dell’evoluzione tecnologica del settore, circostanza quest’ultima di sicuro rilievo atteso che “la progettazione e realizzazione di soluzioni per la continuità operativa ed il disaster recovery sono fortemente dipendenti dalle tecnologie in rapida evoluzione”.
A conferma dell’importanza che il disaster recovery riveste va aggiunto che all’interno del documento Linee guida per la qualità delle competenze digitali nelle professionalità ICT, sempre realizzato da AgiD, si parla di un Responsabile della continuità operativa la cui missione è di “sovrintendere alla predisposizione di tutte le misure necessarie per ridurre l’impatto di un’emergenza ICT e reagire prontamente e in maniera efficace in caso di una interruzione delle funzioni ICT, a supporto dei servizi erogati, dovuta a un disastro. Ha inoltre la responsabilità di sviluppare e mantenere aggiornato il piano di continuità operativa ICT e la documentazione ad esso connessa pianificando e coordinando l’esecuzione dei test di continuità operativa”.
Cosa prevede la Piattaforma Digitale Nazionale Dati (PDND) inserita nel Piano Triennale per l’Informatica 2019-2021.
Migliorare e semplificare l’interoperabilità e lo scambio dei dati pubblici tra PA, standardizzare e promuovere la diffusione degli Open Data, ottimizzare i processi di analisi dati e generazione di sapere. Questo, così come descritto sul sito del Tema Digitale, l’obiettivo posto per il Data & Analytics Framework (DAF), introdotto già nel Piano Triennale per l’Informatica 2017-2019 e recepito nella riforma del Codice Amministrazione Digitale (CAD) con l’introduzione della Piattaforma Digitale Nazionale Dati (PDND), con cui viene appunto oggi denominato a livello istituzionale.
Presente quindi nel nuovo Piano 2019-2021, l’idea dichiarata è quella dell’abbattimento dei silos privati che possono essere stati introdotti nel tempo nelle varie amministrazioni presenti sul territorio arrivando a un estrazione di valore dai dati pubblici, grazie a una piattaforma che permetta di comunicare e condividere i dati così come le interfacce API per arrivare alla costruzione di nuovi servizi basati sui bisogni dei cittadini, garantendo nel contempo i livelli di sicurezza e privacy necessari.
Diversi i vantaggi elencati in relazione quindi all’analisi basata sui Big Data, con riferimento a tre direttrici: Amplificare sensibilmente il valore del patrimonio informativo della PA mediante la predisposizione e l’uso di strumenti di analisi finalizzati a sintetizzare conoscenza per i decision maker, e diffusione di informazioni verso cittadini e imprese. Ottimizzare lo scambio dei dati tra le PA e la diffusione degli Open Data, minimizzando i costi transattivi per l’accesso e l’utilizzo dei dati. Favorire l’analisi e la gestione dei dati da parte di team di data scientist in seno alle PA, al fine di migliorare la conoscenza dei fenomeni descritti dai dati e sviluppare applicazioni ‘intelligenti’, nonché condurre iniziative utili a promuovere attività di ricerca scientifica su tematiche applicative di interesse per la PA.
“La storia dei dati e degli analytics continua ad evolvere, dal supporto delle decisioni interne alla cosiddetta ‘continuous intelligence’, ai prodotti informativi e alla nomina dei chief data officer” (quelle figure professionali responsabili della data governance, ma non solo). Così Rita Sallam, research vice president di Gartner commenta lo scenario prossimo del settore data and analytics, presentando i relativi 10 Top trend che la società ha identificato per i prossimi tre/cinque anni. Ecco che secondo Donald Feinberg, vice president and distinguished analyst di Gartner, la grande sfida creata dalla ‘digital disruption’ — ossia l’avere una quantità esagerata di dati — ha anche creato un’opportunità senza precedenti. In pratica, insieme a capacità di elaborazione sempre più potenti abilitate dal cloud computing, questa grande massa fa sì che oggi sia possibile addestrare ed eseguire su larga scala quegli algoritmi che sono necessari a realizzare il pieno potenziale dell’intelligenza artificiale.
Per Feinberg “La dimensione, la complessità, la natura distribuita dei dati, la rapidità di azione e la continuous intelligence richiesta dal digital business abbatte le architetture e gli strumenti centralizzati. La sopravvivenza di qualsiasi attività dipenderà da un’architettura agile e data-centrica che risponde a un tasso di cambiamento costante”. Considerazioni che possono essere di fatto applicate sia al settore privato sia a quello pubblico.
Ma vediamo insieme i 10 trend identificati da Gartner così come vengono descritti in una nota.
Definita da Gartner come la prossima ondata dirompente sul mercato data and analytics, l’augnmented analytics utilizza le tecniche di machine learning (ML) e intelligenza artificiale (AI) per trasformare le modalità di sviluppo, consumo e condivisione del contenuto analitico. La previsione per questo trend è che già nel 2020 rappresenterà un driver dominante dei nuovi investimenti nei prodotti di analisi e di Business Intelligence, così come nelle piattaforme di data science e ML, e di embedded analytics.
Gartner spiega che l’augmented data management è un approccio che fa leva sulle capacità dei motori di machine learning e intelligenza artificiale e AI di rendere le categorie di enterprise information management – comprensive di data quality, metadata management, master data management, data integration e database management system (DBMS) – autoconfiguranti e autoregolanti. In questo caso si parla quindi dell’automazione di molte attività manuali e dell’abilitazione degli utenti con meno competenze tecniche ad essere più autonomi nell’uso dei dati, e di conseguenza della focalizzazione delle risorse altamente tecniche su attività da considerarsi a maggior valore.
Più nel dettaglio, Gartner aggiunge che l’augmented data management converte i metadati dal solo utilizzo a fini di revisione, lignaggio e reportistica, all’alimentazione dei sistemi dinamici. L’idea è che i metadati stanno in definitiva passando da una situazione passiva a una attiva e diventando il driver primario per tutti i temi di AI e ML. La previsione di Gartner su questo particolare trend è che per tutto il 2022, le attività di data management manuali saranno ridotte del 45% grazie all’adozione di machine learning e service-level management automatizzato.
Secondo Gartner nel 2022 più della metà dei nuovi sistemi principali incorporerà la continuous intelligence, ossia una tecnica che si serve dei dati contestuali in tempo reale per migliorare le decisioni.
Per continuous intelligence si intende un design pattern nel quale gli analytics vengono integrati in tempo reale all’interno di una determinata attività, elaborando i dati correnti e storici per fornire azioni di risposta agli eventi. Quindi offre automazione o supporto decisionale, facendo leva su più tecnologie quali augmented analytics, event stream processing, ottimizzazione, gestione delle regole di business, e machine learning.
Secondo Sallam la “continuous intelligence rappresenta un cambiamento decisivo nel lavoro dei team di data and analytics. Per i team che si occupano di analytics e di BI (business intelligence) si tratta di una grande sfida — ma anche di una grande opportunità — per aiutare la propria organizzazione a prendere decisioni più smart in tempo reale. Potrebbe essere considerata come l’elemento definitivo per la BI.”
Secondo Gartner i modelli di intelligenza artificiale sono sempre più adottati per aumentare e sostituire i processi decisionali umani. Tuttavia, per determinati scenari, risulta necessario giustificare come questi modelli giungano alle proprie decisioni. Per sviluppare la fiducia degli utenti e delle altre persone coinvolte, chi guida le applicazioni deve rendere tali modelli più interpretabili e spiegabili.
Ecco che viene sottolineato come la maggior parte di questi modelli di intelligenza artificiale avanzati siano delle scatole nere complesse che non sono in grado di spiegare perché hanno raggiunto una specifica raccomandazione o decisione. L’esempio citato è che la Explainable AI nelle piattaforme di data science e machine learning genera automaticamente una spiegazione dei modelli in termini di accuratezza, attributi, statistiche di modelli e caratteristiche in linguaggio naturale.
Gartner definisce la graph analytics un insieme di tecniche di analisi che permettono l’esplorazione di relazioni tra entità di interesse quali organizzazioni, persone e transazioni.
Secondo le sue previsioni l’applicazione dell’elaborazione dei grafi e la gestione dei relativi database è destinata a crescere del 100% annualmente fino al 2022 per accelerare costantemente la preparazione dei dati e abilitare una data science più complessa e adattiva. La società spiega che gli store dei dati sui grafi possono modellare, esplorare e interrogare efficientemente i dati con interrelazioni complesse attraverso i silos di dati, ma che la necessità di competenze specializzate ne ha finora limitata l’adozione.
La previsione è che la graph analytics crescerà nei prossimi anni per l’esigenza di rispondere a quesiti complessi attraverso dati complessi, il che non risulta sempre pratico o nemmeno possibile su larga scala appoggiandosi a query SQL (Structured Query Language).
L’architettura Data Fabric abilita un accesso ai dati privi di attrito e una loro condivisione in un ambiente distribuito. Gartner spiega che essa abilita un framework di data management unico e coerente, che permette di accedere ed elaborare i dati in modo fluido e già in partenza, attraverso uno storage altrimenti compartimentato.
Per il 2022, la previsione è che le iniziative di data fabric fatte su misura verrano inserite principalmente come infrastruttura statica, costringendo le organizzazioni a una nuova ondata di costi per ridisegnare tutto completamente al fine di ottenere approcci più dinamici di tipo data mesh.
Per il 2020 Gartner prevede che il 50% delle query analitiche saranno generate grazie a variabili quali ricerca, Natural Language Processing (NLP) o voce, o saranno generate automaticamente. L’idea è che la necessità di analizzare combinazioni complesse di dati e di rendere gli analytics accessibili a chiunque all’interno di un’organizzazione favorirà un’adozione maggiore, dando agli strumenti analitici la stessa semplicità di una interfaccia di ricerca o una conversazione con un assistente virtuale.
Gartner prevede che per il 2022 il 75% delle nuove soluzioni destinate agli end-user che fanno leva su tecniche di intelligenza artificiale e machine learning verranno costruite con soluzioni commerciali piuttosto che con piattaforme Open Source.
Viene spiegato quindi che i vendor commerciali oggi hanno costruito connettori con l’ecosistema Open Source e forniscono quelle caratteristiche enterprise necessarie a scalare e rendere più democratiche AI e ML. Si parla di project & model management, riuso, trasparenza, data lineage, e coesione e integrazione della piattaforma, mancanti nelle tecnologie Open Source.
Qui Gartner spiega che la principale proposta di valore della blockchain, e delle tecnologie di ’ledger’ (letteralmente il libro mastro) distribuito, sta fornendo un processo di trust decentralizzato attraverso una rete di partecipanti che non lo sono. Si sottolinea che le ramificazioni potenziali dei casi d’uso degli analytics sono significative, in special modo quelle che fanno leva su relazioni e interazioni delle relazioni.
Tuttavia, Gartner spiega che ci vorranno diversi anni prima che quattro o cinque tecnologie blockchain principali si affermino come dominanti. L’idea è che fintanto che questo non accadrà, gli utenti finali tecnologici saranno obbligati a integrarsi con le tecnologie blockchain e gli standard dettati dai rispettivi clienti o reti prevalenti. Includendo anche la necessità di integrazione con la propria infrastruttura o i dati esistenti. I costi di quest’ultima, spiega Gartner, possono superare qualsiasi beneficio potenziale. E le blockchain sono da considerarsi delle fonti di dati, non un database, e non sostituiranno le tecnologie esistenti di data management.
L’ultimo trend evidenziato da Gartner è quello delle tecnologie di persistent-memory considerate come un aiuto per ridurre i costi e le complessità legate all’adozione delle architetture abilitate all’in-memory computing (IMC).
Più nel dettaglio, il persistent memory viene finito come un nuovo livello di memorizzazione a cavallo tra DRAM e memorie flash di tipo NAND in grado di fornire una memoria di massa conveniente per i carichi di lavoro ad alte prestazioni. Gli analisti ritengono che abbia il potenziale per migliorare le prestazioni applicative, la disponibilità, i tempi di avvio, le metodologie di clustering e le pratiche di sicurezza, mantenendo i costi sotto controllo. Inoltre è destinato ad aiutare le organizzazioni a ridurre la complessità delle proprie applicazioni e architetture di dati diminuendo la duplicazione dei dati.
Feinberg conclude affermando che la “quantità dei dati sta crescendo rapidamente mentre e lo stesso sta accadendo per l’urgenza di trasformarli in valore in tempo reale. Nuovi carichi di lavoro che pesano sui server stanno richiedendo non solo CPU dalle prestazioni più rapide, ma anche una memoria enorme e uno storage più veloce.”
InnovazionePA è una iniziativa Soiel International, dal 1980 punto d’informazione e incontro per chi progetta, realizza e gestisce l’innovazione.
Tra le altre iniziative editoriali di Soiel:
Soiel International Srl
Via Martiri Oscuri 3, 20125 Milano
Tel. +39 0226148855
Fax +39 02827181390
Email: info@soiel.it
CCIAA Milano REA n. 931532 Codice fiscale, Partita IVA n. 02731980153