Quando si parla di big data ci si riferisce a un’insieme di dati che sono così grandi di volume e così complessi, che i software e le architetture informatiche tradizionali non sono in grado di catturarli, gestirli ed elaborarli in un tempo ragionevole.
Se un database tradizionale può gestire tabelle composte da milioni di righe e decine o poche centinaia di colonne, i big data richiedono strumenti in grado di gestire lo stesso numero di record, ma con migliaia di colonne.
In più, spesso i dati non sono disponibili in forma strutturata, facilmente incasellabili in righe e colonne, ma sono presenti sotto forma di documenti, meta dati, posizioni geografiche, valori rilevati da sensori IoT e numerose altre forme, dal semi-strutturato al completamente destrutturato. Infatti, i dati che compongono gli archivi big data possono provenire da fonti eterogenee, come dati di navigazione di siti web, social media, applicazioni desktop e mobile, ma anche da sensori integrati in migliaia di oggetti che fanno parte della cosiddetta Internet of Things (IoT).
I DATABASE NOSQL
BIG DATA ANALYTICS
La locuzione analisi di big data (Big Data Analytics) viene spesso usata per descrivere quelle che sono le tecniche analitiche atte all’estrazione di informazioni da dataset enormi, che necessitano di tecnologie avanzate per lo storage, la gestione e la rappresentazione. Tali tecniche provengono da un vasto numero di discipline come la statistica, il data mining, il machine learning e deep neural network, etc. Sono tutte tecniche molto utili e possono avere svariate applicazioni.
Le scienze della BDA sono costituite da quattro grandi tipologie di data analysis:
- descriptive analytics: la fase di partenza solitamente è l’analisi descrittiva, è costituita da tutti i tool che permettono di rappresentare e descrivere anche in modo grafico la realtà di determinate situazioni o processi. Nel caso delle imprese parliamo, ad esempio, della rappresentazione di processi aziendali. La descriptive analytics permette la visualizzazione grafica dei livelli di performance
- predictive analytics: in seguito si passa all’analisi predittiva, basata su soluzioni che permettono di effettuare l’analisi dei dati al fine di disegnare scenari di sviluppo per il futuro. Le predictive analytics si basano su modelli e tecniche matematiche come, appunto, i modelli predittivi, il forecasting e altri
- prescriptive analytics: con le analisi prescrittive si entra nell’ambito di strumenti che associano l’analisi dei dati alla capacità di assumere e gestire il processo decisionale. Le prescriptive analytics sono tool che mettono a disposizione delle indicazioni strategiche o delle soluzioni operative basate sia sull’analisi descrittiva che sulle analisi predittive
- automated analytics: la quarta fase è rappresentata dalle automated analytics, che permettono di entrare nell’ambito dell’automazione con soluzioni di analytics. A fronte dei risultati delle analisi descrittive e predittive, le automated analytics sono nella condizione di attivare delle azioni definite sulla base di regole. A loro volta, queste regole possono essere il frutto di un processo di analisi, come ad esempio lo studio dei comportamenti di una determinata macchina a fronte di determinate condizioni oggetto di analisi
L’utilizzo dell’analisi predittiva e prescrittiva può giocare molto a favore della strategia di impresa, risolvendo problemi relativi allo sviluppo e alla vendita di prodotti e servizi, e quelli che riguardano invece l’organizzazione della struttura.
L'IMPORTANZA DEI BIG DATA
I big data devono la loro origine anche al proliferare di dispositivi fissi e mobili che usiamo quotidianamente nella nostra vita. I social media, tutto ciò che transita dai vari sistemi di CRM, la cassa di un supermercato e le telefonate al call center rientrano nell’ambito dei big data. In che modo?
I big data non sono un trend, ma una necessità gestionale per qualunque tipo di organizzazione, poiché aiutano a capire le reazioni dei mercati e la percezione che questi hanno dei brand. In che modo lo fanno?
Identificando i fattori che spingono le persone a preferire un certo servizio o un prodotto e acquistarlo al posto di un altro. Ma non è tutto. I big data segmentano la popolazione per personalizzare le strategie d’azione e consentono di effettuare nuove sperimentazioni grazie all’enorme disponibilità di dati inediti raccolti.
Ciò comporta un guadagno in termini di predittività, proprio perché si ha a disposizione uno storico di informazioni utili numerose, che consente simulazioni molto verosimili. A completare il quadro vi è la possibilità, concessa dai big data, di abilitare nuovi modelli di business.
Inoltre, quando ai big data si uniscono gli analytics è possibile:
- determinare, quasi in tempo reale, le cause di guasti, avarie o difetti
- creare offerte nei punti vendita, basate sulle abitudini dei Clienti
- ricalcolare interi portafogli di rischio in pochi minuti
- individuare comportamenti fraudolenti prima che colpiscano la propria organizzazione
LE TECNOLOGIE PER I BIG DATA
Google, Facebook, Twitter e Amazon conoscono tutto di noi perché possiedono dei dati, i nostri dati. Si tratta di dati non strutturati studiati tramite le tecniche di sentiment analysis, che riescono a capire le emozioni contenute nelle informazioni testuali, utili alle aziende e ai politici per rintracciare la direzione dell’opinione pubblica.
Le smart city sono un esempio chiaro e semplice di big data management e big data analyst. Lampioni sensorizzati per gestire meglio il traffico e monitorare l’inquinamento, telecamere a circuito chiuso per ricostruire i percorsi automobilistici sospetti fuori dai locali e dalle banche, tag RFID per rendere cassonetti e sacchetti comunicanti tra loro nella raccolta differenziata; sono tutti esempi di come l’analisi dei dati possa migliorare la vita della comunità, ma non solo.
Anche nel retail l’applicazione dei big data porta benefici, aumentando i margini del 60% con l’analisi dei comportamenti di acquisto. Quindi scontrini, carte fedeltà, interazioni con le promozioni, annunci, e-mail marketing, newsletter e via dicendo. Questa mole di dati rappresenta un’immensa quantità di informazioni di valore che vanno a costruire l’offerta a misura di Cliente. Il geomarketing e la geolocalizzazione generano big data che consentono di generare miliardi di dollari.
Sfruttare il big data management significa andare oltre l’elaborazione degli ordini, significa implementare nuovi sistemi per le campagne di marketing e gestire con astuzia i programmi fedeltà. Il tutto va accompagnato ad un monitoraggio costante dei feedback ricevuti, inclusa la gestione dei reclami, per avere una visione totale dei Clienti, dei prodotti e di tutta l’azienda nel mercato.
Secondo gli analisti di McKinsey, in Europa le amministrazioni pubbliche possono ottenere risparmi nell’ordine di 100 miliardi di euro da una buona gestione dei big data, incrementando l’efficienza operativa. Una cifra che potrebbe aumentare a dismisura se i big data venissero utilizzati anche per ridurre le frodi e gli errori, traguardando la trasparenza fiscale.
Il mercato Analytics conferma il trend rilevato negli ultimi tre anni, con una crescita media del 21% anno su anno, ma rileva anche un divario importante tra grandi imprese e PMI, che rappresentano invece solo il 12% del mercato.
Soltanto il 7% delle PMI nel 2018, infatti, ha avviato progetti di big data analytics, mentre quattro su dieci dichiarano di svolgere analisi tradizionali sui dati aziendali. Ma la buona notizia è che circa un terzo sembra essere sulla giusta strada sia in termini di consapevolezza che di adeguamento tecnologico e di processo.
I mercati digitali dei big data
La vera sfida dei big data risiede nella capacità delle aziende di riuscire ad analizzare correttamente i dati ottenuti, seguendo questo processo: interrogazione, risposta e visione di dettaglio. Grazie alla crescente minuziosità degli algoritmi è possibile interpretare ogni informazione che percorre la rete, rivoluzionando i tradizionali modelli semplici di business.
Le aziende sfruttano solo una parte delle potenzialità associate ai big data, non solo per questioni di budget associato agli investimenti, ma soprattutto per le competenze che mancano. Sul mercato, infatti, ci sono ancora pochi big data manager che sanno valorizzare i dati aziendali e il settore è ancora nuovo, quindi richiede una preparazione senza precedenti. Per studiare i big data servono doti comunicative e di leadership, ottime capacità di team building, di analisi e di problem solving.
Ecco le quattro tipologie di profili che saranno sempre più richiesti dalle aziende:
- data architect, coloro che progettano i sistemi di dati e i relativi workflow
- data engineer, coloro che identificano le soluzioni basate sui dati e sviluppano prodotti di scouting e di analisi mirati
- data scientist, coloro che analizzano i dati grazie ad algoritmi sempre più sofisticati
- business translator, figure bimodali che dispongono di competenze tecniche e di business
BIG DATA E TREND PER IL 2020
Ecco le tendenze che stanno trasformando lo scenario dei big data analysis nelle organizzazioni:
- Real Time Analytics. La velocità è un vantaggio competitivo. Svolgere analisi in tempo reale permette di controllare dall’interno i processi e le azioni automatizzate, e sviluppare nuovi prodotti e servizi
- Hadoop. La piattaforma software open source per l’elaborazione simultanea di grossi dati è ormai uno standard tecnologico nel mondo, ma è ancora rara in Italia. Con gli anni Hadoop è diventato più complesso anche grazie al machine learning. Oltre ad esso si sono affermati nuovi standard tecnologici come Apache Spark e Apache Kafka
- hybrid cloud. Offre la possibilità di connettere il proprio ambiente privato con uno o più sistemi di Public Cloud. I benefici riguardano la riduzione dei costi, una maggiore gestione dei requisiti legali in termini di privacy e confidenzialità dei dati. Acquista anche maggiore interesse l’Edge Computing, l’architettura con risorse distribuite che avvicina le stesse analisi al luogo in cui vengono effettivamente raccolti i dati
- machine learning. Gli algoritmi di machine learning riferiscono informazioni di valore sui dati, ad esempio anticipando il comportamento dei Clienti, evitando con più abilità le frodi e analizzando immagini o video
- monetizzare i dati. Dataset Search è il motore di ricerca creato da Google per indicizzare le banche dati presenti sul web e renderle disponibili a pagamento
- data literacy. Serve a interpretare correttamente i dati con competenze richieste soprattutto ai ruoli manageriali. Il data literacy è utile a diffondere strumenti che permettono di gestire in autonomia l’interpretazione dei dati
Riconoscere i big data e sfruttarli al meglio
Non è sempre facile riconoscere i big data rispetto ai dati tradizionali, ma è importante concentrarsi sulle 3 V:
- volume. Ogni giorno un’azienda entra in contatto con un numero infinito di dati provenienti da altrettante fonti;
- velocità. I dati sono tanti, ma sono anche creati, processati e analizzati ad alta velocità da database di nuova generazione, anche real-time
- varietà. I dati provengono da fonti differenti e sono immagini, numeri, parole e video, ed essendo per la maggior parte destrutturati possono essere analizzati nel contenuto e nel significato
A queste 3 V si aggiungono altre 4 V (variabilità, veridicità, visualizzazione e valore), ma per distinguere i big data da quelli standard è indispensabile la presenza delle prime tre variabili. Il percorso da seguire per utilizzare i big data nelle strategie aziendali e di marketing si può riassumere in 5 step principali:
- definizione degli obiettivi
- analisi delle fonti
- tecnologie e team di lavoro
- data analytics
- definizione degli obiettivi
Gli obiettivi possono essere specifici o di micro-analisi, ma tra gli obiettivi aziendali principali c’è sicuramente il miglioramento dell’efficienza produttiva e l’ottimizzazione del processo di acquisto del consumatore.
Spesso si tende ad analizzare i dati che provengono dall’esterno e non dall’azienda stessa, ma le analisi più interessanti si ottengono proprio da questi ultimi. Il CRM è la prima grande fonte di dati a cui un’azienda può attingere, mentre le altre fonti di dati sono molteplici:
- fonti on-line: sito web aziendale, landing page, e-commerce, social media, e-mail, app e open data
- fonti off-line: tecnologie wearables, IBeacons, sensori biometrici, digital signage, realtà aumentata e IoT
Quando la mole di dati aumenta, infatti, è necessario creare nuove forme di gestione dei dati con vantaggi per l’intero business.
Dopo aver definito gli obiettivi, scelto le fonti, ottenuti i dati e inseriti gli stessi nelle tecnologie apposite per analizzarli, si passa alla big data analytics. Le analisi e gli strumenti disponibili sono tanti, si pensi alla Sentiment Analysis, che raccoglie in tempo reale le reazioni e gli atteggiamenti degli utenti o i trend, sulla base dei commenti sui social media.
Per restare aggiornato sui nostri articoli che parlano di innovazione tecnologica e ricerca ICT e di come possono aiutare le imprese, leggi il nostro JOurnal.