NOSQL DATABASES
BIG DATA ANALYTICS
- Descriptive analytics: the starting phase is usually the Descriptive analysis, which is made up of all the tools that allow to represent and describe the reality of certain situations or processes, also in a graphic way. For example, in the case of businesses, it is possible to carry out the representation of business processes. Descriptive Analytics allows the graphical display of performance levels;
- Predictive analytics: then we have the Predictive analysis, based on solutions that allow to carry out data analysis, in order to design development scenarios for the future. Predictive Analytics is based on mathematical models and techniques, such as predictive models, forecasting and others;
- Prescriptive analytics: with Prescriptive analysis we enter in the field of tools that associate data analysis with the ability to take and manage decision-making processes. Prescriptive Analytics is based on tools that provide strategic indications or operational solutions based on both Descriptive and Predictive analysis;
- Automated analytics: the fourth phase is represented by Automated Analytics, which allow to enter into the scope of automation with analytics solutions. Based on the results of descriptive and predictive analyses, Automated Analytics can activate actions defined on the basis of rules. In turn, these rules can be the result of an analysis process, such as the study of the behaviours of a specific machine in relation to certain conditions being analysed.
THE IMPORTANCE OF BIG DATA
- Cut costs;
- creare offerte nei punti vendita, basate sulle abitudini dei Clienti
- ricalcolare interi portafogli di rischio in pochi minuti
- individuare comportamenti fraudolenti prima che colpiscano la propria organizzazione
LE TECNOLOGIE PER I BIG DATA
Google, Facebook, Twitter e Amazon conoscono tutto di noi perché possiedono dei dati, i nostri dati. Si tratta di dati non strutturati studiati tramite le tecniche di sentiment analysis, che riescono a capire le emozioni contenute nelle informazioni testuali, utili alle aziende e ai politici per rintracciare la direzione dell’opinione pubblica.
Le smart city sono un esempio chiaro e semplice di big data management e big data analyst. Lampioni sensorizzati per gestire meglio il traffico e monitorare l’inquinamento, telecamere a circuito chiuso per ricostruire i percorsi automobilistici sospetti fuori dai locali e dalle banche, tag RFID per rendere cassonetti e sacchetti comunicanti tra loro nella raccolta differenziata; sono tutti esempi di come l’analisi dei dati possa migliorare la vita della comunità, ma non solo.
Anche nel retail l’applicazione dei big data porta benefici, aumentando i margini del 60% con l’analisi dei comportamenti di acquisto. Quindi scontrini, carte fedeltà, interazioni con le promozioni, annunci, e-mail marketing, newsletter e via dicendo. Questa mole di dati rappresenta un’immensa quantità di informazioni di valore che vanno a costruire l’offerta a misura di Cliente. Il geomarketing e la geolocalizzazione generano big data che consentono di generare miliardi di dollari.
Sfruttare il big data management significa andare oltre l’elaborazione degli ordini, significa implementare nuovi sistemi per le campagne di marketing e gestire con astuzia i programmi fedeltà. Il tutto va accompagnato ad un monitoraggio costante dei feedback ricevuti, inclusa la gestione dei reclami, per avere una visione totale dei Clienti, dei prodotti e di tutta l’azienda nel mercato.
Secondo gli analisti di McKinsey, in Europa le amministrazioni pubbliche possono ottenere risparmi nell’ordine di 100 miliardi di euro da una buona gestione dei big data, incrementando l’efficienza operativa. Una cifra che potrebbe aumentare a dismisura se i big data venissero utilizzati anche per ridurre le frodi e gli errori, traguardando la trasparenza fiscale.
Il mercato Analytics conferma il trend rilevato negli ultimi tre anni, con una crescita media del 21% anno su anno, ma rileva anche un divario importante tra grandi imprese e PMI, che rappresentano invece solo il 12% del mercato.
Soltanto il 7% delle PMI nel 2018, infatti, ha avviato progetti di big data analytics, mentre quattro su dieci dichiarano di svolgere analisi tradizionali sui dati aziendali. Ma la buona notizia è che circa un terzo sembra essere sulla giusta strada sia in termini di consapevolezza che di adeguamento tecnologico e di processo.
I mercati digitali dei big data
La vera sfida dei big data risiede nella capacità delle aziende di riuscire ad analizzare correttamente i dati ottenuti, seguendo questo processo: interrogazione, risposta e visione di dettaglio. Grazie alla crescente minuziosità degli algoritmi è possibile interpretare ogni informazione che percorre la rete, rivoluzionando i tradizionali modelli semplici di business.
Le aziende sfruttano solo una parte delle potenzialità associate ai big data, non solo per questioni di budget associato agli investimenti, ma soprattutto per le competenze che mancano. Sul mercato, infatti, ci sono ancora pochi big data manager che sanno valorizzare i dati aziendali e il settore è ancora nuovo, quindi richiede una preparazione senza precedenti. Per studiare i big data servono doti comunicative e di leadership, ottime capacità di team building, di analisi e di problem solving.
Ecco le quattro tipologie di profili che saranno sempre più richiesti dalle aziende:
- data architect, coloro che progettano i sistemi di dati e i relativi workflow
- data engineer, coloro che identificano le soluzioni basate sui dati e sviluppano prodotti di scouting e di analisi mirati
- data scientist, coloro che analizzano i dati grazie ad algoritmi sempre più sofisticati
- business translator, figure bimodali che dispongono di competenze tecniche e di business
BIG DATA E TREND PER IL 2020
Ecco le tendenze che stanno trasformando lo scenario dei big data analysis nelle organizzazioni:
- Real Time Analytics. La velocità è un vantaggio competitivo. Svolgere analisi in tempo reale permette di controllare dall’interno i processi e le azioni automatizzate, e sviluppare nuovi prodotti e servizi
- Hadoop. La piattaforma software open source per l’elaborazione simultanea di grossi dati è ormai uno standard tecnologico nel mondo, ma è ancora rara in Italia. Con gli anni Hadoop è diventato più complesso anche grazie al machine learning. Oltre ad esso si sono affermati nuovi standard tecnologici come Apache Spark e Apache Kafka
- hybrid cloud. Offre la possibilità di connettere il proprio ambiente privato con uno o più sistemi di Public Cloud. I benefici riguardano la riduzione dei costi, una maggiore gestione dei requisiti legali in termini di privacy e confidenzialità dei dati. Acquista anche maggiore interesse l’Edge Computing, l’architettura con risorse distribuite che avvicina le stesse analisi al luogo in cui vengono effettivamente raccolti i dati
- machine learning. Gli algoritmi di machine learning riferiscono informazioni di valore sui dati, ad esempio anticipando il comportamento dei Clienti, evitando con più abilità le frodi e analizzando immagini o video
- monetizzare i dati. Dataset Search è il motore di ricerca creato da Google per indicizzare le banche dati presenti sul web e renderle disponibili a pagamento
- data literacy. Serve a interpretare correttamente i dati con competenze richieste soprattutto ai ruoli manageriali. Il data literacy è utile a diffondere strumenti che permettono di gestire in autonomia l’interpretazione dei dati
Riconoscere i big data e sfruttarli al meglio
Non è sempre facile riconoscere i big data rispetto ai dati tradizionali, ma è importante concentrarsi sulle 3 V:
- volume. Ogni giorno un’azienda entra in contatto con un numero infinito di dati provenienti da altrettante fonti;
- velocità. I dati sono tanti, ma sono anche creati, processati e analizzati ad alta velocità da database di nuova generazione, anche real-time
- varietà. I dati provengono da fonti differenti e sono immagini, numeri, parole e video, ed essendo per la maggior parte destrutturati possono essere analizzati nel contenuto e nel significato
A queste 3 V si aggiungono altre 4 V (variabilità, veridicità, visualizzazione e valore), ma per distinguere i big data da quelli standard è indispensabile la presenza delle prime tre variabili. Il percorso da seguire per utilizzare i big data nelle strategie aziendali e di marketing si può riassumere in 5 step principali:
- definizione degli obiettivi
- analisi delle fonti
- tecnologie e team di lavoro
- data analytics
- definizione degli obiettivi
Gli obiettivi possono essere specifici o di micro-analisi, ma tra gli obiettivi aziendali principali c’è sicuramente il miglioramento dell’efficienza produttiva e l’ottimizzazione del processo di acquisto del consumatore.
Spesso si tende ad analizzare i dati che provengono dall’esterno e non dall’azienda stessa, ma le analisi più interessanti si ottengono proprio da questi ultimi. Il CRM è la prima grande fonte di dati a cui un’azienda può attingere, mentre le altre fonti di dati sono molteplici:
- fonti on-line: sito web aziendale, landing page, e-commerce, social media, e-mail, app e open data
- fonti off-line: tecnologie wearables, IBeacons, sensori biometrici, digital signage, realtà aumentata e IoT
Quando la mole di dati aumenta, infatti, è necessario creare nuove forme di gestione dei dati con vantaggi per l’intero business.
Dopo aver definito gli obiettivi, scelto le fonti, ottenuti i dati e inseriti gli stessi nelle tecnologie apposite per analizzarli, si passa alla big data analytics. Le analisi e gli strumenti disponibili sono tanti, si pensi alla Sentiment Analysis, che raccoglie in tempo reale le reazioni e gli atteggiamenti degli utenti o i trend, sulla base dei commenti sui social media.
Per restare aggiornato sui nostri articoli che parlano di innovazione tecnologica e ricerca ICT e di come possono aiutare le imprese, leggi il nostro JOurnal.