Video: Developer Keynote: Get to the Fun Part (Cloud Next '19) 2024
Il data warehouse, il livello 4 del grande stack di dati e il suo compagno il data mart, sono stati a lungo le tecniche primarie che le organizzazioni utilizzano per ottimizzare i dati per aiutare i decisori. In genere, data warehouse e mart contengono dati normalizzati raccolti da una varietà di fonti e assemblati per facilitare l'analisi del business.
Data warehouse e date semplificano la creazione di report e la visualizzazione di elementi di dati disparati. Generalmente vengono creati da database relazionali, database multidimensionali, file flat e database di oggetti, in pratica qualsiasi architettura di archiviazione. In un ambiente tradizionale, in cui le prestazioni potrebbero non essere la priorità più elevata, la scelta della tecnologia sottostante è guidata dai requisiti per l'analisi, il reporting e la visualizzazione dei dati aziendali.
Poiché l'organizzazione dei dati e la sua disponibilità all'analisi sono fondamentali, la maggior parte delle implementazioni del data warehouse sono mantenute aggiornate tramite l'elaborazione batch. Il problema è che i data warehouse e i datamart caricati su batch potrebbero non essere sufficienti per molte applicazioni Big Data. Lo stress imposto dai flussi di dati ad alta velocità richiederà probabilmente un approccio più in tempo reale ai grandi magazzini di dati.
Ciò non significa che non si stia creando e alimentando un data warehouse analitico o un data mart con processi batch. Piuttosto, si potrebbe finire per avere più data warehouse o data mart, e le prestazioni e la scala rifletteranno i requisiti di tempo degli analisti e dei responsabili delle decisioni.
Poiché molti data warehouse e data mart sono costituiti da dati raccolti da varie fonti all'interno di un'azienda, devono essere affrontati anche i costi associati alla pulizia e alla normalizzazione dei dati. Con i big data, si riscontrano alcune differenze chiave:
-
I flussi di dati tradizionali (da transazioni, applicazioni e così via) possono produrre molti dati disparati.
-
Esistono anche dozzine di nuove fonti di dati, ognuna delle quali richiede un certo grado di manipolazione prima che possa essere tempestiva e utile per il business.
-
Le sorgenti di contenuto dovranno anche essere pulite, e queste potrebbero richiedere tecniche diverse da quelle che potresti utilizzare con i dati strutturati.
Storicamente, i contenuti dei data warehouse e dei data mart sono stati organizzati e consegnati ai dirigenti aziendali responsabili della strategia e della pianificazione. Con i big data, una nuova serie di team sta sfruttando i dati per prendere decisioni.
Molte implementazioni di big data forniscono funzionalità in tempo reale, quindi le aziende dovrebbero essere in grado di fornire contenuti per consentire alle persone con ruoli operativi di affrontare problemi come assistenza clienti, opportunità di vendita e interruzioni del servizio quasi in tempo reale.In questo modo, i big data aiutano a spostare l'azione dal back office al front office.
Gli strumenti e le tecniche di analisi esistenti saranno molto utili per dare un senso ai big data. Tuttavia, c'è un problema. Gli algoritmi che fanno parte di questi strumenti devono essere in grado di lavorare con grandi quantità di dati potenzialmente in tempo reale e disparati. L'infrastruttura dovrà essere presente per supportare questo.
Inoltre, i fornitori che forniscono strumenti di analisi dovranno anche assicurarsi che i loro algoritmi funzionino attraverso implementazioni distribuite. A causa di queste complessità, aspettiamo una nuova classe di strumenti per aiutare a dare un senso ai big data.
Ci sono tre classi di strumenti in questo livello dell'architettura di riferimento. Possono essere usati indipendentemente o collettivamente dai decisori per aiutare a guidare l'azienda. Le tre classi di strumenti sono le seguenti:
-
Reporting e dashboard: Questi strumenti forniscono un & ldquo; user-friendly & rdquo; rappresentazione delle informazioni da varie fonti. Sebbene sia un pilastro nel mondo dei dati tradizionali, quest'area è ancora in evoluzione per i big data. Alcuni degli strumenti che vengono utilizzati sono quelli tradizionali che ora possono accedere ai nuovi tipi di database definiti collettivamente NoSQL (Non solo SQL).
-
Visualizzazione: Questi strumenti rappresentano il prossimo passo nell'evoluzione del reporting. L'output tende ad essere altamente interattivo e dinamico in natura. Un'altra importante distinzione tra report e output visualizzato è l'animazione. Gli utenti aziendali possono osservare i cambiamenti nei dati utilizzando una varietà di diverse tecniche di visualizzazione, tra cui mappe mentali, mappe di calore, infografica e diagrammi di connessione. La segnalazione e la visualizzazione avvengono alla fine dell'attività aziendale.
-
Analitica e analisi avanzate: Questi strumenti raggiungono il data warehouse e elaborano i dati per il consumo umano. L'analisi avanzata dovrebbe esplicare tendenze o eventi che sono trasformativi, unici o rivoluzionari rispetto alle pratiche commerciali esistenti. L'analisi predittiva e l'analisi dei sentimenti sono buoni esempi di questa scienza.