Video: Log Viewer for analyzing Exchange Server EDB LOG Files 2024
Il costo di archiviazione economico per Hadoop e la possibilità di eseguire query sui dati Hadoop con SQL rendono Hadoop la destinazione principale per i dati di archiviazione. Questo caso d'uso ha un impatto ridotto sulla tua organizzazione perché puoi iniziare a costruire il tuo set di competenze Hadoop su dati che non sono memorizzati su sistemi mission-critical.
Inoltre, non devi lavorare duro per ottenere i dati. (Poiché i dati archiviati normalmente sono archiviati su sistemi che hanno un utilizzo ridotto, è più facile da ottenere rispetto ai dati che sono "sotto i riflettori" sui sistemi critici per le prestazioni, come i data warehouse.) Se si sta già utilizzando Hadoop come atterraggio zona, hai le basi per il tuo archivio! Devi semplicemente conservare ciò che vuoi archiviare ed eliminare ciò che non fai.
Se pensi alla zona di atterraggio di Hadoop, l'archivio interrogabile, mostrato nella figura, estende il valore di Hadoop e inizia ad integrare i pezzi che probabilmente esistono già nella tua impresa. È un ottimo esempio di trovare economie di scala e opportunità di estrazione dei costi usando Hadoop.
Qui, il componente di archivio collega la zona di atterraggio e il data warehouse. I dati da archiviare provengono dal magazzino e vengono quindi archiviati nel cluster Hadoop, che fornisce anche la zona di atterraggio. In breve, puoi utilizzare lo stesso cluster Hadoop per archiviare i dati e agire come la tua zona di atterraggio.
La tecnologia Hadoop chiave che si utilizzerà per eseguire l'archiviazione è Sqoop, che può spostare i dati da archiviare dal data warehouse in Hadoop. Dovrai considerare quale forma vuoi che i dati prendano nel tuo cluster Hadoop. In generale, i file Hive compressi sono una buona scelta.
È possibile, ovviamente, trasformare i dati dalle strutture del magazzino in qualche altra forma (ad esempio, una forma normalizzata per ridurre la ridondanza), ma generalmente non è una buona idea. Mantenere i dati nella stessa struttura di quelli presenti nel magazzino renderà molto più semplice eseguire un'interrogazione completa dei set di dati tra i dati archiviati in Hadoop e i dati attivi presenti nel magazzino.
Il concetto di interrogare sia i set di dati attivi che quelli archiviati fa emergere un'altra considerazione: quanti dati dovresti archiviare? Ci sono davvero due scelte comuni: archiviare tutto quando i dati vengono aggiunti e modificati nel data warehouse, o solo archiviare i dati che si ritiene siano freddi.
L'archiviazione di tutto ha il vantaggio di consentire di emettere facilmente query da un'unica interfaccia sull'intero set di dati, senza un archivio completo, è necessario trovare una soluzione di query federata in cui si dovrebbe riunire i risultati di l'archivio e il data warehouse attivo.
Ma il rovescio della medaglia qui è che gli aggiornamenti regolari dei dati caldi del tuo data warehouse potrebbero causare grattacapi per l'archivio basato su Hadoop. Questo perché qualsiasi modifica ai dati in singole righe e colonne richiederebbe la cancellazione e la ricatalogazione dei set di dati esistenti.
Ora che i dati di archivio sono memorizzati nella tua zona di atterraggio basata su Hadoop (supponendo che tu stia utilizzando un'opzione come i file Hive compressi menzionati in precedenza), puoi interrogarla. È qui che le soluzioni SQL su Hadoop possono diventare interessanti.
Un eccellente esempio di ciò che è possibile è per gli strumenti di analisi (a destra nella figura) per eseguire direttamente report o analisi sui dati archiviati archiviati in Hadoop. Non si tratta di sostituire il data warehouse: dopotutto, Hadoop non sarebbe in grado di eguagliare le caratteristiche delle prestazioni del magazzino per supportare centinaia o più utenti concorrenti che fanno domande complesse.
Il punto qui è che puoi usare gli strumenti di reporting contro Hadoop per sperimentare e trovare nuove domande a cui rispondere in un magazzino o un mart dedicato.
Quando avvii il tuo primo progetto basato su Hadoop per l'archiviazione dei dati del magazzino, non interrompere i processi correnti finché non li hai completamente testati sulla tua nuova soluzione Hadoop. In altre parole, se la tua strategia di magazzino corrente è archiviare su nastro, mantenere il processo in atto e archiviare i dati in Hadoop e nastro fino a quando non hai completamente testato lo scenario (che in genere include il ripristino dei dati del magazzino nel caso di un guasto del magazzino).
Anche se stai mantenendo (a breve termine) due repository di archivio, avrai un'infrastruttura solida e testata prima di rimuovere le autorizzazioni da un processo collaudato. Questo processo può garantire che tu resti occupato - con il tuo attuale datore di lavoro.
Questo caso d'uso è semplice perché non c'è alcuna modifica al magazzino esistente. L'obiettivo aziendale è sempre lo stesso: costi di storage e licenze inferiori grazie alla migrazione dei dati utilizzati raramente in un archivio. La differenza in questo caso è che la tecnologia dietro l'archivio è Hadoop piuttosto che lo storage offline, come il nastro.
Inoltre, vari fornitori di archivi hanno iniziato a incorporare Hadoop nelle loro soluzioni (ad esempio, consentendo ai loro file di archivio proprietari di risiedere su HDFS), quindi aspettatevi di espandere presto le funzionalità in quest'area.
Man mano che sviluppi le abilità di Hadoop (come lo scambio di dati tra Hadoop e database relazionali e l'interrogazione di dati in HDFS) puoi usarle per affrontare problemi più grandi, come i progetti di analisi, che potrebbero fornire valore aggiunto all'investimento Hadoop della tua organizzazione.