Video: SSD server per i carichi di lavoro dei data center – SSD DC500 – Kingston Technology 2024
Una considerazione primaria quando si intraprende un progetto di big data è la quantità prevista di tempo reale e non in tempo reale necessario per realizzare la propria iniziativa. I grandi dati spesso fanno cose che non erano possibili perché la tecnologia non era abbastanza avanzata o il costo era proibitivo. Il grande cambiamento che si verifica con i big data è la capacità di sfruttare enormi quantità di dati senza tutte le complesse programmazioni richieste in passato.
Molte organizzazioni sono a un punto di svolta in termini di gestione di grandi volumi di dati complessi. L'approccio basato sui big data contribuirà a mantenere le cose in equilibrio così che le aziende non vadano oltre i limiti del volume, della varietà e della velocità delle modifiche dei dati. Le aziende hanno avuto difficoltà a gestire quantità crescenti di dati che devono essere gestiti ad alta velocità.
Le organizzazioni dovevano accontentarsi di analizzare piccoli sottoinsiemi di dati che spesso mancavano di informazioni critiche per ottenere un'immagine completa che i dati potevano rivelare. Man mano che le tecnologie dei big data evolvono e vengono implementate, le aziende saranno in grado di analizzare più facilmente i dati e utilizzarli per prendere decisioni o intraprendere azioni.
Gli aspetti in tempo reale dei big data possono essere rivoluzionari quando le aziende devono risolvere problemi significativi. Qual è l'impatto quando un'organizzazione può gestire i dati trasmessi in tempo reale? In generale, questo approccio in tempo reale è più rilevante quando la risposta a un problema è sensibile al fattore tempo e business critical. Questo può essere correlato a una minaccia per qualcosa di importante come la rilevazione delle prestazioni delle apparecchiature ospedaliere o l'anticipazione di un potenziale rischio di intrusione.
Il seguente elenco mostra esempi di quando un'azienda vuole sfruttare questi dati in tempo reale per ottenere un rapido vantaggio:
-
Monitoraggio di un'eccezione con una nuova informazione, come la frode / l'intelligence
-
Monitoraggio dei feed di notizie e dei social media per determinare gli eventi che possono avere un impatto sui mercati finanziari, ad esempio una reazione del cliente a un nuovo annuncio di prodotto
-
Modifica del posizionamento degli annunci durante un grande evento sportivo basato su flussi di Twitter in tempo reale
-
Fornire un coupon a un cliente in base a ciò che ha acquistato nel punto vendita
A volte i dati di streaming stanno arrivando molto velocemente e non includono un'ampia varietà di fonti, a volte esiste una grande varietà e talvolta è una combinazione di il due.
La domanda che devi porci se ti stai spostando in tempo reale è questa: questo (problema) può essere risolto con le tradizionali funzionalità di gestione delle informazioni o hai bisogno di nuove funzionalità?Il volume o la velocità sta andando a travolgere i nostri sistemi? Spesso è una combinazione dei due.
Quindi, se hai bisogno di funzionalità in tempo reale, quali sono i requisiti dell'infrastruttura per supportare questo? Il seguente elenco mette in evidenza alcuni aspetti da considerare riguardo la capacità di un sistema di importare dati, elaborarli e analizzarli in tempo reale:
-
Bassa latenza: La latenza è la quantità di ritardo che consente a un servizio di eseguire in un ambiente. Alcune applicazioni richiedono meno latenza, il che significa che devono rispondere in tempo reale. Un flusso in tempo reale richiederà una bassa latenza. Quindi è necessario pensare alla potenza di calcolo e ai vincoli di rete.
-
Scalabilità: La scalabilità è la capacità di sostenere un certo livello di prestazioni anche in presenza di carichi crescenti.
-
Versatilità: Il sistema deve supportare flussi di dati sia strutturati che non strutturati.
-
Formato nativo: Utilizza i dati nella sua forma nativa. La trasformazione richiede tempo e denaro. La capacità di utilizzare l'idea di elaborare interazioni complesse nei dati che attivano gli eventi potrebbe essere trasformazionale.
La necessità di elaborare quantità sempre crescenti di dati disparati è uno dei fattori chiave che guidano l'adozione dei servizi cloud. Il modello cloud è di grandi dimensioni e distribuito.