Video: Jimmy Sax - No Man No Cry (live) 2025
Gli scienziati hanno iniziato a combattere contro una quantità impressionante di dati per anni prima che qualcuno coniò il termine grandi dati A questo punto, Internet non ha prodotto le enormi somme di dati che fa oggi. È utile ricordare che i big data non sono semplicemente una moda creata da fornitori di software e hardware, ma hanno una base in molti dei seguenti campi:
- Astronomia: Considera i dati ricevuti da un veicolo spaziale in una missione (come Voyager o Galileo) e tutti i dati ricevuti dai radiotelescopi, che sono antenne specializzate utilizzate per ricevere le onde radio dai corpi astronomici. Un esempio comune è il progetto SETI (Extraterrestrial Intelligence), che ricerca i segnali extraterrestri osservando le frequenze radio provenienti dallo spazio. La quantità di dati ricevuti e la potenza del computer utilizzata per analizzare una porzione di cielo per un'ora sono impressionanti. Se gli alieni sono là fuori, è molto difficile individuarli. (Il film Contatti esplora ciò che potrebbe accadere se gli esseri umani intercettassero effettivamente un segnale.)
- Meteorologia: Pensa a cercare di prevedere il tempo a breve termine dato il gran numero di misure richieste, come temperatura, pressione atmosferica, umidità, venti e precipitazioni in diversi momenti, luoghi e altitudini. Le previsioni meteorologiche sono davvero uno dei primi problemi nei big data e piuttosto rilevanti. Secondo Weather Analytics, un'azienda che fornisce dati climatici, oltre il 33% del Prodotto interno lordo (PIL) mondiale è determinato dal modo in cui le condizioni climatiche influenzano l'agricoltura, la pesca, il turismo e i trasporti, solo per citarne alcuni. Risalenti agli anni '50, i primi supercomputer dell'epoca venivano usati per scricchiolare il maggior numero possibile di dati perché, in meteorologia, più dati, più accurata era la previsione. Questo è il motivo per cui tutti stanno accumulando più capacità di archiviazione e di elaborazione, come puoi leggere in questa storia riguardante l'Associazione meteorologica coreana per le previsioni meteorologiche e lo studio dei cambiamenti climatici.
- Fisica: Considerare le grandi quantità di dati prodotti dagli esperimenti usando gli acceleratori di particelle nel tentativo di determinare la struttura di materia, spazio e tempo. Ad esempio, Large Hadron Collider, il più grande acceleratore di particelle mai creato, produce 15PB (petabyte) di dati ogni anno a seguito di collisioni di particelle.
- Genomica: Sequenziare un singolo filamento di DNA, il che significa determinare l'ordine preciso delle molte combinazioni delle quattro basi - adenina, guanina, citosina e timina - che costituiscono la struttura della molecola, richiede parecchio di dati.Ad esempio, un singolo cromosoma, una struttura contenente il DNA nella cellula, può richiedere da 50 MB a 300 MB. Un essere umano ha 46 cromosomi e i dati del DNA per una sola persona consumano un intero DVD. Immagina l'enorme spazio di archiviazione necessario per documentare i dati del DNA di un gran numero di persone o per sequenziare altre forme di vita sulla terra.
- Oceanografia: A causa dei numerosi sensori posizionati negli oceani per misurare la temperatura, le correnti e, utilizzando gli idrofoni, anche i suoni per il monitoraggio acustico a scopi scientifici (scoperta di pesci, balene e plancton) e scopi di difesa militare (trovando sottomarini subdoli da altri paesi). Puoi dare una sbirciatina a questo vecchio problema di sorveglianza, che sta diventando più complesso e digitale.
- Satelliti: Registrare immagini da tutto il mondo e rimandarle sulla Terra per monitorare la superficie terrestre e la sua atmosfera non è una novità (TIROS 1, il primo satellite a ritrasmettere immagini e dati, risale al 1960). Nel corso degli anni, tuttavia, il mondo ha lanciato più di 1 400 satelliti attivi che forniscono l'osservazione della Terra. La quantità di dati che arrivano sulla terra è sorprendente e serve sia a fini militari (di sorveglianza) che civili, come il monitoraggio dello sviluppo economico, il monitoraggio dell'agricoltura e il monitoraggio dei cambiamenti e dei rischi. Un satellite dell'Agenzia spaziale europea singola, Sentinel 1A, genera 5 PB di dati durante due anni di attività.
Accompagnando queste tendenze dei dati più vecchi, nuove quantità di dati vengono ora generate o gestite da Internet, creando nuovi problemi e richiedendo soluzioni in termini di memorizzazione dei dati e algoritmi per l'elaborazione:
- As segnalato dalla National Security Agency (NSA), la quantità di informazioni che scorre ogni giorno in Internet da tutto il mondo ammontava a 1, 826 PB di dati nel 2013, e il 6% era costituito da e-mail e telefonate. Per garantire la sicurezza nazionale, l'NSA deve verificare il contenuto di almeno lo 025 percento di tutte le e-mail e telefonate (cercando parole chiave che possano segnalare qualcosa come una trama terroristica). Ciò equivale ancora a 25 PB all'anno, che equivale a 37, 500 CD-ROM all'anno di dati memorizzati e analizzati (e in crescita). Puoi leggere l'intera storia.
- L'Internet delle cose (IoT) sta diventando una realtà. Potresti aver sentito il termine molte volte negli ultimi 15 anni, ma ora la crescita delle cose connesse a Internet sta per esplodere. L'idea è di mettere sensori e trasmettitori su tutto e utilizzare i dati per controllare meglio ciò che accade nel mondo e rendere gli oggetti più intelligenti. I dispositivi trasmittenti diventano sempre più esigenti, meno costosi e meno potenti; alcuni sono già così piccoli da poter essere messi ovunque. (Basta guardare la radio delle dimensioni di una formica sviluppata dagli ingegneri di Stanford.) Gli esperti stimano che entro il 2020 ci saranno sei volte più cose connesse sulla terra quante saranno le persone, ma molte società di ricerca e think tank stanno già rivisitando quelle cifre.
