Big data
Termine inglese (big data, “grandi dati”) utilizzato in ambito statistico e informatico per indicare i megadati, cioè grandi volumi di dati con dimensioni e contenuti diversi, per la cui gestione ed elaborazione sono necessarie tecnologie finalizzate a estrarre da essi conoscenze e valore. Per estensione, il termine indica anche l’analisi di quantità incredibilmente grandi di informazioni. Il concetto di Big data è stato studiato dall’analista Douglas Laney nel 2001 attraverso il paradigma delle “tre V”: partendo dalla necessità di gestire i crescenti dati prodotti dall’e-commerce ha elaborato un approccio tridimensionale secondo le variabili di Volume (i dati generati da Internet crescono in modo esponenziale), Velocità (i flussi di dati devono essere gestiti tempestivamente), Varietà (i dati a disposizione delle aziende sono sempre più eterogenei). Il paradigma è stato poi arricchito da due ulteriori “V”: Veridicità (occorre stabilire la qualità dei dati) e Variabilità (l’interpretazione di un dato può variare in funzione del contesto in cui è raccolto e analizzato). Per tutti questi motivi i Big data richiedono tecnologie e metodi analitici specifici rispetto a quelli in uso fino a poche decine di anni fa per piccole serie di dati. Gli investimenti delle grandi aziende in questo settore stanno aumentando sempre più, in quanto l’interpretazione dei dati può fornire indicazioni per verificare ipotesi empiriche, per assumere decisioni efficaci nei più diversi settori economici, per sviluppare campagne di marketing mirate o per migliorare l'efficienza di un sistema industriale.