Il termine big data è entrato in uso di recente per riferirsi alla sempre crescente quantità di informazioni che le organizzazioni stanno memorizzando, elaborando e analizzando, a causa del crescente numero di fonti di informazione in uso. Secondo una ricerca condotta da IDC, c’erano 1,8 zettabyte (1,8 trilioni di gigabyte) di informazioni create e replicate nel solo 2011 e tale importo raddoppia ogni due anni.1 Entro il prossimo decennio, la quantità di informazioni gestite dai datacenter aziendali crescerà di 50 volte, mentre il numero di professionisti IT si espanderà di appena 1,5 volte.
I volumi di dati continuano ad espandersi man mano che assorbono una gamma sempre più ampia di fonti, molte delle quali sono in forma non strutturata. Le organizzazioni vogliono estrarre valore da tali dati per scoprire le opportunità per il business che contiene. Ma la natura centralizzata dei grandi archivi di dati crea nuove sfide per la sicurezza.
Gli strumenti tradizionali non sono, da soli, all’altezza del compito di elaborare le informazioni che i dati contengono, per non parlare di assicurarne la sicurezza nel processo. Colin Tankard di Digital Pathways spiega che i controlli devono essere posizionati attorno ai dati stessi, piuttosto che alle applicazioni e ai sistemi che memorizzano i dati.