Le terme Big data est récemment utilisé pour désigner la quantité toujours croissante d’informations que les organisations stockent, traitent et analysent, en raison du nombre croissant de sources d’information utilisées. Selon les recherches menées par IDC, il y avait 1,8 zettaoctet (1,8 billion de gigaoctets) d’informations créées et répliquées rien qu’en 2011 et cette quantité double tous les deux ans.1 Au cours de la prochaine décennie, la quantité d’informations gérées par les centres de données d’entreprise sera multipliée par 50, tandis que le nombre de professionnels de l’informatique ne sera multiplié que par 1,5.
Les volumes de données continuent de s’étendre à mesure qu’ils prennent un éventail toujours plus large de sources, dont une grande partie est sous forme non structurée. Les organisations veulent extraire de la valeur de ces données pour découvrir les opportunités pour l’entreprise qu’elles contiennent. Mais la nature centralisée des magasins de données massives crée de nouveaux défis de sécurité.
Les outils traditionnels ne sont pas, à eux seuls, à la hauteur de la tâche de traitement des informations contenues dans les données, et encore moins de garantir leur sécurité dans le processus. Colin Tankard de Digital Pathways explique que les contrôles doivent être placés autour des données elles-mêmes, plutôt que des applications et des systèmes qui stockent les données.