How big are the big data ?

Selon une étude de l’université de Berkeley menée en 2003 et intitulée «How Much Information?», l’humanité aurait produit, durant la seule année 2002, 5 exabytes d’information (un exabyte ou Eb = 1018 bytes, soit un milliard de gigabytes). Selon une autre étude, datant de 2010 et conduite par EMC, l’humanité aurait produit, cette année-là, 1,2 zettabytes d’information (un zettabyte ou Zb = 1021 bytes, soit mille milliards de gigabytes). Si l’on rapproche les deux chiffres, cela impliquerait que l’on serait passé, entre 2002 et 2010, de 5 à 1.200 Eb, soit un taux de croissance annuel moyen de presque 100%. Cela semble peu crédible.

Selon une prévision, divulguée par Cisco en 2012, le trafic global sur Internet atteindrait 6,6 Zb en 2016, contre 1,8 Zb en 2011, ce qui représenterait un taux de croissance moyen d’environ 30% par an: un chiffre conséquent, mais très loin du taux de 100%.

The International Data Corporation quant à elle prévoit que le volume de données augmente de 48% entre 2011 et 2012, pour atteindre 2,7 Zb. Il atteindrait ensuite 8 Zb en 2015, soit un taux de croissance moyen de 44% par an.

Les différences de méthodologie et de résultat entre ces études interdisent de s’arrêter sur un chiffre précis. Elles semblent toutefois indiquer que la quantité d’informations stockée augmente exponentiellement. Si l’on s’en tient à l’estimation moyenne, le coefficient multiplicateur de cette progression serait proche de l’observation de Gordon E. Moore selon laquelle le nombre de transistors des microprocesseurs double tous les deux ans environ.