5 millions de tera-octets, soit 5 milliards de milliards d'octets, ou plus précisément en système binaire à 8 données binaires (0 ou 1) par octet : 5.000.000 x 1.099.511.627.776 octets Ce chiffre astronomique est l'estimation avancée par Google de la taille des données contenues par la toile mondiale. Pour en percevoir la dimension, rappelons que la Library of Congress, la célèbre bibliothèque du Congrès américain, contient approximativement 20 tera-octets de textes. Mais Google ne disposerait actuellement que d'une capacité de gérer un index de 170 tera octets. Selon Eric Schmidt, le CEO de Google, il lui faudrait 300 années pour indexer l'ensemble des données présentes sur le Web, à condition, bien entendu, que ce dernier n'évolue pas.