La data gravity est la capacité d’un ensemble de données à attirer des applications, des services et d’autres données. La force de gravité, dans ce contexte, peut être considérée comme la façon dont les logiciels, les services et la logique d’entreprise sont attirés par les données par rapport à leur masse (la quantité de données). Plus la quantité de données est importante, plus les applications, services et autres données seront attirés vers elles et plus rapidement ils seront attirés.
En termes pratiques, le fait de déplacer les données plus loin et plus fréquemment a un impact sur les performances de la charge de travail, il est donc logique que les données soient accumulées et que les applications et services associés soient situés à proximité. C’est l’une des raisons pour lesquelles les applications de l’internet des objets (IoT) doivent être hébergées aussi près que possible de l’endroit où les données qu’elles utilisent sont générées et stockées.

L’hyperconvergence est un terme souvent utilisé pour illustrer le concept de data gravity. Dans une infrastructure hyperconvergente, les ressources de calcul, de mise en réseau et de virtualisation sont étroitement intégrées au stockage des données dans un boîtier matériel de base. Plus la quantité de données est importante, et plus d’autres données peuvent y être connectées, plus les données ont de valeur pour l’analyse.

L’histoire de la data gravity
L’expert en informatique Dave McCrory a inventé le terme « data gravity » par analogie avec la façon dont les objets de masse supérieure attirent naturellement les objets de masse inférieure.

Selon Dave McCrory, la gravité des données se déplace vers le Cloud. Comme de plus en plus de données d’entreprise internes et externes sont déplacées vers le cloud ou y sont générées, les outils d’analyse de données sont également de plus en plus basés sur le cloud. Son explication du terme fait la différence entre la gravité naturelle des données et les changements similaires créés par des forces externes telles que la législation, l’étranglement et la tarification manipulatrice, que M. McCrory qualifie de gravité artificielle des données.

McCrory a récemment publié le Data Gravity Index, un rapport qui mesure, quantifie et prédit l’intensité de la gravité des données pour les entreprises du Forbes Global 2000 dans 53 métropoles et 23 industries. Le rapport comprend une formule en instance de brevet pour la data gravity et une méthodologie basée sur des milliers d’attributs de la présence des entreprises du Global 2000 dans chaque lieu, ainsi que des variables pour chaque lieu, notamment

le produit intérieur brut (PIB)
Population
le nombre d’employés
Données technologiques
Dépenses informatiques
Largeur de bande et latence moyennes
Flux de données

Articles connexes

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

TESTEZ LA PERFORMANCE DIGITALE DE VOTRE SITE EN 5 MINUTES, CLIQUEZ ICI :
parcours-performance-digitale
parcours-performance-digitale
CONTACTEZ-NOUS
Une question, une campagne media à lancer ?
Vous êtes au bon endroit !
WINDOWS SERVER
VOUS AVEZ AIMÉ
COVID-19