Tag

données

Browsing
⌚:  4 minutes

Les plateformes collectent des données à partir de nombreuses sources. Et les avantages sont multiples pour le fournisseur et les sociétés membres. En effet, ces données récoltées peuvent permettre à la société derrière la plateforme de prendre des décisions commerciales intelligentes. Mais aussi d’ouvrir de nouveaux marchés à ses membres. Alors, qu’un opérateur choisisse de les analyser lui-même ou de les vendre à d’autres acteurs, le Big Data représente de l’argent à gagner.

Les données pour établir une connexion

Deere & Company est un groupe basé à Moline, dans l’Illinois. Il est notamment connu pour fabriquer des tracteurs agricoles et autres machines lourdes de la marque John Deere. La majeure partie de son chiffre d’affaires annuel, de 26 milliards de dollars, est réalisé de façon traditionnelle. C’est à dire que la société vend ou loue de l’équipement à des fermes et à des entreprises de construction.

Pourtant, cette entreprise gérée de façon conservatrice a lancé la plateforme numérique myjohndeere.com, en 2013. Ainsi, elle a pu établir une connexion directe avec les agriculteurs. A l’origine, cette plateforme a été créée pour permettre aux propriétaires d’équipements John Deere d’accéder aux pièces détachées. Mais aussi aux autres offres de l’entreprise. Toutefois, myjohndeere.com fournit à l’entreprise une autre source de revenus potentiels : le Big Data.

Par exemple, la société a installé des capteurs sur ses tracteurs, connectés à internet. Ces derniers enregistrent et transmettent des données sur la consommation de carburant. Ainsi que d’autres paramètres utiles aux agriculteurs. Deere & Company vend également de l’équipement de surveillance, appelé Field Connect. Celui-ci recueille des données supplémentaires sur l’humidité du sol et la température. Mais aussi sur la vitesse du vent et les précipitations. Ensuite, ces données sont mises à la disposition des agriculteurs sur la plateforme myjohndeere.com.

Le Big Data attire les opportunités

« Nous n’avions jamais eu ces données auparavant », a déclaré Geoffrey G. Parker, professeur à la Thayer School of Engineering du Dartmouth College à Hanover, New Hampshire. Le coauteur du livre « Platform Revolution » a étudié la plateforme de Deere & Company. Et selon lui, il faut penser au tracteur « comme à un Mars Rover capturant des données ».

Le professeur rappelle que l’utilisation principale des données agricoles est d’aider les agriculteurs à améliorer la productivité de leur exploitation. Toutefois, ces données pourraient aussi être un bien précieux pour les entreprises agricoles. Celles-ci pourraient s’en servir pour élaborer leur stratégie d’investissement. « Si M. Deere agrégeait les données d’un nombre suffisant de fermes et vendait ce flux de données, cela donnerait des prévisions assez précises sur la production agricole de l’année prochaine. Ce qui lui donnerait un avantage financier énorme ».

Selon Michael Blitz, Directeur Général d’Accenture Technology Labs, le Big Data attire les opportunités. « Chaque nouveau service vous donnera plus de données. Et plus vous en aurez, plus vous comprendrez ce qui se passe réellement. Cela permettra aux gens de créer des services entièrement nouveaux ».

Traiter et analyser les données

Comme le suggère l’exemple de Deere & Company, les entreprises ayant des modèles d’affaires bien établis ont le potentiel d’utiliser les plateformes. Et pas seulement pour présenter leurs produits et services. Egalement comme source de données détaillées sur les utilisateurs. Les données recueillies via l’IoT (Internet of Things, ou internet des objets) puis analysées par des algorithmes d’intelligence artificielle (IA) deviennent une source précieuse d’informations commerciales. Pour Michael Biltz, « la possibilité de partager les données des clients avec des tiers fait partie des avantages des plates-formes ».

Et selon lui, « les entreprises réalisent très vite que les données qu’elles collectent ont plus de valeur pour leurs partenaires que pour elles-mêmes ». Le Directeur Général d’Accenture Technology Labs cite l’exemple des entreprises spécialisées dans les soins de santé. Celles-ci recueillent les dossiers médicaux électroniques des hôpitaux sur les maladies. Mais aussi les tests effectués et les produits pharmaceutiques utilisés pour les traitements. Bien que ces données puissent être utiles aux hôpitaux, elles le sont encore plus pour les compagnies pharmaceutiques. Notamment pour la recherche sur les effets de différents médicaments. Ou encore pour les essais cliniques, ainsi que pour décrypter les tendances dans les soins de santé.

Sangeet Paul Choudary, co-auteur du livre Platform Revolution, dirige une plateforme de conseil à Singapour. Il cite l’exemple d’un grand client bancaire qui a mis en place une plateforme immobilière pour aider les acheteurs à naviguer dans le processus d’achat d’une maison. Ainsi, les clients peuvent croiser les annonces de maisons avec des informations sur les écoles et quartiers voisins. Et la banque a pu utiliser les données recueillies sur le site Web pour cibler des offres de prêts à destination des couples qui achètent une maison.

Créer de la valeur avec le Big Data

Pour beaucoup d’entreprises, le processus de collecte et d’analyse de Big Data est trop compliqué pour être rentable. Alors, les sociétés spécialisées dans le Big Data peuvent intervenir pour proposer des services d’analyse. Selon Annabelle Gawer, codirectrice du Centre for the Digital Economy de l’Université de Surrey, en Angleterre, le Big Data est une opportunité professionnelle. « Avec la capacité accrue de se connecter sur des plates-formes et la capacité accrue d’analyser les données, vous allez voir émerger des entreprises qui trouvent les bons modèles d’affaires pour combiner ces deux éléments afin de créer de la valeur ».

De plus, les plates-formes numériques sont particulièrement bien placées pour bénéficier de l’intelligence artificielle. En effet, des algorithmes sophistiqués peuvent non seulement analyser les données, mais aussi améliorer continuellement leur analyse en tirant des enseignements des données. Ainsi, les grandes entreprises chinoises investissent massivement dans la technologie de l’intelligence artificielle. Et plus particulièrement dans le « machine learning« , la technologie de « l’apprentissage machine ».

Selon Peter Evans, directeur de l’Innovation Enterprise Solutions chez KPMG, un cabinet de conseil de la région d’Atlanta, « Leur modèle d’affaires est très axé sur la collecte de données et la facilitation de l’interaction ». Il ajoute assister à une adoption massive de l’intelligence artificielle par les plateformes en ligne. « Je vois beaucoup de plateformes graviter vers l’intelligence artificielle, plus rapidement que d’autres entreprises ».

 

Qu’est-ce que le Big Data Analytics ?

⌚: 4 minutes

Le Big Data Analytics est le processus, souvent complexe, qui consiste à examiner des données ou bien des ensembles de données, volumineux et variés . L’objectif est de découvrir des informations, comme des modèles cachés et des corrélations inconnues. Ou encore des tendances du marché et des préférences clients. Ainsi, ces données peuvent aider les entreprises à prendre des décisions commerciales éclairées.

Les requêtes BI (Business Intelligence, pour informatique décisionnelle) répondent donc à des questions de base, sur les opérations et les performances de l’entreprise. Le Big Data Analytics est une forme d’analyse avancée. Il implique des éléments tels que des modèles prédictifs et des algorithmes statistiques. Ainsi que des simulations optimisées par des systèmes d’analyse de haute performance.

L’importance du Big Data Analytics

L’analyse des données offre divers avantages commerciaux lorsqu’elle est stimulée par des systèmes et des logiciels d’analyse spécialisés. Ainsi que par des systèmes informatiques de grande puissance. Notamment, elle produira de nouvelles opportunités de revenus. Mais aussi un marketing plus efficace et un meilleur service client. Ainsi qu’une efficacité opérationnelle améliorée et des avantages concurrentiels. Les grandes applications d’analyse de données permettent aux professionnels d’analyser des volumes croissants de transactions structurées. Mais aussi d’autres formes de données, souvent inexploitées par les programmes de BI.

Cela comprend un mélange de données semi-structurées et non structurées. Par exemple, les données du parcours de navigation sur Internet, les journaux du serveur Web ou encore le contenu des médias sociaux. On peut également citer les courriels des clients et les réponses aux sondages. Ainsi que les enregistrements des téléphones mobiles et les données des machines, saisies par des capteurs connectés à l’IoT (Internet of Things, pour internet des objets). Le terme Big Data a été utilisé pour la première fois pour désigner l’augmentation du volume de données au milieu des années 1990.

Les 3V du Big Data : volume, vitesse et variété

C’est en 2001 que Doug Laney, analyste chez Meta Group Inc. à titre de consultant, a élargi la notion de Big Data. Il y a inclut trois facteurs. Ainsi, le volume, la vitesse et la variété des données sont devenus les 3V du Big Data. C’est en 2006 qu’a été lancé Hadoop, un framework libre et open source, conçu pour exécuter des applications Big Data. En 2011, le Big Data Analytics a commencé à s’imposer dans les organisations et dans l’opinion publique. Au même titre que Hadoop et les diverses technologies développées autours de lui.

Au départ, les applications Big Data étaient principalement le fait de grandes sociétés Internet et de commerce électronique. On peut citer Yahoo, Google et Facebook, ainsi que des fournisseurs de services analytiques et marketing. Mais très vite, d’autres entreprises, dans tous les secteurs, se sont de plus en plus tournés vers le Big Data Analytics.

Technologies et outils d’analyse

Les types de données non structurées et semi-structurées ne conviennent généralement pas aux bases de données relationnelles traditionnelles. En effet, elles reposent sur des ensembles de données structurées. De plus, les bases de données ne peuvent pas toujours traiter des paquets de données volumineux avec des mises à jour fréquentes. Voire même continuelles.

C’est le cas par exemple pour les transactions boursières, les activités en ligne des internautes ou encore la performance des applications mobiles. Alors, de nombreuses organisations qui collectent, traitent et analysent de grandes quantités de données se tournent vers les bases de données NoSQL. Ainsi que vers Hadoop et ses outils complémentaires, notamment :

  • YARN : une technologie de gestion de ressources et de plannification des tâches.
  • MapReduce : un framework logiciel qui permet aux développeurs d’écrire des programmes qui traitent des quantités massives de données non structurées. Et ce, en parallèle sur un cluster de processeurs ou d’ordinateurs autonomes.
  • Spark : un cadre de traitement parallèle open source qui permet aux utilisateurs d’exécuter des applications d’analyse de données, à grande échelle, sur des systèmes en cluster.
  • HBase : une base de données non-relationnelles conçue pour fonctionner sur le HDFS (Hadoop Distributed File System, pour système de fichiers distribués Hadoop).
  • Hive : un système d’entrepôt de données open source pour interroger et analyser de grands ensembles de données stockés dans des fichiers Hadoop.
  • Kafka : un système de stockage et d’échange de données en temps réel.
  • Pig : une technologie open source pour la création de programmes MapReduce.

Comment fonctionne le Big Data Analytics ?

Généralement, les analystes de Big Data adoptent le concept d’un pool de données Hadoop. Celui-ci sert de référentiel principal aux flux entrants de données brutes. Dans de telles architectures, les données peuvent être analysées directement dans un cluster Hadoop. Ou alors, être exécutées par un moteur de traitement comme Spark. Une bonne gestion des données est une première étape cruciale dans le processus d’analyse des Big Data.

Les données stockées doivent être organisées, configurées et partitionnées correctement. Ainsi, on peut obtenir de bonnes performances des tâches ETL (Extract, Transform and Load, pour extraction, de transformation et de chargement) et des requêtes analytiques. Une fois que les données sont prêtes, elles peuvent être analysées. Et ce, à l’aide d’un logiciel doté d’outils d’exploration de données, qui passent au crible les ensembles de données à la recherche de modèles et de relations. Ou encore des outils d’analyse prédictive, pour construire des modèles de prédiction sur le comportement des clients et d’autres développements futurs.

Mais aussi le machine learning, l’apprentissage machine, qui exploite les algorithmes pour analyser de grands ensembles de données. Ainsi que le deep learning, l’apprentissage profond, une branche plus avancée du machine learning. Les logiciels d’analyse statistique et de text mining, l’exploration et l’analyse de données textuelles non structurées, jouent un rôle dans le processus d’analyse de données. Tout comme les logiciels de BI et les outils de visualisation de données. Pour les applications ETL et analytiques, les requêtes peuvent être saisies dans MapReduce, via des langages de programmation. Notamment le Python, R, Scala et SQL.

Utilisations et défis

Les applications d’analyse en continu deviennent de plus en plus courantes dans les environnements Big Data. En effet, les utilisateurs veulent réaliser des analyses en temps réel, sur les données introduites dans les systèmes Hadoop, via des moteurs de traitement de flux comme Spark, Flink et Storm. En parallèle, les fournisseurs de platesformes de Cloud computing ont facilité la mise en place et la gestion des clusters Hadoop dans le Cloud. Notamment Amazon Web Services (AWS) et Microsoft.

Il en va de même des fournisseurs Hadoop, comme Cloudera et Hortonworks. Ils prennent en charge la distribution du framework sur AWS et Microsoft Azure Clouds. Désormais, les utilisateurs peuvent faire tourner des clusters dans le Cloud. Et ils peuvent les exécuter aussi longtemps qu’ils en ont besoin. En effet, la tarification est basée sur l’utilisation et ne nécessite pas de licences logicielles permanentes. De plus, les logiciels d’analyse de Big Data sont plus faciles à utiliser, grâce à l’introduction des technologies d’intelligence artificielle et de machine learning.

Parmi les principaux fournisseurs dans ce domaine, on peut citer Alteryx, IBM, Microsoft et Knime. Toutefois, l’intégration des outils de Big Data dans une architecture cohérente reste un défi pour de nombreuses équipes informatiques et analytiques. En effet, elles doivent identifier la bonne combinaison de technologies. Puis assembler les pièces, pour répondre à leurs besoins d’analyse de données.