Tag

cloud

Browsing

Dassault Systèmes lance son écosystème en ligne pour les fournisseurs de services et de contenus industriels

⌚: 2 minutes

 

L’éditeur de logiciels français, Dassault Système, qui fournit plus de 250 000 clients de toutes tailles et de tous secteurs, dans plus de 140 pays, a officiellement lancé sa 3DEXPERIENCE Marketplace. Le géant de l’informatique industrielle l’a annoncé le 2 février 2019 via un communiqué de presse. Ce nouvel écosystème dans le cloud permet à des entreprises innovantes de collaborer. Mais aussi de traiter avec d’autres industriels et prestataires de services. La 3DEXPERIENCE Marketplace est donc une nouvelle plateforme commerciale. Et elle favorise les processus collaboratifs dans l’innovation et la production.

Ainsi, elle permet des transactions de conception, d’ingénierie et de fabrication numériques. Bernard Charlès, Vice-Président et Directeur général de Dassault Systèmes, précise qu’elle est basée sur la 3DEXPERIENCE. Une « pionnière dans la catégorie des plateformes d’expérience d’affaires en 2012 ». Selon lui, le service en ligne va créer de la valeur jusque dans la chaîne d’approvisionnement. « La 3DEXPERIENCE Marketplace transforme la Supply Chain en chaîne de valeur : une entreprise unique, virtuelle et sociale, pionnière d’une nouvelle façon de faire des affaires, d’innover et de créer de la valeur dans l’industrie ».

 

La 3DEXPERIENCE Marketplace au service de l’innovation

L’ambition de la plateforme en ligne est de transformer le monde industriel. Dassault Système souhaite atteindre cet objectif de la même manière que les e-commerces ont transformé le commerce de détail traditionnel. Ou encore, en suivant l’exemple des fournisseurs de mobilité, qui ont changé le secteur du transport. Bernard Charlès précise ainsi : « Les plateformes et les marchés en ligne ont déjà transformé les services de vente au détail, de transport et d’accueil. Préparez-vous, le monde industriel est le suivant ».

La 3DEXPERIENCE Marketplace s’adresse aux entreprises qui cherchent de nouveaux fournisseurs de services de fabrication. Notamment l’impression 3D. Et ce, avec des composants spécifiques dans leur environnement de conception. Mais aussi à celles qui souhaitent optimiser leur écosystème de fournisseurs de services et leurs ressources internes. Grâce à cette plateforme en ligne, les entreprises pourront accéder à des services de fabrication à la demande. Ainsi qu’à des services d’approvisionnement de pièces intelligents.

Ainsi, cela permettra de rationaliser les collaborations et les processus globaux d’innovation. A l’annonce du lancement de la 3DEXPERIENCE Marketplace, la plateforme comptait 50 fabricants numériques avec plus de 500 machines. Mais aussi 30 millions de composants provenant de 600 fournisseurs, tous experts reconnus dans leur domaine. Désormais, ils sont près de 300 fabricants, équipés de 13.000 machines ! Ils sont disponibles sous 1 à 30 jours, pour des prestations d’impression 3D, d’usinage CNC ou encore de moulage par injection. Mais aussi de découpe laser, de tôlerie et bien plus encore !

 

Dassault Système accompagne la renaissance du secteur industriel

Via la 3DEXPERIENCE Marketplace, les entreprises peuvent préciser les spécifications de conception et de fabrication. Elle peuvent également s’assurer que leur demande, qu’il s’agisse d’une pièce ou d’un produit, peut être fabriquée, tout en réduisant les risques et les erreurs. La plateforme en ligne gère quant à elle tous les aspects de la transaction entre l’acheteur et le vendeur. C’est-à-dire le paiement, mais également les devises et la facturation.

De plus, afin de garantir la traçabilité des échanges, le service basé dans le cloud peut fournir un enregistrement de chaque transaction. Selon Bernard Charlès, la 3DEXPERIENCE Marketplace accompagne la renaissance du secteur industriel. « Aujourd’hui, la renaissance de l’industrie va au-delà de la numérisation et s’étend à l’émergence de nouveaux acteurs et de nouvelles catégories de solutions, de processus et de services qui privilégient l’innovation durable sur la productivité ».

Qu’est-ce qui rend Oracle Autonomous Database vraiment autonome?

⌚: 4 minutes

Oracle Database est la base de données professionnelle la plus populaire au monde. Cette année, l’ajout de fonctionnalités de gestion autonomes à sa version Cloud est l’une des avancées les plus importantes de l’histoire de la base. Mais, qu’est-ce que cela signifie d’être « autonome » pour une base de données ? Examinons de plus près Oracle Autonomous Database pour mettre en lumière ses façons d’y parvenir.

 

Objectifs de Oracle Autonomous Database

Oracle Autonomous Database est un service Cloud entièrement géré. Comme tous les Clouds, la base de données tourne sur des serveurs dans des Cloud Data Centers. Ceux d’Oracle s’appellent Oracle Exadata Database Machine. Ils sont spécialement conçus et réglés pour des charges de travail à haute performance et haute disponibilité. Le matériel rigoureusement contrôlé et optimisé permet certaines des fonctionnalités autonomes dont nous allons parler plus loin.

Bien que la version autonome d’Oracle Autonomous Database soit récente, elle s’appuie sur de nombreuses fonctionnalités d’automatisation qu’Oracle construit depuis des années dans son logiciel de base de données Oracle et dans le Exadata Database. Les fonctions autonomes ont deux objectifs. D’une part, réduire les coûts d’exploitation en réduisant l’administration manuelle. D’autre part, améliorer le service grâce à l’automatisation et à la réduction des erreurs humaines.

Voici quelques exemples de la façon dont les fonctionnalités d’Oracle Autonomous Database changent la donne pour les administrateurs de bases de données (DBA), les libérant des tâches banales pour se concentrer sur les plus importantes.

 

Une nouvelle infrastructure de base de données dans le Cloud

Rapidité d’exécution

Créer une base de données de grande envergure peut prendre des semaines si le matériel informatique doit être acheté et installé dans le Data Center d’un client. Avec Autonomous Database, une nouvelle base de données peut être créée en quelques secondes ou quelques minutes (quelle que soit sa taille), et ne nécessite pas l’intervention d’un expert qualifié comme un DBA.

Standardisation du système

Dans un Data Center sur site d’une entreprise, le logiciel de base de données peut fonctionner sur n’importe quel matériel informatique, avec tout système d’exploitation, tout type de connexion réseau et disque. A contrario, Autonomous Database est conçu spécifiquement pour la plate-forme Oracle Exadata. Oracle profite de cette standardisation pour exercer un contrôle total sur l’environnement d’exécution.

Un système qui ne s’arrête jamais

« Oracle a construit la première véritable infrastructure de base de données dans le Cloud au monde. Une nouvelle base de données autonome est constituée à partir d’un ensemble de systèmes Exadata préexistants, déjà configurés pour obtenir une performance, une disponibilité et une sécurité adaptées aux entreprises », explique George Lumpkin, vice-président de la gestion des produits chez Oracle. « Ce nuage de bases de données innovant permet de créer rapidement de nouvelles bases de données et de faire varier instantanément la taille de celles déjà existantes, sans interruption du service. »

 

Réglage continu de la base de données pour des performances optimales

Un réglage permanent de la base de données

Regardons les choses en face… Dans la plupart des services informatiques, l’optimisation d’une base de données est souvent considérée comme une tâche ponctuelle, exécutée par les DBA lorsque la base de données est alimentée pour la première fois. La performance de la base de données est optimisée pour les opérations les plus fréquentes au moment de sa création. Par la suite, personne n’y touche sauf pour régler des problèmes de performance spécifiques. Des années plus tard, la base de données est éventuellement 10 fois plus volumineuse et ses utilisateurs pourraient avoir besoin de toute une série de nouvelles requêtes. Mais personne n’aura réexaminé la stratégie globale de l’optimisation des performances.

« La charge de travail d’un vrai système d’analyse change avec le temps, mais personne ne se donne la peine de réajuster la base de données « , explique Lumpkin. En d’autres termes, une base de données de trois ans repose entièrement sur la façon dont elle a été créée la première année. »

Une solution qui facilite le travail des DBA

Oracle Autonomous Database s’appuie sur la technologie des assistants d’optimisation des performances qu’Oracle propose depuis des années. Auparavant, ils offraient des conseils aux DBA qui pouvaient choisir de les suivre (puis d’y apporter des modifications) ou de les ignorer. Dans le nuage de bases de données autonomes, la nouvelle génération des assistants s’exécutent en permanence et effectuent les ajustements nécessaires. En d’autres termes, la base de données est réajustée tous les jours.

« Autonomous Database applique les meilleures pratiques de réglage du système à tout moment, » dit Lumpkin. « Ainsi, le serveur de base de données ne se désaccorde pas puisqu’il s’adapte aux volumes de données à mesure que le système se développe. C’est le résultat des capacités d’apprentissage et des algorithmes adaptatifs que nous construisons dans la base de données depuis un certain nombre d’années. On passe au niveau supérieur avec la base de données autonome. »

 

Les corrections, les mises à jour et les mesures de sécurité sont appliquées automatiquement, sans temps d’arrêt.

Les dernières mises à jour installées automatiquement

Autonomous Database applique des corrections et des mises à jour automatiquement. Elles se font en ligne, tandis que la base de données continue de fonctionner. En s’appuyant sur des technologies telles que Real Application Clusters et Multitenant, le service Cloud garantit que ses bases de données sont toujours disponibles pendant les temps de maintenance. Cela permet non seulement de minimiser les temps d’arrêt, mais aussi de s’assurer que la base de données de chaque client fonctionne toujours avec les dernières mises à jour.

La principale cause de problèmes de sécurité est le manque de mise à jour du système. L’un des plus grands avantages de la correction automatique est l’amélioration conséquente de la sécurité. Si une faille est découverte, Oracle Autonomous Database bénéficiera de la correction dès qu’elle aura été développée et testée par Oracle.

Un système de correction unique

On ne peut pas en dire autant des installations logicielles on site, où le délai de prise en charge peut durer des jours voire des semaines : les clients doivent être avertis, les mises à jour distribuées puis intégrées au cycle de maintenance propre à chaque organisation. Pendant ce temps, le système est vulnérable aux attaques ou à la perte de données. Avec le service autonome, Oracle prend en charge la mise en œuvre des modifications liées à la sécurité et les déploie sans aucune interruption de service.

L’autonomie dans Oracle Autonomous Database apporte beaucoup d’avantages. Certains de ces éléments sont relativement simples, comme l’application automatique de correctifs et de mises à jour, sans qu’il soit nécessaire de fermer le service, afin de maximiser l’efficacité, les performances et la sécurité. L’algorithme autonome permet de simplifier le travail du DBA, en automatisant des tâches qui peuvent prendre des heures et en les transformant en processus qui prennent quelques secondes. Son principal objectif est d’optimiser la base de données pour qu’elle puisse continuellement ajuster ses performances et permettre aux administrateurs de se concentrer sur les tâches essentielles de leur travail.

Essayez donc avec n’importe quel autre logiciel de base de données…

Qu’est-ce que l’IaaS (Infrastructure-as-a-Service) ?

⌚: 6 minutes

Infrastructure-as-a-Service, communément appelée simplement « IaaS », est une forme de Cloud computing qui fournit des ressources fondamentales de calcul, de réseau et de stockage aux consommateurs à la demande, sur Internet et sur la base d’un paiement à l’utilisation. L’IaaS permet aux utilisateurs finaux d’adapter et de réduire les ressources en fonction des besoins, réduisant ainsi les dépenses d’investissement initiales élevées ou les infrastructures « propriétaires » inutiles, en particulier dans le cas de charges de travail « pointues ». Contrairement au PaaS et au SaaS (même les modèles informatiques les plus récents comme les conteneurs et le sans serveur), le IaaS offre le contrôle de niveau le plus bas des ressources dans le Cloud.

L’IaaS est apparu comme un modèle informatique populaire au début des années 2010, et depuis cette époque, il est devenu le modèle  standard pour de nombreux types de charges de travail. Toutefois, avec l’avènement de nouvelles technologies, telles que les Datawarehouse et le « serverless computing », et l’essor connexe du modèle d’application des micro-services, l’IaaS reste fondamental mais se trouve dans un domaine plus concurrentiel que jamais.

Plateforme et architecture IaaS

L’IaaS est constitué d’un ensemble de ressources physiques et virtualisées qui fournissent aux consommateurs les éléments de base nécessaires pour exécuter des applications et des charges de travail dans le Cloud.

  • Centres de données physiques : Les fournisseurs d’IaaS gèrent de grands centres de données, généralement dans le monde entier, qui contiennent les machines physiques nécessaires pour alimenter les différentes couches d’abstraction qui s’y trouvent et qui sont mises à la disposition des utilisateurs finaux sur le web. Dans la plupart des modèles IaaS, les utilisateurs finaux n’interagissent pas directement avec l’infrastructure physique, mais celle-ci leur est fournie en tant que service.
  • Calcul :
    • IaaS est généralement compris comme des ressources de calcul virtualisées, donc pour les besoins de cet article, nous définirons le calcul IaaS comme une machine virtuelle. Les fournisseurs gèrent les hyperviseurs et les utilisateurs finaux peuvent ensuite fournir par programmation des « instances » virtuelles avec les quantités souhaitées de calcul et de mémoire (et parfois de stockage). La plupart des fournisseurs proposent à la fois des CPU et des GPU pour différents types de charges de travail. Le Cloud computing est généralement associé à des services d’assistance tels que l’échelonnage automatique et l’équilibrage de charge, qui fournissent les caractéristiques d’échelle et de performance qui rendent le Cloud souhaitable au départ.
  • Réseau :
    • La mise en réseau dans le cloud est une forme de mise en réseau définie par logiciel dans laquelle le matériel de mise en réseau traditionnel, tel que les routeurs et les commutateurs, est mis à disposition généralement par le biais d’API. Les cas d’utilisation plus avancés de la mise en réseau impliquent la construction de régions multizones et de Clouds privés virtuels.
  • Stockage :
    • Les trois principaux types de stockage en Cloud sont le stockage par blocs, le stockage de fichiers et le stockage d’objets. Le stockage en bloc et le stockage de fichiers sont courants dans les datacenters traditionnels, mais ils peuvent souvent se heurter à des problèmes d’échelle, de performances et de caractéristiques distribuées du Cloud. Ainsi, des trois, le stockage d’objets est devenu le mode de stockage le plus courant dans le Cloud étant donné qu’il est hautement distribué (et donc résilient), qu’il tire parti du matériel de base, que les données sont facilement accessibles via HTTP et que l’échelle est non seulement essentiellement illimitée mais que les performances s’échelonnent de manière linéaire au fur et à mesure de la croissance du cluster.

Cloud privé virtuel et IaaS

Pour de nombreux utilisateurs, en particulier les entreprises ayant des données sensibles ou des exigences de conformité strictes, une sécurité et une confidentialité supplémentaires au sein d’un Cloud public est souhaitable. Un Cloud privé virtuel (VPC – Virtual Private Cloud) peut être un moyen de créer un isolement supplémentaire des ressources de l’infrastructure du Cloud sans sacrifier la vitesse, la mise à l’échelle ou les fonctionnalités.

Les VPC permettent aux utilisateurs finaux de créer un réseau privé pour un seul client dans un Cloud public. Ils permettent aux utilisateurs de contrôler la création de sous-réseaux, la sélection de la plage d’adresses IP, les pare-feu virtuels, les groupes de sécurité, les listes de contrôle d’accès au réseau, les réseaux privés virtuels (VPN) de site à site et l’équilibrage de la charge.

Qu’est-ce qu’un cloud privé virtuel ?

Tarifs

Le prix de l’IaaS est généralement calculé sur la base de la consommation, ce qui signifie que les utilisateurs ne sont facturés que pour ce qu’ils utilisent. Au fil du temps, les modèles de tarification de l’infrastructure en Cloud en sont venus à couvrir de nombreux niveaux de granularité différents :

  • Abonnements et instances réservées : De nombreux fournisseurs offrent des réductions sur le prix  aux clients qui souhaitent s’engager sur des contrats de plus longue durée, généralement d’un à trois ans.
  • Facturation mensuelle : Les modèles de facturation mensuelle sont les plus courants sur le marché IaaS, où l’infrastructure physique implique généralement des charges de travail stables sans caractéristiques de pointe.
  • À l’heure/seconde : La granularité la plus courante pour les infrastructures en Cloud traditionnelles, les utilisateurs finaux ne sont facturés que pour ce qu’ils utilisent.
  • Transitoire/spot : Certains fournisseurs proposent des capacités inutilisées à un prix réduit via des instances transitoires/spots, mais ces instances peuvent être récupérées si la capacité est nécessaire.

Avantages du IaaS

Dans l’ensemble, il y a de nombreuses raisons pour lesquelles quelqu’un considérerait l’infrastructure en Cloud comme une solution possible :

  • Paiement au fur et à mesure : Contrairement à l’informatique traditionnelle, l’IaaS ne nécessite pas de dépenses d’investissement initiales, et les utilisateurs finaux ne sont facturés que pour ce qu’ils utilisent.
  • Rapidité : grâce à l’IaaS, les utilisateurs peuvent fournir de petites ou de grandes quantités de ressources en quelques minutes, en testant rapidement de nouvelles idées ou en adaptant encore plus rapidement des idées éprouvées.
  • Disponibilité : Grâce à des éléments tels que les régions multizones, la disponibilité et la résilience des applications en Cloud peuvent dépasser les approches traditionnelles.
  • Échelle : Avec une capacité apparemment illimitée et la possibilité de faire évoluer les ressources automatiquement ou sous supervision, il est facile de passer d’une seule instance d’une application ou d’une charge de travail à plusieurs.
  • Latence et performances : Compte tenu de l’étendue géographique de la plupart des fournisseurs d’IaaS, il est facile de rapprocher les applications et les services de vos utilisateurs, ce qui permet de réduire la latence et d’améliorer les performances.

Cas d’utilisation typiques

L’IaaS représente des ressources de calcul à usage général et est donc capable de prendre en charge des cas d’utilisation de tous types. Aujourd’hui, l’IaaS est le plus souvent utilisé pour les environnements de développement et de test, les sites web et les applications web orientés client, le stockage de données, les charges de travail d’analyse et d’entreposage de données, ainsi que la sauvegarde et la récupération, en particulier pour les charges de travail sur site. L’IaaS convient également au déploiement et à l’exécution de logiciels et d’applications d’entreprise courants, tels que SAP.

Et bien que l’IaaS soit capable de prendre en charge une gamme très diversifiée de charges de travail, comme nous le verrons dans les articles suivantes, il existe des modèles de calcul émergents qui pourraient être mieux placés pour prendre en charge certains types de charges de travail ou d’architectures d’applications, comme les micro-services.

 

Cloud Database

⌚: 4 minutes

Une base de données  Cloud est un ensemble de contenus informatique, structurés ou non, qui résident sur une plateforme d’infrastructure informatique sur du Cloud privée, publique ou hybride. Du point de vue de la structure et de la conception, une base de données dans le Cloud n’est pas différente de celle qui fonctionne sur les propres serveurs d’une entreprise. La différence essentielle réside dans l’endroit où réside la base de données.

Lorsqu’une base de données on-premise est connectée à des utilisateurs locaux par le biais du réseau local interne d’une entreprise (LAN), une base de données Cloud réside sur des serveurs et un stockage fournis par un fournisseur de Cloud ou de bases de données en tant que service (DBaaS) et elle est accessible uniquement par Internet. Pour une application logicielle par exemple, une base de données SQL on-premise ou dans le Cloud doit être identique.

Le comportement de la base de données doit être le même, qu’elle soit accessible par des requêtes directes, telles que des instructions SQL, ou par des appels API pour des base dans le Cloud . Toutefois, il peut être possible de discerner de petites différences dans le temps de réponse. Une base de données sur site, accessible par un réseau local (LAN), est susceptible de fournir une réponse légèrement plus rapide qu’une base de données dans le Cloud , qui nécessite un aller-retour sur internet pour chaque requête avec la base de données.

Comment fonctionnent les bases de données dans le cloud

Les bases de données dans le Cloud , comme leurs ancêtres traditionnels, peuvent être divisées en deux grandes catégories : relationnelles et non relationnelles.

Une base de données relationnelle, généralement écrite en langage structuré (SQL), est composée d’un ensemble de tables interdépendantes qui sont organisées en lignes et en colonnes. La relation entre les tables et les colonnes (champs) est spécifiée dans un schéma. Les bases de données SQL, de par leur conception, reposent sur des données dont le format est très cohérent, comme les transactions bancaires ou un annuaire téléphonique. Les plateformes et fournisseurs Cloud les plus populaires sont MySQL, Oracle, IBM DB2 et Microsoft SQL Server. Certaines plates-formes Cloud telles que MySQL sont Open Source.

Les bases de données non relationnelles, parfois appelées NoSQL, n’utilisent pas de modèle de table. Elles stockent plutôt du contenu, quelle que soit sa structure, sous la forme d’un document unique. Cette technologie est bien adaptée aux données non structurées, telles que le contenu des médias sociaux, les photos et les vidéos.

Types de bases de données du cloud

Il existe deux modèles d’environnement de base de données Cloud : traditionnel et base de données en tant que service (DBaaS).

Dans le modèle traditionnel Cloud , une base de données fonctionne sur l’infrastructure d’un service informatique avec une machine virtuelle. Les tâches de surveillance et de gestion de la base de données incombent au personnel informatique de l’organisation.

Le modèle DBaaS est un service d’abonnement payant dans lequel la base de données fonctionne sur l’infrastructure physique du fournisseur de services. Différents niveaux de service sont généralement disponibles. Dans du DBaaS classique, le fournisseur assure la maintenance de l’infrastructure physique et de la base de données, laissant au client le soin de gérer le contenu et le fonctionnement de la base de données.

Le client peut également mettre en place un hébergement infogéré, dans lequel le fournisseur s’occupe de la maintenance et de la gestion de la base de données. Cette dernière option peut être particulièrement intéressante pour les petites entreprises qui ont des besoins en matière de bases de données mais qui ne disposent pas des compétences informatiques adéquates.

Avantages des bases de données Cloud

Par rapport à l’exploitation d’une base de données traditionnelle sur un serveur physique et une architecture de stockage sur site, une base de données sur le Cloud offre les avantages suivants :

  • Élimination de l’infrastructure physique – Dans un environnement de base de données sur le Cloud , le fournisseur de serveurs, de stockage et d’autres infrastructures est responsable de la maintenance et du maintien d’une haute disponibilité.
  • L’organisation qui possède et exploite la base de données est uniquement responsable du support et de la maintenance du logiciel de la base de données et de son contenu.
  • Dans un environnement DBaaS, le fournisseur de services est responsable de la gestion et de l’exploitation du logiciel de la base de données, les utilisateurs du DBaaS n’étant responsables que de leurs propres données.
  • Économies – Grâce à l’élimination d’une infrastructure physique appartenant à un service informatique et exploitée par celui-ci, des économies importantes peuvent être réalisées grâce à la réduction des dépenses d’investissement, à la diminution du personnel, à la réduction des coûts d’exploitation des systèmes électriques et de chauffage, ventilation et climatisation et à la réduction de l’espace physique nécessaire.
  • Les avantages du DBaaS comprennent également une évolutivité instantanée, des garanties de performance, un support de basculement, une baisse des prix et une expertise spécialisée.
  • Migration des bases de données existantes vers le Cloud

Une base de données sur site peut migrer vers du Cloud . Il existe de nombreuses raisons de le faire, notamment les suivantes :

  • Permet au service informatique de mettre hors service le serveur physique et l’infrastructure de stockage sur site.
  • Permet de combler le manque de personnes compétentes lorsque le service informatique ne dispose pas d’une expertise interne adéquate en matière de bases de données.
  • Améliore l’efficacité du traitement, en particulier lorsque les applications et les analyses qui accèdent aux données résident également dans le Cloud .
  • Réalise des économies de coûts par plusieurs moyens, notamment la réduction du personnel informatique interne.
  • La baisse continue des prix des services de Cloud computing.
  • Payer uniquement pour les ressources consommées, ce qui est connu sous le nom de tarification à l’utilisation.

La relocalisation d’une base de données dans le Cloud peut être un moyen efficace d’améliorer les performances des applications dans le cadre d’un déploiement plus large de logiciels en tant que service (SaaS). Cela permet de simplifier les processus nécessaires pour rendre les informations disponibles par le biais de connexions Internet. La consolidation du stockage peut également être un avantage du transfert des bases de données d’une entreprise vers le Cloud . Les bases de données de plusieurs départements d’une grande entreprise, par exemple, peuvent être combinées dans le Cloud en un seul système de gestion de base de données hébergé.

 

Data Structure

⌚: 4 minutes

Une data structure est un format spécialisé pour organiser, traiter, récupérer et stocker des données. Bien qu’il existe plusieurs types de structures de base de donnée, toute structure de données est conçue pour organiser les données en fonction d’un objectif spécifique afin qu’elles puissent être accessibles et utilisées de manière appropriée.

En programmation, une structure de données peut être sélectionnée ou conçue pour stocker des données dans le but de les travailler avec divers algorithmes. Chaque structure de données contient des informations sur des valeurs, des données, des relations entre les données et les fonctions qui peuvent être appliquées aux données.

Caractéristiques des structures de données

Les Data Structure sont souvent classées en fonction de leurs caractéristiques. Les caractéristiques possibles sont les suivantes :

  • Linéaire ou non linéaire : Cette caractéristique décrit si les éléments de données sont disposés dans un ordre chronologique, par exemple avec un tableau, ou dans un ordre non ordonné, par exemple avec un graphique (Voir Graph Database).
  • Homogène ou non-homogène : Cette caractéristique indique si tous les éléments de données d’un référentiel sont du même type ou de types différents (Textes, images, vidéos…).
  • Statique ou dynamique : Cette caractéristique décrit la manière dont les structures de données sont compilées. Les structures de données statiques ont des tailles, des structures et des emplacements de mémoire fixes au moment de la compilation. Les structures de données dynamiques ont des tailles, des structures et des emplacements de mémoire qui peuvent diminuer ou augmenter selon l’utilisation.

Types de Data Structure

Les types de Data Strcture sont déterminés par les types d’opérations nécessaires ou les types d’algorithmes qui seront appliqués. Ces types comprennent :

  • Tableaux – Un tableau stocke une collection d’éléments dans des emplacements mémoire adjacents. Les éléments qui sont du même type sont stockés ensemble afin que la position de chaque élément puisse être calculée ou récupérée facilement. Les tableaux peuvent être de longueur fixe ou indefinie.
  • Piles (Stack) – Une pile stocke une collection d’éléments dans l’ordre linéaire dans lequel les opérations sont appliquées. Cet ordre peut être le dernier entré, premier sorti (LIFO) ou le premier entré (first in), premier sorti (First Out-FIFO).
  • Files d’attente – Une file d’attente stocke une collection d’articles similaire à une pile ; cependant, l’ordre des opérations ne peut être que premier entré, premier sorti.
  • Listes liées – Une liste liée stocke une collection d’articles dans un ordre linéaire. Chaque élément, ou nœud, d’une liste liée contient un élément de données ainsi qu’une référence, ou un lien, vers l’élément suivant de la liste.
  • Arbres – Un arbre stocke une collection d’éléments de manière abstraite et hiérarchique. Chaque nœud est lié à d’autres nœuds et peut avoir plusieurs sous-valeurs, également appelées enfants.
  • Graphiques- Un graphique stocke une collection d’éléments de manière non linéaire. Les graphes sont constitués d’un ensemble fini de nœuds, également appelés sommets, et de lignes qui les relient, également appelées arêtes. Ils sont utiles pour représenter des systèmes de la vie réelle tels que les réseaux informatiques.
  • Tries – Un trie, ou arbre de mots-clés, est une structure de données qui stocke des chaînes de caractères sous forme d’éléments de données pouvant être organisés dans un graphique visuel.
  • Tables de hachage – Une table de hachage, ou une carte de hachage, stocke une collection d’éléments dans un tableau associatif qui trace les clés des valeurs. Une table de hachage utilise une fonction de hachage pour convertir un index en un tableau de cases qui contient l’élément de données désiré.

 

Ces derniers sont considérés comme des structures de données complexes car ils peuvent stocker de grandes quantités de données interconnectées. Les exemples de structures de données primitives, ou de base, sont les entiers, les flotteurs, les booléens et les caractères.

  • Hiérarchie des structures de données
  • Utilisations des structures de données

 

En général, les structures de données sont utilisées pour mettre en œuvre les formes physiques des types de données abstraites. Cela peut se traduire par diverses applications, comme l’affichage d’une base de données relationnelle sous la forme d’un arbre binaire.

Dans les langages de programmation, les structures de données sont utilisées pour organiser le code et les informations dans un espace numérique. Par exemple, les listes et dictionnaires Python ou les tableaux et objets JavaScript sont des structures de codage courantes utilisées pour stocker et récupérer des informations. Les structures de données sont également un élément essentiel de la conception de logiciels efficaces.

Importance des structures de données

Les structures de données sont essentielles pour gérer efficacement de grandes quantités de données, telles que les informations conservées dans des bases de données ou des services d’indexation. La maintenance correcte des systèmes de données nécessite l’identification de l’allocation de la mémoire, des interrelations entre les données et des processus de données, autant d’éléments auxquels les structures de données contribuent.

En outre, il est non seulement important d’utiliser des structures de données, mais aussi de choisir la structure de données appropriée pour chaque tâche. Le choix d’une structure de données inadaptée pourrait entraîner des temps d’exécution lents ou un code non réactif. Quelques facteurs à prendre en compte lors du choix d’une structure de données incluent le type d’informations qui seront stockées, l’emplacement des données existantes, la manière dont les données doivent être triées et la quantité de mémoire à réserver pour les données.

Le CTO d’Oracle Larry Ellison a fait la présentation de la base de données autonome de l’entreprise l’année dernière, à l’Oracle Open World. L’entreprise a ensuite lancé un entrepôt de données autonome. Aujourd’hui, elle a annoncé la prochaine étape avec le lancement du service Oracle Autonomous Transaction Processing.

Oracle lance un nouvel outil aux fonctionnalités automatisées

Cet outil de base de données autonome promet le même niveau d’autonomie que les précédents : réparations automatiques, mises à jour et correctifs de sécurité automatisés et pas plus de quelques minutes d’interruption pour maintenance par mois. Juan Loaiza, SVP de Oracle Systems, affirme que le service ATP Cloud est une extension modernisée des bases de données de traitement des transactions en ligne (OLTP) qu’ils ont créées depuis des décennies. Il précise que ce nouvel outil repose sur le machine learning et l’automatisation, mais il devrait être familier aux clients.

Loaiza a déclaré : « La plupart des grandes entreprises dans le monde utilisent aujourd’hui des milliers de bases de données Oracle. Ainsi, une des différences les plus évidentes pour nous est que vous pouvez récupérer la base de données que vous possédez depuis de nombreuses années sur site, et facilement la transférer vers une base de données autonome dans le Cloud ».

Il ajoute que les entreprises qui exploitent déjà des bases de données OLTP sont notamment des compagnies aériennes, de grandes banques, des sociétés de services financiers, des détaillants en ligne et d’autres grandes entreprises qui ne peuvent se permettre ne serait-ce qu’une demi-heure par mois de suspension de services. Il affirme qu’avec la base de données autonome d’Oracle, le temps d’arrêt maximal est de 2,5 minutes par mois et que l’objectif est de réduire considérablement ce nombre.

Oracle doit se positionner rapidement dans la Cloud

Carl Olofson, un analyste d’IDC qui gère la pratique de gestion de base de données d’IDC, affirme que le produit promet des coûts opérationnels beaucoup plus bas et pourrait donner à Oracle un avantage sur le marché du Database as a Service. Il a déclaré : « Ce qu’Oracle offre de plus remarquable ici, c’est le fait que les correctifs sont appliqués sans aucune perturbation opérationnelle et que la base de données est auto-réglable et, dans une certaine mesure, auto-réparable. Étant donné la nature très diverse des problèmes qui peuvent survenir sur la base de données OLTP, c’est un véritable atout ».

Adam Ronthal, analyste chez Gartner se concentrant sur le marché des bases de données, affirme que l’ensemble des produits de base de données autonomes jouera un rôle important dans l’avancée d’Oracle dans le Cloud. Il a précisé : « Ces annonces concernent plus le Cloud que les bases de données. Elles avertissent qu’Oracle offre au monde entier des produits pensés et conçus pour le Cloud : capacité d’évolution, souplesse et une faible empreinte opérationnelle sont leurs caractéristiques essentielles. Ils sont derrière AWS, Azure et même GCP dans l’étendue de leurs offres. L’ATP aide à combler cette lacune, du moins dans le domaine de la gestion des données ».

Oracle a certainement besoin d’une conquête dans le Cloud car son dernier rapport de bénéfices était mauvais au point de cesser de publier les chiffres concernés dans le rapport de juin.

Ronthal dit qu’Oracle a besoin de gagner rapidement du terrain auprès de ses clients existants s’il veut réussir sur ce marché. Il a développé : « Oracle a besoin de connaître un succès rapide avec son nouveau produit, et il le trouvera auprès de ses propres clients qui sont déjà stratégiquement engagés dans les bases de données Oracle et qui ne sont pas intéressés par changer de prestataire. Il ne s’agit pas de l’ensemble de la clientèle, bien sûr. Une fois qu’ils auront fait leurs preuves, ils seront en mesure d’élargir leur clientèle et d’en acquérir une nouvelle ».

Autonomous Data Warehouse vs Snowflake

⌚: 4 minutes

Les projets de data warehouse migrent vers le Cloud pour disposer d’une souplesse dont ils ne pouvaient disposer on-premise. Aujourd’hui, de nouveaux entrants investissent le marché, comme Snowflake qui propose un data warehouse construit sur le Cloud. Face à ce jeune concurrent,Oracle le pionnier de la base de données relationnelle vient de lancer Oracle Autonomous Datawarehouse, un service Cloud de sa base de données autonome.

Oracle lance Autonomous Data Warehouse

Oracle a lancé une base de données cloud auto-administrable, c’est-à-dire qu’elle fournit tous les outils qui pourront de manière totalement automatisée répondre aux problématiques de mise en œuvre, d’administration, de patching, de tuning et de performance. Par ailleurs, l’automatisation des tests garantit que les modifications sont sécurisées. Toutes les données sont chiffrées et les services, qui sont hautement disponibles, prennent en compte les arrêts de service, avec un SLA de 99,995%.

Le Data Warehouse autonome d’Oracle est

  • Facile d’utilisation : le service cloud est entièrement géré, ce qui simplifie et accélère le provisionnement de la wharehouse. La structure de base de données autonome d’Oracle assure une haute disponibilité et une sécurité automatique.
  • Rapide : Les données entreposées sont de haute performance dès le départ, avec une évolutivité et une fiabilité sans pareilles. Le data warehouse est basé sur les principales fonctionnalités Oracle Database : parallélisme, traitement en colonnes et compression. Tous les aspects du réglage des performances sont gérés automatiquement, le service ne nécessitant donc pas de réglage de la base de données.
  • Elastique : la capacité de calcul et de stockage de votre wharehouse sont créés et développés à la demande, indépendamment l’une de l’autre, sans temps d’arrêt. Seules les ressources consommées sont payantes.
  • Complet : Autonomous Data Warehouse s’intègre directement à toute la gamme de services IoT, d’analyses décisionnelles et d’intégration de données et à la gamme complète de solutions cloud intégrées Oracle.

 

Snowflake, jeune leader du Data Management for Analytics

Snowflake Computing a été fondée en 2012, en proposant un wharehouse entièrement géré en tant que service sur l’infrastructure AWS. Avec ce data warehouse, construit pour le Cloud, Snowflake s’intègre sur le marché. Snowflake est un petit fournisseur de produits purs, à commencer par la data wharehouse. Depuis mars 2018, Snowflake est disponible aux États-Unis (Est et Ouest), dans l’UE (Dublin, Francfort) et dans l’APAC (Sydney).

Snowflake Elastic Data Warehouse est un service de stockage et d’analyse de données Cloud qui permet aux entreprises de stocker et d’analyser des données à l’aide de matériel et de logiciels Cloud. Les données sont stockées dans Amazon S3.

L’architecture Snowflake sépare le stockage de données en trois fonctions distinctes :

  • Stockage
  • Calcul
  • Service (gestion des Cloud, sécurité, authentification, etc.).

Le prix de Snowflake est basé sur l’utilisation réelle de la capacité de stockage et des entrepôts virtuels, et comprend les coûts associés à la couche Service. La version la moins chère de Snowflake est de 2 $ l’heure par vCPU.

Snowflake propose des fonctions graphiques et des outils de production de rapports qu’il combine à d’autres outils tiers comme Tableau et Microstrategy de manière à les rendre complets.

Le Data Warehouse de Snowflake s’appuie sur des plates-formes et technologies d’analyse avancées tierces telles que Qubole, R et Apache Spark afin de proposer des analyses avancées intégrées.

Lors du Magic Quadrant 2019, Snowflake parvient à intégrer la catégorie leader Data Management for Analytics selon Gartner:

 

 

Oracle, premier leader du DMSA, introduit Autonomous Data Warehouse : une solution intégrée sur son Exadata

La base de données autonome d’Oracle repose sur Database 18c, à partir duquel l’éditeur décline une gamme d’offres, dont la première est Autonomous Data Warehouse. Oracle est expérimenté en ce qui concerne les data wharehouses, et a développé la nouvelle génération de services Cloud. ADWC est le premier wharehouse de données autonome dans le Cloud qui a été spécialement conçu pour le cloud.

Autonomous Data Warehouse, ADW, fonctionne dans un environnement Exadata, c’est-à-dire sur des systèmes intégrés optimisés pour la gestion des bases de données. Il s’agit d’infrastructures éprouvées sur lesquelles Oracle dispose d’un recul de près de 10 ans.

Le data warehouse Cloud d’Oracle est « Load and go », c’est-à-dire qu’aucun réglage manuel ni aucune expertise particulière en matière de bases de données n’est nécessaire. Il est prêt à l’emploi, avec de bonnes performances, sans aucun changement de schéma grâce aux caractéristiques uniques d’Exadata. Il n’est pas nécessaire de tenir compte de la distribution continue des données. Il en résulte une réduction significative des coûts d’exploitation.

ADWC possède une disponibilité accrue : l’entrepôt de données est tolérant aux pannes et est hautement disponible, de 99,995 %. Les temps d’arrêt SLA durent moins que 30 minutes par an, y compris les temps d’arrêt planifiés.

Oracle ADWC utilise OCPU comme métrique et 1 OCPU équivaut à 2 AWS vCPU. Le tarif sur demande d’ADWC est de 1,26 $ l’heure par vCPU.

Leader dans le domaine des data wharehouse depuis des décennies, Oracle dispose d’un écosystème développé.

Oracle propose un large éventail de services d’analyse de cloud computing leaders sur le marché. Par exemple, la BI d’Oracle est considérée comme le leader le plus fort dans The Forrester Wave : Enterprise BI Platforms with Majority Cloud Deployments, T3 2017.

ADWC, d’autre part, inclut Oracle Machine Learning SQL Notebooks, permettant aux grandes équipes de données de collaborer pour construire, évaluer et déployer des modèles prédictifs et des méthodologies analytiques dans l’Oracle ADWC. Les entreprises peuvent automatiser la découverte de nouvelles connaissances, générer des prédictions et ajouter des « IA » aux données via des tableaux de bord et des applications d’entreprise.

ADWC est basé sur l’entrepôt de données Oracle qui a une forte place sur le marché. En effet, Oracle a été qualifié de leader dans le Gartner MQ 2019 pour les solutions de gestion de données pour l’analyse (data warehouse) avec la plus forte « capacité d’exécution. Oracle bénéficie d’une présence et d’un écosystème beaucoup plus forts sur le marché, d’une base de clients beaucoup plus large et d’un plus grand nombre de partenaires, ainsi que de ressources techniques et d’un soutien financier renforcés de la société.

 

 

 

 

AWS est-il désormais hébergeur de données de santé ?

⌚: 2 minutes

Le certificat d’hébergement en données de santé serait-il devenu un Saint Graal ? Des acteurs historiques de l’hébergement de données se sont lancés (Claranet, Cheops Technology…) tout comme les acteurs du cloud (Microsoft, Salesforce…) et dernièrement l’opérateur Bretagne Telecom. Pour ne pas rester à l’écart de cette effervescence – et du business qui en découle – autour de ce type de prestation, AWS s’est également lancé dans la course en annonçant avoir obtenu la certification hébergeur de données de santé (HDS).

« La certification HDS vise à renforcer la sécurité et la protection des données personnelles sur la santé. L’obtention de cette certification démontre qu’AWS fournit un cadre pour les mesures techniques et de gouvernance visant à sécuriser et à protéger les données personnelles sur la santé, régi par le droit français », indique fièrement Amazon Web Services dans un billet de blog. Oui mais voilà : cette certification est moins complète que celle proposée par d’autres acteurs dont Claranet, Cheops et un certain… Microsoft. Comme l’indique l’agence française de la santé numérique, le certificat HDS obtenu par AWS couvre 5 activités sur 6, excluant ainsi celle concernant « l’administration et l’exploitation du système d’information contenant les données de santé ».

Un certificat HDS plus étendu que celui d’Equinix

Le certificat HDS obtenu par AWS reste quoi qu’il en soit plus étendu que d’autres comme Equinix et Eolas groupe B&D Interactive qui se limitent aux mises à disposition et maintiens en condition opérationnelle des sites physiques permettant d’héberger l’infrastructure matérielle du SI utilisé pour le traitement des données de santé et à l’infrastructure matérielle du système d’information utilisé pour le traitement de données de santé.

AWS précise néanmoins que  « conformément à son modèle de responsabilité tant apprécié par ses clients, AWS ne gère pas les données de santé mais opère l’infrastructure. Les organisations qui gèrent des systèmes travaillant avec des données de santé en France peuvent déjà utiliser AWS, car elles sont couvertes par toute la gamme de certifications HDS. En d’autres termes, les clients restent responsables de la création, de l’administration et de la gestion de leurs applications pouvant contenir des données de santé sur le cloud, c’est pourquoi cette activité ne s’applique pas à AWS. »

Les 3 meilleurs services Cloud pour stocker ses données en 2019

⌚: 4 minutes

Avant de parler en détail des meilleures solutions pour stocker vos données en ligne, il convient tout d’abord de répondre à la question suivante : pourquoi choisir un service cloud à la place du classique disque dur ? Si les deux ont la même fonction de base, à savoir sauvegarder vos données, les services cloud offrent des avantages que ne peut fournir un disque dur :

  • Avoir une copie dématérialisée de ses fichiers les plus importants : ainsi, l’utilisateur peut les restaurer facilement et rapidement en cas de défaillance matérielle ;
  • Avoir accès à ses données depuis n’importe quel appareil connecté (ordinateursmartphonetablette) ;
  • Pouvoir partager et modifier des documents dans le cadre d’un travail collaboratif.

Dropbox

Dropbox est assurément un pionnier des services cloud et, à ce titre, a su faire fructifier l’avance qu’il a prise sur la concurrence. Il faut dire que la prise en main de Dropbox se fait en quelques minutes de manière totalement intuitive. L’interface est épurée, réduite à sa plus simple expression : il suffit de cliquer sur « Transférer » et choisir si l’on veut sauvegarder un fichier ou un dossier entier. Les éléments stockés sur Dropbox apparaissent ensuite dans « Mes fichiers ». L’utilisateur, par un menu déroulant, peut décider de partager ses fichiers ou de les organiser à sa convenance en les ajoutant aux favoris, en les renommant, en les supprimant, en les déplaçant ou en les copiant.

Mais là où Dropbox est vraiment intéressant, c’est en proposant une multitude d’options associées aux projets collaboratifs. Il est en effet très simple de demander des fichiers à ses proches ou ses collaborateurs par l’envoi d’un lien ou d’un e-mail. Dropbox intègre aussi un outil étudié spécialement pour les travaux de groupe : Dropbox Paper. Grâce à lui, l’utilisateur peut créer des documents à partir de modèles (brainstorming, notes de réunion, plan de projet) et les mettre à disposition des personnes concernées. Il devient un vrai moyen de s’organiser par le biais de listes de tâches personnalisées auxquelles on peut adjoindre une date d’échéance.

Dropbox propose de stocker gratuitement 2 Go de données, c’est moins que certains de ses concurrents offrant un espace de sauvegarde non payant. Néanmoins, cette capacité peut être augmentée sans sortir le portefeuille en invitant des amis à vous rejoindre (500 Mo supplémentaires par ami jusqu’à 16 Go au total), en suivant les étapes du guide de prise en main (250 Mo) ou en apportant sa contribution au forum de la communauté Dropbox (1 Go par « Mighty Answer »).

Dropbox offre la possibilité de passer à un compte supérieur : « Plus » et « Professional » pour les particuliers, « Standard » et « Advanced » pour les équipes. L’utilisateur dispose à ce moment-là d’un espace de stockage plus conséquent (de 1 To au stockage illimité), d’outils avancés de protection des données, de collaboration, de productivité et d’administration.

Google Drive

Google Drive a su rapidement se faire une place dans le marché concurrentiel des services cloud grâce à la puissance de sa maison mère. En effet, la grande majorité des gens possèdent un compte Google et bénéficient déjà de l’intégration de Google Drive, par exemple en ayant la possibilité de sauvegarder sur Google Drive les pièces jointes des e-mails reçus sur leur messagerie Gmail, en partageant l’espace de stockage avec Google Photos ou en pouvant synchroniser les fichiers d’un PC vers le cloud grâce à Google Backup and Sync.

L’interface de Google Drive est compréhensible en quelques secondes : en deux clics, l’utilisateur peut décider d’importer un fichier, un dossier ou créer un document grâce à la suite bureautique qu’il intègre. En effet, il est possible de choisir le type de document que l’on souhaite (Google Docs est l’équivalent de Word, Google Sheets d’Excel, Google Slides de Powerpoint, etc.), de sélectionner éventuellement un des nombreux modèles proposés (CV, brochure et rapport pour Google Docs, liste de tâches, agenda, budget pour Google Sheets, etc.) et de le partager directement par email ou par l’envoi d’un lien.

Google Drive dispose aussi de petites fonctionnalités bien pratiques, on pense notamment au fait de pouvoir prendre une photo avec un smartphone Android et de la sauvegarder immédiatement dans le cloud au format PDF.

Mais là où Google Drive se démarque, c’est qu’il propose tout simplement l’espace de stockage gratuit le plus important à l’heure actuelle, à savoir 15 Go. Pour nombre d’utilisateurs, ce sera à ne pas douter le critère de choix numéro un. Si cela n’est pas suffisant, il est possible de passer à l’une des offres payantes Google One, qui octroie de 100 Go à 30 To, l’assistance des experts Google, la possibilité de partager son abonnement avec cinq autres personnes et même des avantages tels que des crédits à dépenser sur Google Play ou des tarifs spéciaux sur les hôtels !

OneDrive

Le premier et principal point fort de OneDrive est son intégration à Windows (8, 8.1 et 10). Concrètement, cela signifie que, si l’utilisateur possède Windows 8 ou une version ultérieure, alors OneDrive est installé par défaut sur son PC. Il n’y a même pas besoin de créer un compte puisqu’on peut se servir du compte Microsoft auquel le PC est lié.

Pour y accéder, c’est très simple aussi : il suffit d’ouvrir l’explorateur Windows, les fichiers OneDrive sont visibles à gauche de l’écran. À partir de là, il ne reste qu’à effectuer des copier/coller ou glisser/déposer des fichiers que l’on souhaite sauvegarder dans le cloud.

Si la synchronisation est un peu moins rapide que la concurrence, OneDrive dispose quand même d’une fonction intéressante, le « Files-On-Demand ». Elle consiste en une synchronisation partielle ne faisant apparaître que des empreintes (icônes, miniatures) avec des métadonnées sur le disque local. Les fichiers n’occupent aucun espace et ne sont téléchargés que quand ils sont ouverts.

En ce qui concerne la gestion des données, OneDrive fonctionne de la même manière que Dropbox : les fichiers sont transférés de la même manière que pour des fichiers normaux et chaque action entraîne une synchronisation. En théorie, il n’y a pas de limite au nombre de fichiers que l’utilisateur peut déposer, même si des ralentissements pourront apparaître à partir de 100.000. La taille de chaque objet est limitée à 15 Go.

Autrefois en retard sur le plan du partage, OneDrive propose maintenant de multiples options pour le travail collaboratif. L’accès aux données se fait par l’envoi d’un lien copié dans le presse-papier ou par e-mail. L’utilisateur peut configurer à sa convenance les règles d’autorisation : qui peut visionner les fichiers et qui peut les modifier. Il peut aussi consulter l’historique pour voir quelle personne a opéré des changements sur un fichier et à quel moment.

OneDrive offre un espace de stockage gratuit de 5 Go. Il propose en outre la formule de base la moins chère du marché : 50 Go pour 1,99 €/mois. Si l’on souhaite plus d’espace (1 ou 6 To), alors il faut souscrire à une offre vraiment intéressante : elle est plutôt bon marché et elle inclut Office 365 Personnel ou Famille. Cela veut dire que si vous avez une licence Office 365 Personnel ou Famille, vous disposez déjà de cet espace de stockage, peut-être sans le savoir !

Il est également possible de télécharger l’application OneDrive sur son smartphone (Android, iOSet Windows 10 Mobile) dont l’interface ressemble fortement à celle sur PC et Mac.

Game Stack, le nouveau service Cloud de Microsoft pour les développeurs de jeux vidéo

⌚: 2 minutes

A quelques jours de la Game Developers Conference 2019 (du 18 au 22 mars à San Francisco), Microsoft a fait l’annonce le 14 mars d’une nouvelle offre cloud à destination des développeurs de jeux vidéo. Baptisée « Microsoft Game Stack », elle regroupe plusieurs services cloud et outils de développement Microsoft (comme Visual Studio et PowerBI, mais aussi DirectX, Xbox Live, Mixer ou Havok) avec la suite d’outils pour les jeux en ligne de PlayFab.

Ces outils incluent entre autres un système de match-making, un service de discussion (oral et écrit), une fonction d’analyse de données, un service de place de marché pour les contenus créés par les joueurs, etc. Microsoft avait fait l’acquisition de PlayFab en janvier 2018. Cette offre renforce la compétitivité d’Azure face à Amazon Web Services, le n°1 mondial du cloud, qui propose également plusieurs services à destination des développeurs de jeux.

Les Géants du Cloud convoitent le marché du Gaming

Cette annonce survient sur fond d’une autre bataille liée au cloud et aux jeux vidéo. Microsoft travaille d’arrache-pied pour finaliser un service de cloud gaming, pour l’instant nommé « projet xCloud ». Son ambition est de proposer des jeux Xbox sur n’importe quel appareil (smartphone, tablette, ordinateur portable…) en streaming, avec une latence acceptable et sans les contraintes sur le débit et la qualité de la connexion qui ont limité jusqu’à présent ce type de services à une population relativement restreinte.

Il se confrontera à plusieurs concurrents de taille sur ce marché émergent, dont notamment Google qui tiendra la conférence de lancement de son propre projet de cloud gaming le 19 mars.