Tag

intelligence artificielle

Browsing

Le Big Data Analytics est le processus, souvent complexe, qui consiste à examiner des données volumineuses et variées. Ou bien des ensembles de données, volumineux et variés . L’objectif est de découvrir des informations, comme des modèles cachés et des corrélations inconnues. Ou encore des tendances du marché et des préférences des clients. Ainsi, ces données peuvent aider les entreprises à prendre des décisions commerciales éclairées.

Les requêtes BI (Business Intelligence, pour informatique décisionnelle) répondent donc à des questions de base, sur les opérations et les performances de l’entreprise. Le Big Data Analytics est une forme d’analyse avancée. Il implique des éléments tels que des modèles prédictifs et des algorithmes statistiques. Ainsi que des simulations optimisées par des systèmes d’analyse de haute performance.

L’importance du Big Data Analytics

L’analyse des données offre divers avantages commerciaux lorsqu’elle est stimulée par des systèmes et des logiciels d’analyse spécialisés. Ainsi que par des systèmes informatiques de grande puissance. Notamment, de nouvelles opportunités de revenus. Mais aussi un marketing plus efficace et un meilleur service client. Ainsi qu’une efficacité opérationnelle améliorée et des avantages concurrentiels. Les grandes applications d’analyse de données permettent aux professionnels d’analyser des volumes croissants de transactions structurées. Mais aussi d’autres formes de données, souvent inexploitées par les programmes de BI.

Cela comprend un mélange de données semi-structurées et non structurées. Par exemple, les données du parcours de navigation sur Internet, les journaux du serveur Web ou encore le contenu des médias sociaux. On peut également citer les courriels des clients et les réponses aux sondages. Ainsi que les enregistrements des téléphones mobiles et les données des machines, saisies par des capteurs connectés à l’IoT (Internet of Things, pour internet des objets). Le terme Big Data a été utilisé pour la première fois pour désigner l’augmentation du volume de données au milieu des années 1990.

Les 3V du Big Data : volume, vitesse et variété

C’est en 2001 que Doug Laney, analyste chez Meta Group Inc. à titre de consultant, a élargi la notion de Big Data. Il y a inclut trois facteurs. Ainsi, le volume, la vitesse et la variété des données sont devenus les 3V du Big Data. C’est en 2006 qu’a été lancé Hadoop, un framework libre et open source, conçu pour exécuter des applications Big Data. En 2011, le Big Data Analytics a commencé à s’imposer dans les organisations et dans l’opinion publique. Au même titre que Hadoop et les diverses technologies développées autours de lui.

Au départ, les applications Big Data étaient principalement le fait de grandes sociétés Internet et de commerce électronique. On peut citer Yahoo, Google et Facebook, ainsi que des fournisseurs de services analytiques et marketing. Mais très vite, d’autres entreprises, dans tous les secteurs, se sont de plus en plus tournés vers le Big Data Analytics.

Technologies et outils d’analyse

Les types de données non structurées et semi-structurées ne conviennent généralement pas aux bases de données relationnelles traditionnelles. En effet, elles reposent sur des ensembles de données structurées. De plus, les bases de données ne peuvent pas toujours traiter des paquets de données volumineux avec des mises à jour fréquentes. Voire même continuelles.

C’est le cas par exemple pour les transactions boursières, les activités en ligne des internautes ou encore la performance des applications mobiles. Alors, de nombreuses organisations qui collectent, traitent et analysent de grandes quantités de données se tournent vers les bases de données NoSQL. Ainsi que vers Hadoop et ses outils complémentaires, notamment :

  • YARN : une technologie de gestion de ressources et de plannification des tâches.
  • MapReduce : un framework logiciel qui permet aux développeurs d’écrire des programmes qui traitent des quantités massives de données non structurées. Et ce, en parallèle sur un cluster de processeurs ou d’ordinateurs autonomes.
  • Spark : un cadre de traitement parallèle open source qui permet aux utilisateurs d’exécuter des applications d’analyse de données, à grande échelle, sur des systèmes en cluster.
  • HBase : une base de données non-relationnelles conçue pour fonctionner sur le HDFS (Hadoop Distributed File System, pour système de fichiers distribués Hadoop).
  • Hive : un système d’entrepôt de données open source pour interroger et analyser de grands ensembles de données stockés dans des fichiers Hadoop.
  • Kafka : un système de stockage et d’échange de données en temps réel.
  • Pig : une technologie open source pour la création de programmes MapReduce.

Comment fonctionne le Big Data Analytics ?

Généralement, les analystes de Big Data adoptent le concept d’un pool de données Hadoop. Celui-ci sert de référentiel principal aux flux entrants de données brutes. Dans de telles architectures, les données peuvent être analysées directement dans un cluster Hadoop. Ou alors, être exécutées par un moteur de traitement comme Spark. Une bonne gestion des données est une première étape cruciale dans le processus d’analyse des Big Data.

Les données stockées doivent être organisées, configurées et partitionnées correctement. Ainsi, on peut obtenir de bonnes performances des tâches ETL (Extract, Transform and Load, pour extraction, de transformation et de chargement) et des requêtes analytiques. Une fois que les données sont prêtes, elles peuvent être analysées. Et ce, à l’aide d’un logiciel doté d’outils d’exploration de données, qui passent au crible les ensembles de données à la recherche de modèles et de relations. Ou encore des outils d’analyse prédictive, pour construire des modèles de prédiction sur le comportement des clients et d’autres développements futurs.

Mais aussi le machine learning, l’apprentissage machine, qui exploite les algorithmes pour analyser de grands ensembles de données. Ainsi que le deep learning, l’apprentissage profond, une branche plus avancée du machine learning. Les logiciels d’analyse statistique et de text mining, l’exploration et l’analyse de données textuelles non structurées, jouent un rôle dans le processus d’analyse de données. Tout comme les logiciels de BI et les outils de visualisation de données. Pour les applications ETL et analytiques, les requêtes peuvent être saisies dans MapReduce, via des langages de programmation. Notamment le Python, R, Scala et SQL.

Utilisations et défis

Les applications d’analyse en continu deviennent de plus en plus courantes dans les environnements Big Data. En effet, les utilisateurs veulent réaliser des analyses en temps réel, sur les données introduites dans les systèmes Hadoop, via des moteurs de traitement de flux comme Spark, Flink et Storm. En parallèle, les fournisseurs de platesformes de cloud computing ont facilité la mise en place et la gestion des clusters Hadoop dans le cloud. Notamment Amazon Web Services (AWS) et Microsoft.

Il en va de même des fournisseurs Hadoop, comme Cloudera et Hortonworks. Ils prennent en charge la distribution du framework sur AWS et Microsoft Azure clouds. Désormais, les utilisateurs peuvent faire tourner des clusters dans le cloud. Et ils peuvent les exécuter aussi longtemps qu’ils en ont besoin. En effet, la tarification est basée sur l’utilisation et ne nécessite pas de licences logicielles permanentes. De plus, les logiciels d’analyse de Big Data sont plus faciles à utiliser, grâce à l’introduction des technologies d’intelligence artificielle et de machine learning.

Parmi les principaux fournisseurs dans ce domaine, on peut citer Alteryx, IBM, Microsoft et Knime. Toutefois, l’intégration des outils de Big Data dans une architecture cohésive reste un défi pour de nombreuses équipes informatiques et analytiques. En effet, elles doivent identifier la bonne combinaison de technologies. Puis assembler les pièces, pour répondre à leurs besoins d’analyse de données.

La reconnaissance faciale est une catégorie de logiciels biométriques. Ils cartographient mathématiquement les caractéristiques du visage d’un individu. Puis, ils stockent ces données, sous forme d’empreinte faciale. Un logiciel de reconnaissance faciale utilise des algorithmes de type deep learning. Il s’agit d’une méthode d’apprentissage automatique, fondée sur l’apprentissage de modèles de données.

Grâce à cet apprentissage profond, le logiciel est capable de comparer une image, capturée en direct ou stockée numériquement, à celle de l’empreinte faciale enregistrée. Ainsi, il est capable de vérifier l’identité d’une personne. Les caméras de haute qualité des appareils mobiles ont fait de la reconnaissance faciale une option viable pour l’authentification des personnes. Mais aussi pour leur identification. L’iPhone X d’Apple, par exemple, intègre la technologie Face ID qui permet aux utilisateurs de déverrouiller leur téléphone. Et ce, à l’aide d’une empreinte faciale cartographiée par l’appareil photo du téléphone.

Le logiciel du téléphone est conçu avec la modélisation 3D pour résister à l’usurpation d’identité par des photos ou des masques. Et il capture et compare plus de 30.000 variables. Déjà, la technologie Face ID peut être utilisée pour authentifier les achats avec Apple Pay. Mais aussi dans les iTunes Store, App Store et iBooks Store. Apple crypte et stocke les données faceprint dans le cloud. Cependant, l’authentification a lieu directement sur l’appareil.

Amazon, Google ou encore Facebook dans la course

Les développeurs peuvent utiliser Amazon Rekognition afin d’ajouter des fonctions de reconnaissance faciale et d’analyse à une application. Il s’agit d’un service d’analyse d’images qui fait partie de la suite Amazon AI. Google fournit un service similaire avec son API Google Cloud Vision. Cette technologie appel à l’apprentissage automatique pour détecter, apparier et identifier les visages. Et elle est utilisée de nombreuses façons. Notamment par le divertissement et le marketing. Le système de jeu de mouvement Kinect, par exemple, utilise la reconnaissance faciale pour différencier les joueurs. Et les publicités intelligentes dans les aéroports sont maintenant capables d’identifier le sexe, l’origine ethnique et l’âge approximatif des passants.

Ainsi, elles peuvent cibler la publicité correspondant au type de personne qui passe. De son côté, Facebook utilise un logiciel de reconnaissance faciale pour marquer les personnes sur les photos. Chaque fois qu’une personne est étiquetée sur une photo, le logiciel stocke des informations cartographiques sur ses caractéristiques faciales. Ainsi, une fois que le logiciel a recueillies suffisamment de données, il peut utiliser ces informations pour identifier automatiquement son visage lorsqu’il apparaît sur une nouvelle photo. Toutefois, pour protéger la vie privée des gens, le membre Facebook qui a été identifié automatiquement en est informé. C’est la charge de la fonction appelée Photo Review.

Peu de lois concernant la protection des données biométriques

Actuellement, il n’existe aucune loi aux États-Unis qui protège spécifiquement les données biométriques d’une personne. Des systèmes de reconnaissance faciale sont actuellement à l’étude ou déployés pour la sécurité dans les aéroports. D’ailleurs, on estime que plus de la moitié de la population des États-Unis a déjà pris ses empreintes faciales. Selon le Département de la sécurité intérieure, la seule façon d’éviter la collecte d’informations biométriques lors de voyages internationaux est de s’abstenir de voyager. Toutefois, en Europe, le RGPD (Règlement Général sur la Protection des Données) traite des données biométriques.

Comment fonctionne une application de reconnaissance faciale

Le logiciel de reconnaissance faciale identifie 80 points nodaux sur un visage humain. Dans ce contexte, les points nodaux sont des morceaux utilisés pour mesurer les variables du visage d’une personne. On peut notamment citer la longueur ou la largeur du nez. Mais aussi la profondeur des orbites des yeux ou encore la forme des pommettes. Le système fonctionne en capturant des données pour les points nodaux, sur une image numérique du visage d’un individu, puis en stockant le résultat sous forme d’empreinte faciale. L’empreinte faciale sert ensuite de base de comparaison avec les données capturées à partir des visages d’une image ou d’une vidéo.

Bien que le système de reconnaissance faciale n’utilise que 80 points nodaux, il permet d’identifier rapidement et précisément les individus cibles lorsque les conditions sont favorables. Cependant, si le visage du sujet est partiellement obscurci, que la lumière est insuffisante, ou encore de profil plutôt que de face, ce type de logiciel est moins fiable. Néanmoins, selon le National Institute of Standards and Technology (NIST), l’incidence des faux positifs dans les systèmes de reconnaissance faciale a diminué de moitié tous les deux ans depuis 1993. La reconnaissance faciale est déjà utilisée dans de nombreux domaines, et ses possibilités sont infinies.

Exemples d’utilisation de la reconnaissance faciale

Ainsi, une équipe de recherche de l’Université de Carnegie Mellon a développé un prototype d’application pour iPhone qui peut prendre une photo d’une personne et, en quelques secondes, retourner son nom, sa date de naissance et son numéro de sécurité sociale. L’application Google Arts & Culture utilise la reconnaissance faciale pour identifier les « sosies de musée » en faisant correspondre l’empreinte faciale d’une personne réelle à celle d’un portrait. Quant au professeur Shen Hao, de l’Université des communications de Chine, il utilise la technologie de reconnaissance faciale pour suivre la présence des étudiants. Enfin, Amazon, MasterCard et Alibaba ont mis en place des méthodes de paiement par reconnaissance faciale, communément appelées  » selfie pay « .

L’Intelligence Artificielle (IA) est la simulation de processus d’intelligence humaine par des machines. Plus particulièrement, des systèmes informatiques. Ces processus comprennent trois phases. Tout d’abord, l’apprentissage, c’est-à-dire l’acquisition de l’information et ses règles d’utilisation. Puis, le raisonnement, soit l’utilisation de règles pour tirer des conclusions approximatives ou définitives. Et enfin, l’autocorrection. Les applications particulières de l’IA comprennent les systèmes experts, la reconnaissance vocale et la vision par ordinateur.

L’IA peut être classée comme faible ou forte. L’IA faible, ou IA étroite, est un système d’intelligence artificielle conçu et entraîné pour une tâche particulière. Ainsi, les assistants personnels virtuels comme Siri d’Apple, sont une forme d’IA faible. Quant à l’IA forte, ou intelligence générale artificielle, elle dispose de capacités cognitives humaines. Lorsqu’on lui présente une tâche inconnue, un bon système d’IA est capable de trouver une solution, sans intervention humaine.

Les coûts du matériel, des logiciels et du personnel pour l’intelligence artificielle peuvent être élevés. Alors, de nombreux fournisseurs incluent des composants d’IA dans leurs offres standard ainsi que l’accès aux plates-formes AIaaS (Artificial Intelligence as a Service, pour intelligence artificielle en tant que service). L’AIaaS permet aux particuliers et aux entreprises d’expérimenter l’intelligence artificielle et de tester plusieurs plateformes avant de s’engager. Les offres les plus populaires de cloud computing d’intelligence artificielle comprennent les services d’Amazon AI, IBM Watson Assistant, Microsoft Cognitive Services et les services de Google AI.

L’intelligence augmentée pour le grand public

Les outils d’intelligence artificielle présentent un éventail de nouvelles fonctionnalités pour les entreprises. Toutefois, l’utilisation de l’IA soulève des questions éthiques. En effet, les algorithmes de deep learning, ou apprentissage profond, sous-tendent bon nombre des outils d’IA les plus avancés. Néanmoins, leur intelligence dépend des données qu’on leur fournit pendant la formation. Puisqu’un humain choisit les données qui utilisées pour la formation d’un programme d’IA, le risque de biais humain est inhérent et doit être surveillé de près.

Certains experts de l’industrie estiment que le terme  » intelligence artificielle  » est trop étroitement lié à la culture populaire. Alors, le grand public a des craintes irréalistes au sujet de l’IA. Mais aussi des attentes improbables sur la façon dont elle va changer le milieu de travail et la vie en général. Ainsi, les chercheurs et spécialistes du marketing espèrent que l’étiquette « intelligence augmentée », qui a une connotation plus neutre, aidera les gens à comprendre que l’intelligence artificielle améliorera simplement les produits et les services. Mais surtout qu’elle ne remplacera pas les humains qui les utilisent.

Types d’intelligence artificielle

Selon Arend Hintze, professeur adjoint de biologie intégrative, d’informatique et d’ingénierie à la Michigan State University, il y a quatre types d’intelligences artificielles, dont certaines n’existent pas encore. Tout d’abord, les « machines réactives ». Il s’agit par exemple de Deep Blue, le programme d’échecs de IBM qui a battu Garry Kasparov dans les années 1990. Deep Blue peut identifier les pièces sur l’échiquier et faire des prédictions.

Toutefois, il n’a pas de mémoire, si bien qu’il n’apprend pas de ses expériences passées. Il ne fait qu’analyser les mouvements possibles et choisir le plus stratégique. Ainsi, Deep Blue ne peuvent pas être appliqué à d’autres situations. Puis, il y a les « mémoire limitée ». C’est systèmes d’IA peuvent utiliser les expériences passées pour éclairer les décisions futures. Certaines fonctions de prise de décision des voitures autonomes sont conçues ainsi. Néanmoins, ces observations ne sont pas conservées indéfiniment.

Ensuite vient la « théorie de l’esprit », un type d’IA qui n’existe pas encore. Ce terme de psychologie fait référence à la compréhension des croyances, désirs et intentions des autres, qui influencent leurs décisions. Enfin, la dernière catégorie concerne la « conscience de soi », qui n’existe pas encore. C’est-à-dire des intelligences artificielles dotées d’un sens de soi et d’une conscience. Ainsi, elles seraient capables de comprendre leur état actuel, mais aussi déduire ce que ressentent les autres.

Exemples de technologie d’IA

L’intelligence artificielle est intégrée à différents types de technologies, dont voici six exemples.

1. L’automatisation

C’est ce qui fait qu’un système ou un processus fonctionne automatiquement. Par exemple, le RPA (Robotic Process Automation, pour automatisation robotique des procédés) peut être programmée pour exécuter des tâches répétitives plus rapidement que les humains.

2. Le machine learning

L’apprentissage machine est une science qui consiste à faire en sorte qu’un ordinateur agisse sans le programmer. Le deep learning en est un sous-ensemble, qui peut être considéré comme l’automatisation de l’analyse prédictive. Il en existe trois types différents. Tout d’abord, l’apprentissage supervisé, où les ensembles de données sont étiquetés pour que des modèles soient détectés puis réutilisés. Puis, l’apprentissage non supervisé, où les ensembles de données ne sont pas étiquetés, mais sont triés en fonction des similarités ou des différences. Et enfin, l’apprentissage renforcé, où les ensembles de données ne sont pas étiquetés, mais l’IA reçoit une rétroaction après avoir agit.

3. La vision par ordinateur

Il s’agit d’une technologie qui capture et analyse l’information visuelle à l’aide d’une caméra, dans On l’utilise dans l’identification de signature ou encore l’analyse d’images médicales.

4. Le NLP (Natural language processing)

Le traitement du langage naturel est le traitement du langage humain par un programme. La détection de spam en est un vieil exemple. Toutefois, les approches actuelles sont basées sur le machine learning. Elles comprennent donc la traduction de texte, l’analyse des sentiments et la reconnaissance vocale.

5. La robotique

Il s’agit de la conception et la fabrication de robots. Ils sont ensuite utilisés dans les chaînes de montage pour la production automobile, ou encore par la NASA afin de déplacer de gros objets dans l’espace. Les chercheurs tentent désormais d’intégrer le machine learning pour construire des robots qui peuvent interagir dans des contextes sociaux.

6. Les voitures autonomes

Ces véhicules combinent la vision par ordinateur, la reconnaissance d’images et le deep learning. Ainsi, l’intelligence artificielle développe une habileté automatisée à piloter un véhicule. Et ce, tout en restant dans une voie donnée et en évitant les obstacles imprévus, tels que les piétons.

Applications de l’IA

L’intelligence artificielle a fait son chemin dans un certain nombre de domaines. On peut notamment citer celui de la santé. Ainsi, les le machine learning est utilisé pour obtenir de meilleurs diagnostics, plus rapides. L’une des technologies les plus connues est IBM Watson. Il comprend le langage naturel et est capable de répondre aux questions qui lui sont posées. Il exploite les données des patients et d’autres sources de données disponibles pour former une hypothèse, qu’il présente ensuite avec un schéma de notation de confiance.

Dans le domaine des affaires, le machine learning intègre les plateformes d’analyse et les CRM (customer relationship management, pour gestion de la relation client) afin de mieux servir les clients. Les Chatbots intègrent les sites internet pour répondre aux questions et aider les clients. Dans l’éducation, les intelligences artificielles peuvent automatiser la notation, afin de dégager du temps aux professeurs. Ici, les intelligences artificielles pourraient changer la façon dont les élèves apprennent, voire même remplacer certains enseignants.

Dans la finance, l’intelligence artificielle recueille des données personnelles et fournit des conseils financiers. Certains programmes, comme IBM Watson, ont été appliqués au processus d’achat d’une maison. Enfin, l’industrie manufacturière est un domaine qui a été à l’avant-garde de l’intégration des robots dans le flux de travail.

Préoccupations en matière de sécurité et d’éthique

Le concept des voitures autonomes soulève des questions de sécurité et d’éthique. Les véhicules peuvent être piratés. Et dans un contexte d’accident, la responsabilité n’est pas claire. De plus, les voitures autonomes peuvent être mis dans une situation où un accident est inévitable, forçant l’IA à prendre une décision éthique sur la façon de minimiser les dommages. Une autre préoccupation majeure est le risque d’abus des outils d’intelligence artificielle.

En effet, les hackers commencent à utiliser des outils sophistiqués de machine learning pour accéder à des systèmes sensible. Cela complique encore plus la question de la sécurité. Enfin, les outils de création vidéo et audio basés sur le deep learning ont été rapidement détournés pour la création de deepfakes, cette technique de synthèse d’images qui permet une permutation intelligente des visages.

Malgré les risques potentiels, il existe peu de réglementation concernant les intelligences artificielles. Lorsque des lois existent, elles ne s’appliquent qu’indirectement aux IA. Ainsi, le RGPD (Règlement Général sur la Protection des Données) impose des limites strictes à la manière dont les entreprises peuvent utiliser les données des consommateurs. Ce règlement entrave donc l’apprentissage et certaines fonctionnalités d’intelligences artificielles destinées aux consommateurs.

« L’Intelligence Artificielle prend le pouvoir ». La formule d’un porte parole d’Oracle France résume parfaitement l’esprit des très nombreuses annonces produits faites cette semaine lors du Modern Business Experience de Las Vegas.

Oracle a en effet mis des (gros) bouts d’AI dans pratiquement toutes ses solutions SaaS.

Dans l’ERP

Dans son ERP cloud, Oracle a par exemple amélioré l’assistant de notes de frais – un bot dévoilé à l’OpenWorld 2018 mais qui a été mis à jour.

« Il simplifie le traitement en créant, classant et appariant automatiquement les types de dépenses. Les utilisateurs peuvent interagir avec l’assistant via une interface vocale, ou simplement en envoyant à ce dernier des images de reçus par e-mail, SMS, Slack ou Microsoft Teams. L’assistant utilise le Machine Learning pour améliorer la classification automatique des types de dépenses, surveiller les violations de politiques et réduire les risques d’audits », explique l’éditeur.

Dans le contrôle financier, une analyse continue des transactions, des paramétrages et des configurations, automatise les audits et aide à prévenir les fuites financières. « Des algorithmes examinent les changements de configuration et les transactions critiques par rapport à une bibliothèque de règles éprouvées pour repérer les correspondances suspectes, détecter des anomalies, etc. Cette approche utilise des techniques de Data Science pour permettre de diriger les incidents vers les analystes à des fins de suivi, d’enquête et de clôture », vante Oracle.

Dans la brique Supply Chain, l’IA (via le rachat de DataFox) enrichit, catégorise et score les profils des fournisseurs avec des données validées issues de sources diverses actualisées en quasi temps réel (articles de presse, communiqués, communications financières officielles, etc.).

La planification de projet bénéficie également à présent d’un assistant à base d’AI. Ce bot fournit des mises à jour instantanées de l’état du projet et permet aux utilisateurs d’actualiser le temps et la progression des tâches. « Cet assistant apprend à partir des saisies de temps passées, des données de planification de projet et du contexte général pour adapter les interactions et capturer intelligemment les informations critiques du projet ».

La sécurité n’est pas en reste puisque l’ERP utilise l’analyse graphique pour évaluer les violations cachées dans des configurations de sécurité complexes, récursives et dynamiques grâce à l’IA.

Dans Oracle SCM Cloud

Dans son outil spécialement dédié à la chaine d’approvisionnement (Oracle SCM), Oracle a là encore infusé une bonne dose d’Intelligence Artificielle avec l’arrivée de deux nouveautés.

La première, Oracle Service Logistics Cloud, automatise la connexion entre les équipes du service clients et les équipes d’intervention sur le terrain. « Cette connexion permet au service clients de commander les pièces directement depuis une demande d’intervention, de coordonner leur livraison rapide au bon endroit et au bon moment », précise Oracle.Project-Driven Supply Chain Cloud pour sa part est une fonctionnalité qui automatise le suivi des attributs des projets et des coûts associés dès le bon de commande initial pour améliorer la précision et la rapidité de facturation de l’exécution des projets.

Dans le SIRH

Pas assez d’AI pour vous ? Qu’à cela ne tienne. En rab, Oracle en a aussi mis une bonne dose dans son HCM avec un nouveau bot. Les assistants adossés à Oracle HCM Cloud sont évidemment utilisables en libre-service que ce soit par SMS, par la voix ou via IM sur mobiles ou sur le bureau. « Les utilisateurs peuvent obtenir des réponses aux questions RH les plus courantes qui peuvent être posées de milliers de façons différentes, qu’il s’agisse des congés disponibles, des prestations sociales, de l’explication de la fiche de paye, de l’intégration d’un nouveau collaborateur ou encore des évaluations de performance ».

Le SIRH en mode SaaS intègre par ailleurs de nouvelles capacités de planification du personnel à base de Machine Learning qui analysent les disponibilités et la demande par catégories clés (personne, poste, compétences), pour constituer des équipes de manière plus optimales, « proactive et data driven ».

Dans le CRM

La gamme CX n’échappe pas à ce bouillon d’AI, avec deux annonces CRM.

La planification des ventes (Sales Planning Solution) va utiliser l’analyse prédictive pour planifier plus intelligemment les opérations commerciales et, espère Oracle, « augmenter la génération de revenus pour les équipes de vente ».

La deuxième annonce concerne une fonctionnalité baptisée « Smart Data ». Cette fonctionnalité vise à accélérer la création de comptes en enrichissant, validant et standardisant les informations de l’entreprise prospect lors de leur saisie.

DataFox

Cerise sur le gâteau pour terminer ce menu très Intelligence Artificielle servi par Oracle à Las Vegas, l’éditeur a souligné l’intérêt du rachat de DataFox en présentant trois intégrations.

La première est celle décrite plus haut dans l’ERP (scoring des fournisseurs).

La deuxième est une intégration de ces flux de données dans CX Cloud (en plus de Smart Data). « Les données et les signaux dynamiques et contextuels fournis par DataFox aident les commerciaux à élargir leur marché adressable en identifiant les prospects qui ne se trouvent pas dans leurs systèmes actuels à l’aide des critères Ideal Customer Profile (ICP) ».

Enfin, DataFox nourrit également Eloqua (Oracle Marketing Cloud) pour fournir aux spécialistes du marketing « une connaissance inédite du firmographe (NDR : ou firmographics, éléments clef de description d’une société comme la taille, sa localisation, son domaine, etc.) et du comportement des comptes ».

IA pré-cuisinée ou IA fait-maison : il faut choisir

A l’OpenWorld 2018, et dans la foulée du Machine Learning appliqué à la base de données (Autonomous Database), Larry Ellison avait promis l’arrivée massive de l’IA dans le SaaS d’Oracle.

L’éditeur semble tenir parole.

Il est toujours possible – nous a confirmé Oracle France – de ne pas utiliser ces fonctions « intelligentes » intégrées et de choisir d’appliquer directement une autre IA (Watson par exemple) ou des algorithmes maisons à la base de données qui sous-tend l’application. Ce n’est pas ce que recommande Oracle mais, sur le papier en tout cas, cela reste possible pour garder la main sur son patrimoine algorithmique.

Mais la facilité d’une simple activation dans le SaaS – et Oracle dira la puissance de sa R&D et de l’expérience de ses nombreux clients – fait que cette option du développé maison, aussi séduisante soit-elle d’un point de vue stratégique, devient de moins en moins attirante d’un point de vue pratique.

Le débat sur la portabilité de l’apprentissage des algorithmes, du client captif dans le Machine Learning, du fait maison ou de l’externalisé, devient en tout cas de plus en plus cornélien pour les entreprises clientes.

L’Autriche a eu les honneurs de l’évènement européen de Workday. Le spécialiste du HCM et de la planification en a profité pour annoncer avoir doublé le nombre de ses clients (500) sur un an au sein de la zone Europe et Asie-Pacifique plus le Japon (sans pour autant donner une répartition par zone). La firme revendique, sur le sol européen, 1 600 salariés et entend bien conquérir de nouveaux clients notamment des ETI (entreprises de taille intermédiaire), confie le CEO Aneel Bushri. Dans cette stratégie de conquête, l’innovation est souvent un élément important et Workday investi fortement dans la R&D pour apporter les dernières technologies à ses clients.

Il y a bien sûr le cloud avec la capacité pour les clients de Workday de déployer les solutions de gestion financière et de HCM sur les infrastructures AWS. Ce projet a été initié en 2016 (avec des tests au Canada) et il est effectif en cette fin d’année aux Etats-Unis. Cette option sera prochainement disponible en Europe, en Allemagne dans un premier temps (au premier semestre 2019), « sous l’influence du RGPD et les exigences en matière de localisation des données », admet le Aneel Bushri.

De l’IA par infusion

Mais la star des innovations n’est plus le cloud, c’est l’intelligence artificielle. Le nouveau mantra des éditeurs de logiciel est d’intégrer les apports du machine learning et du deep learning au sein de leurs solutions. « Il s’agit d’une machine à prédiction et les technologies doivent être intégrées au sein des solutions », constate Leighanne Levensaler, vice-présidente en charge de la stratégie chez Workday. Les différentes branches de l’éditeur héritent donc de l’expertise de la firme dans l’analytique, mais aussi des différentes acquisitions comme Platfora, le cœur de la plateforme Prism, ou Stories, RallyTeam, SkipFlag.

Tour à tour les responsables de chaque division ou entité de Workday se sont succédé sur scène pour expliquer l’impact du machine learning. Ainsi, Tom Bogan, CEO d’Adaptive Insight (outil de planification budgétaire racheté en juin dernier pour 1,5 milliard de dollars), souligne que « l’intelligence artificielle va impacter le domaine de la planification budgétaire pour les 5 à 10 prochaines années, avec une plus grande automatisation, l’intégration de la gestion du risque, etc. ». En matière de ressources humaines, Workday a lancé récemment un service baptisé Skill Cloud, basé sur de l’apprentissage automatique, pour détecter les meilleures compétences pour une tâche, aider les collaborateurs à améliorer leur profil ou les orienter sur des formations pour une évolution de carrière. Dans le domaine de la gestion financière, le machine learning va servir à faciliter la détection d’anomalies dans les transactions ou la création de rapports mensuels. Workday travaille aussi sur un service « Accouting Center », qui regroupera dans un point unique des règles comptables au sein des entreprises en s’appuyant là aussi sur de l’apprentissage automatique.

Des clients prêts à tester

Et les clients sont-ils sensibles à l’intégration de l’IA au sein des produits Workday ? Dans les ressources humaines, l’intérêt pour les bots est réel. Chez la SSII Umanis, qui va déployer la solution HCM de Workday, on regarde la mise en place d’un chatbot à destination des collaborateurs pour être « un support dans la gestion du changement sur les nouveaux outils et servir de « lab interne » sur ce sujet », souligne François Bouchery, program manager. L’ESN souhaite travailler avec Workday pour être un « early adopter » en la matière. Elle regarde plus globalement l’IA pour aider à la mobilité interne « en détectant les bonnes compétences et les bonnes personnes correspondantes aux opportunités de carrière », poursuit le responsable.

Pour d’autres clients, la question de l’IA repose sur la maturité d’intégration des solution Workday. « L’IA va nous servir à mieux comprendre notre business et ses évolutions », explique Emma Castledine, responsable du reporting et gestion des risques chez Gym Group, une chaîne anglaise de salles de sport. L’automatisation des tâches, obtenir et visualiser les meilleures informations pertinentes pour des tableaux de bord, sont d’autres bénéfices de l’IA attendus par les entreprises.

On connaissait déjà les avancées de Google en matière d’intelligence artificielle pour le grand public, notamment avec son spectaculaire Duplex, une fonctionnalité de Google Assistant qui permet de passer des appels à votre place pour réserver une table de restaurant ou un rendez-vous chez le coiffeur. En ce début d’année, c’est au tour des développeurs d’être chouchoutés par la firme de Mountain View avec trois nouveaux périphériques qui viennent d’être mis à leur disposition.

La filiale d’Alphabet a en effet levé le voile sur sa gamme Google Coral, qui réunit une carte de développement à 149,99 dollars, un accélérateur USB à 74,99 dollars et un appareil photo de 5 mégapixels à 24,99 dollars. Ces nouveaux outils sont désormais disponibles dans la boutique Coral de Google dans le cadre d’une version bêta ouverte. Cette semaine, le géant américain a également lancé la version alpha de TensorFlow 2.0, un outil très plébiscité par les développeurs pour créer des applications de machine learning. 

Les géants américains en opération séduction auprès des développeurs 

Cependant, aucun de ces nouveaux outils commercialisés par Google n’est conçu pour entraîner des algorithmes de machine learning. Cette tâche nécessite en effet des GPU, processeurs dédiés au traitement des données graphiques, ou une puissance de traitement plus conséquente dans le coud. Toutefois, grâce à l’apport des puces Edge TPU, conçues pour injecter de l’intelligence artificielle dans les objets connectés, la carte de développement et l’accélérateur USB présentés par Google permettent d’exécuter des modèles d’intelligence artificielle sans sur-solliciter les capacités des deux périphériques. 

Et pour cause, les puces TPU de Google fonctionnent de manière plus efficace sans avoir besoin d’une connexion Internet dédiée ou d’une source d’énergie importante. La carte de développement et l’accélérateur USB prennent en charge TensorFlow Lite, une version allégée du framework d’intelligence artificielle de Google conçue pour les appareils mobiles et les objets connectés. Quant à l’appareil photo, fabriqué par Omnivision, il s’agit d’un complément pour la carte de développement. 

Avant Google, Intel avait également proposé des produits similaires aux développeurs, à l’image de son accélérateur USB, le Neural Compute Stick, alimenté par Movidius. Des produits de ce calibre permettent à des géants comme Google de séduire la communauté des développeurs pour stimuler l’adoption de leurs autres services d’intelligence artificielle. Preuve de l’intérêt des mastodontes américains pour les développeurs, Microsoft avait frappé fort l’an passé en mettant la main sur GitHub, célèbre plateforme collaborative dédiée au partage de code source, pour 7,5 milliards de dollars. Cette acquisition a permis à la firme de Satya Nadella de s’offrir le plus gros écosystème de développeurs au monde.

L’opération sera réalisée en deux temps. Appen va d’abord débourser 175 millions de dollars avant de procéder à un paiement supplémentaire pouvant aller jusqu’à 125 millions de dollars en fonction des performances de Figure Eight en 2019. Au total, la transaction pourrait donc s’élever à 300 millions de dollars. L’accord doit être finalisé début avril.

Fondée à San Francisco en 2007, Figure Eight a mis sur orbite une plateforme permettant d’obtenir des données structurées de haute qualité pour le machine learning et l’intelligence artificielle. Concrètement, la société américaine, précédemment baptisée «CrowdFlower» et «Dolores Labs», s’attèle à transformer des données non-structurées (texte, image, audio, vidéo…) en données utilisables pour des produits embarquant de l’intelligence artificielle. 

Des «travailleurs du clic» pour faire progresser les algorithmes d’IA 

Pour y parvenir, les plateformes de «micro-travail» comme Figure Eight et Appen font appel à des «travailleurs du clic» qui sont payés pour réaliser des micro-tâches en ligne (identifier ou nommer des objets sur des images, traduire des morceaux de texte…) afin d’alimenter l’intelligence artificielle en données. Autrement dit, les algorithmes d’intelligence artificielle sont nourris par des humains, rémunérés quelques centimes pour remplir ces tâches répétitives et peu qualifiées, de manière à les faire progresser.  

Les données émanant de ces micro-tâches permettent ainsi de développer l’intelligence artificielle pour la conduite autonome, l’identification de produits dans les rayons d’un supermarché, le traitement du langage naturel ou encore les chatbots intelligents. Figure Eight avait levé 58 millions de dollars au total depuis sa création après d’investisseurs comme Trinity Ventures, Canvas Ventures et Salesforce Ventures.

L’acquisition de Figure Eight permet à Appen de muscler sa technologie. En 2017, l’entreprise australienne avait déjà mis la main sur Leapforce, une autre société californienne spécialisée dans l’annotation de données. «La première étape consistait à prendre de l’ampleur, la deuxième était de conforter notre avance technologique, ce que nous obtenus avec Figure Eight», explique Mark Brayan, CEO d’Appen. Ce dernier estime en effet que cette opération va permettre à son groupe de capitaliser davantage sur les opportunités offertes par l’intelligence artificielle. A ce jour, Appen assure collaborer avec plus d’un million de «travailleurs du clic» dans plus de 130 pays.

De nouvelles solutions pour répondre aux besoins d’une nouvelle génération

La solution est simple à expliquer mais difficile à exécuter : Faire en sorte que l’expérience client en ligne soit aussi agréable, sinon meilleure, que celle en magasin. L’ingrédient manquant ici est une voix. C’est une voix au sens figuré (les consommateurs devraient être écoutés), au sens propre (les consommateurs devraient pouvoir utiliser le langage pour orienter leur expérience d’achat) et au sens pratique (les marques doivent avoir un ton clair et sans ambiguïté).

Starbucks, qui parle Millennial mieux que n’importe quelle autre marque, a brillamment exécuté ce point. L’application de l’entreprise permet aux clients d’utiliser leur propre langage pour passer leur commande avant d’arriver en magasin. Starbucks l’a bien compris, la commodité est essentielleet le traitement du langage naturel rend la commande plus personnelle et confortable.

Les clients férus de technologie exigent de la qualité

Laisser les clients exprimer leurs besoins à l’avance est beaucoup plus pratique, et l’intelligence artificielle y contribue.

Dans le cadre d’une expérience shopping sans technologie, les clients pourraient facilement perdre leur temps, ce qui les rendrait moins susceptibles de revenir vers la marque en question. Mais l’IA offre une alternative : ce qu’on appelle le « frictionless commerce », qui intègre les achats de façon harmonieuse dans la vie courante.

A.T. Kearney a constaté dans un sondage paru en 2017 que les marques se tournent de plus en plus vers l’expérience client personnalisée. Certaines marques peuvent déjà initier automatiquement des achats autorisés par le consommateur sur la base des données en temps réel du comportement de l’utilisateur.

Tout cela se produit en ce moment même, et il ne faudra pas attendre longtemps avant que les clients en viennent à exiger ce niveau de service tout le temps.

L’IA continuera d’évoluer

Dans 20 ans, le concept d’une liste de courses deviendra aussi démodé que l’alphabet phénicien. L’automatisation intelligente permettra même aux clients d’éviter les tracas liés à la commande de produits. Des recherches ont montré que les clients sont prévisibles et que 83 % des sessions shopping se terminent par un achat répété, ce qui signifie que l’IA peut faire la plupart des achats pour vous.

Une fois que l’IA saisit la fréquence d’un utilisateur pour des achats standard comme le pain ou les chaussettes, par exemple, elle peut automatiser les achats pour ces articles après qu’une période de temps donnée se soit écoulée depuis le dernier achat. L’AI peut proposer des suggestions pour approuver ou refuser un achat à venir.

Des entreprises tournées vers l’avenir ont déjà lancé ce type de service. Le bouton Dash d’Amazon permet aux membres Prime de commander à nouveau leurs produits les plus fréquemment achetés en un seul clic.

Par ailleurs, un service appelé Boxed Concierge, qui fait actuellement l’objet d’un projet pilote, peut automatiquement passer des commandes en gros de produits fréquemment achetées. Espérons que cette technologie contribuera à réduire le gaspillage et nous encouragera, en tant que consommateurs, à n’acheter que ce dont nous avons vraiment besoin en quantité suffisante.

Mark Baartse, directeur marketing de Showpo, une société de mode en ligne, a expliqué lors de la Semaine de la publicité APAC comment sa société aborde l’IA.

« Nous personnalisons, avec notre merchandising visuel géré par AI, les vêtements qui sont affichés différemment pour chaque utilisateur en fonction d’une panoplie de signaux d’intention. Grâce à cette technologie, nous contribuons à améliorer la possibilité de découvrir des produits pertinents pour chaque utilisateur individuel, ce qui devrait améliorer le taux de conversion. »

Intelligente et bien conçue, l’IA peut aider les gens à profiter d’un service client continu et transparent ; il n’y aura plus d’achats à côté de la plaque. C’est ce que veut cette nouvelle génération, et c’est ce que les distributeurs devraient leur donner.

L’intelligence artificielle a changé beaucoup d’industries, mais c’est peut-être le commerce de détail qui a le plus à gagner parce que la clientèle des Millennials est toujours un enjeu majeur et qu’elle réagit à un tout autre ensemble d’incitatifs que les générations passées.

Avez-vous déjà rêvé d’une personne au hasard avec qui vous êtes allé au lycée ? Ou d’un rêve prémonitoire prédisant un embouteillage sur le trajet de votre travail ? Ou que diriez-vous d’un rêve insensé avec des monstres et d’étranges personnages, sans scénario bien précis, qui perturberait votre sommeil ?

Les rêves font partie de l’expérience humaine, et ils déroutent les mystiques, les scientifiques et les gens ordinaires. En apparence, les rêves peuvent sembler profonds et déroutants et, en réalité, leur fondement scientifique continue d’échapper aux psychologues du rêve et aux biologistes. Les rêves pourraient-ils être un mystère mieux résolu grâce à l’intelligence artificielle ? Pourrions-nous un jour avoir un algorithme de machine learning qui pourrait prédire et analyser nos rêves ?

Les défis des rêves

Les rêves présentent une variété de défis pour les chercheurs en IA :

Compréhension scientifique

Malgré des années de collaboration entre biologistes, psychologues et autres professionnels scientifiques pour mieux comprendre les rêves, il y a encore beaucoup de choses que nous ne comprenons pas. Certaines théories prétendent que les rêves sont statiques au hasard dans le cerveau, tandis que d’autres les décrivent comme une sorte de simulateur pour nous préparer à la vie éveillée, et d’autres encore les voient comme un moyen de nous aider à consolider et à stocker des souvenirs à long terme. Sans cette compréhension de base, il est difficile d’élaborer une solution qui puisse les sonder et les disséquer.

Écart individuel

Tous les gens ne rêvent pas de la même façon. Un algorithme qui pourrait prédire les rêves d’une personne ne peut pas nécessairement prédire ceux d’une autre personne, selon ses antécédents, ses habitudes de sommeil et d’autres variables.

Motivation

C’est fascinant de réfléchir à ses rêves bizarres, de se demander ce qui vous a poussé à inventer ces images, mais au-delà de la curiosité, il n’y a pas beaucoup de motivation pour apprendre pourquoi et comment les gens rêvent. Il n’y a pas d’incitatif financier ou autre.

Enregistrement des rêves

Des chercheurs du Gallant Lab de l’Université de Californie ont déjà un algorithme qui peut traiter l’activité cérébrale pour former une image reconnaissable. Dans leur recherche, ils ont demandé aux participants de regarder des bandes-annonces de films et de réfléchir activement à ce qu’ils regardaient. En n’utilisant que des images cérébrales, ils ont pu recréer de vagues images des bandes-annonces qu’ils regardaient. Si la même technologie est appliquée aux rêves, elle pourrait nous permettre de voir des images associées aux rêves d’une personne.

Le principal problème ici est la résolution ; bien que les chercheurs aient été capables d’analyser certaines formes et couleurs, ils n’ont pas été capables de reconstruire une vidéo haute résolution des pensées d’une personne. L’intelligence artificielle pourrait aider à faire passer ces algorithmes à un niveau supérieur, bien qu’il ne soit pas certain que nous rêvions d’abord en haute résolution.

Analyse des habitudes de sommeil

Certaines entreprises émergent également, offrant des solutions basées sur l’IA qui aident les clients à comprendre leurs habitudes de sommeil, comme Sleep.ai. Ces applications pour les consommateurs surveillent habituellement des choses comme le ronflement, le grincement des dents, le balancement et la rotation à l’aide d’appareils portables ou de téléphones intelligents, puis fournissent des images de données et des outils de diagnostic pour aider les consommateurs à mieux dormir. Combiné à un certain niveau de surveillance des rêves, il pourrait être utilisé pour identifier et prédire les tendances futures.

Prévision des rêves et influence

La prochaine étape logique consisterait à utiliser l’IA d’abord pour reconnaître comment les gens rêvent, puis à utiliser ces données (combinées à des données historiques) pour prévoir comment une personne pourrait rêver dans l’avenir. Les techniques du rêve lucide familiarisent déjà les consommateurs avec les stratégies qu’ils peuvent utiliser pour maîtriser la conscience de leurs propres rêves. Le problème est de combler l’écart entre l’instinct du consommateur et l’analyse objective des données.

L’un des plus gros problèmes ici est la disponibilité des données ; il y a d’innombrables variables qui affectent la façon dont nous dormons et rêvons, dont beaucoup sont encore mal comprises par les scientifiques. Bien que nous ayons les outils nécessaires pour recueillir ces données, nous n’avons pas nécessairement les outils nécessaires pour mesurer objectivement leur impact sur les rêves (c.-à-d., enregistrer des images de rêves).

L’autre problème, c’est d’établir des prévisions raisonnablement exactes à partir de ces chiffres et des données fournies par les consommateurs. Ce problème pourrait être résolu avec une IA suffisamment avancée, même avec nos capacités actuelles, mais il faudrait encore du temps pour qu’il se développe.

Est-ce vraiment possible ?

Est-il donc possible pour nous d’utiliser le machine learning pour mieux comprendre nos rêves ? Presque certainement. Nous sommes déjà sur le point de comprendre pleinement ce que sont les rêves et comment ils fonctionnent, et nous serons bientôt en mesure de projeter les rêves des gens comme s’ils étaient sur un projecteur de film. Il faudra quand même une combinaison d’innovation technologique, de connaissances scientifiques et d’un désir collectif de faire progresser cette technologie jusqu’au stade du développement, ce qui pourrait prendre des années, voire des décennies, avant que nous ayons un algorithme ou un dispositif fonctionnel.

Qu’est-ce que l’intelligence artificielle ?

L’intelligence artificielle est une branche de l’informatique qui vise à faire des machines simuler les processus de l’intelligence humaine. De cette façon, un système d’IA peut reconnaître les points communs d’un ensemble de données et faire des prédictions intelligentes. Les systèmes d’IA sont généralement plus aptes à faire des prédictions à l’aide d’une technique appelée machine learning.

Comme elles imitent l’action humaine et la pensée rationnelle, les machines intelligentes peuvent être programmées pour atteindre divers objectifs tels que la conduite autonome des voitures et l’identification des tendances d’achat. Cette technologie étonnante s’est développée au fil des ans. Actuellement, les systèmes d’intelligence artificielle sont utilisés dans divers secteurs de l’économie pour accroître l’efficacité et maximiser la production.

L’IA dans le secteur de la santé

Les systèmes d’intelligence artificielle ont été utilisés dans le secteur de la santé pour propulser sa croissance. Récemment, Google a créé une IA qui peut être utilisée pour prédire la mort d’un patient de façon catastrophique. Pour développer le système intelligent, le géant de la technologie a collaboré avec d’autres experts de l’Université de San Francisco, Californie, l’Université de médecine de Chicago et Stanford Medicine. Étonnamment, Google prétend que l’IA peut prédire quand un patient pourrait mourir plus précisément que les autres modèles traditionnels utilisés par les médecins.

Comment fonctionne l’IA Google

Google a publié les résultats de l’essai de la prédiction de la mort dans un article de journal en mai 2018. Le système fonctionne en recueillant des données sur divers détails concernant un patient, tels que l’âge, le sexe, l’origine ethnique, le diagnostic antérieur, les signes présents et les résultats de laboratoire. De plus, le système peut aussi prendre des données enfouies dans des graphiques et des PDF et les utiliser pour faire des prédictions. Après avoir testé l’algorithme, Google a découvert qu’il pouvait faire des prédictions de décès avec une précision étonnante de 95%, ce qui est 10% plus précis que les modèles traditionnels.

Dans l’une des études de cas, le logiciel d’IA de Google a extrait environ 176 000 points de données des dossiers d’une femme atteinte d’un cancer métastatique et a déclaré qu’elle avait 19,9 % de risques de mourir à l’hôpital. Les médecins de l’hôpital lui avaient donné 9,3 % de chances de mourir. Étonnamment, comme le prédit le logiciel d’IA, la femme est morte après deux semaines, battant les médecins à leur propre jeu.

Bien que l’IA de Google ne soit peut-être pas parfaite pour prédire les décès, elle continuerait de donner de meilleurs résultats puisqu’elle est  » enseignée  » avec plus de données. Par conséquent, si cette technologie de pointe dans le domaine des soins de santé est améliorée, elle peut réduire le nombre d’erreurs humaines en médecine et permettre de sauver plus de vies.

En résumé

La technologie d’intelligence artificielle de Google peut aider les professionnels de la santé à améliorer le diagnostic et à prendre de meilleures décisions, ce qui se traduira par une amélioration des soins aux patients. Donc, la prochaine fois que vous visiterez l’hôpital, demandez s’il est possible de comparer l’algorithme d’IA à vos dossiers et d’évaluer vos chances de survie.

Allez-vous franchir le pas ?