Tag

intelligence artificielle

Browsing
⌚:  4 minutes

Les plateformes collectent des données à partir de nombreuses sources. Et les avantages sont multiples pour le fournisseur et les sociétés membres. En effet, ces données récoltées peuvent permettre à la société derrière la plateforme de prendre des décisions commerciales intelligentes. Mais aussi d’ouvrir de nouveaux marchés à ses membres. Alors, qu’un opérateur choisisse de les analyser lui-même ou de les vendre à d’autres acteurs, le Big Data représente de l’argent à gagner.

Les données pour établir une connexion

Deere & Company est un groupe basé à Moline, dans l’Illinois. Il est notamment connu pour fabriquer des tracteurs agricoles et autres machines lourdes de la marque John Deere. La majeure partie de son chiffre d’affaires annuel, de 26 milliards de dollars, est réalisé de façon traditionnelle. C’est à dire que la société vend ou loue de l’équipement à des fermes et à des entreprises de construction.

Pourtant, cette entreprise gérée de façon conservatrice a lancé la plateforme numérique myjohndeere.com, en 2013. Ainsi, elle a pu établir une connexion directe avec les agriculteurs. A l’origine, cette plateforme a été créée pour permettre aux propriétaires d’équipements John Deere d’accéder aux pièces détachées. Mais aussi aux autres offres de l’entreprise. Toutefois, myjohndeere.com fournit à l’entreprise une autre source de revenus potentiels : le Big Data.

Par exemple, la société a installé des capteurs sur ses tracteurs, connectés à internet. Ces derniers enregistrent et transmettent des données sur la consommation de carburant. Ainsi que d’autres paramètres utiles aux agriculteurs. Deere & Company vend également de l’équipement de surveillance, appelé Field Connect. Celui-ci recueille des données supplémentaires sur l’humidité du sol et la température. Mais aussi sur la vitesse du vent et les précipitations. Ensuite, ces données sont mises à la disposition des agriculteurs sur la plateforme myjohndeere.com.

Le Big Data attire les opportunités

« Nous n’avions jamais eu ces données auparavant », a déclaré Geoffrey G. Parker, professeur à la Thayer School of Engineering du Dartmouth College à Hanover, New Hampshire. Le coauteur du livre « Platform Revolution » a étudié la plateforme de Deere & Company. Et selon lui, il faut penser au tracteur « comme à un Mars Rover capturant des données ».

Le professeur rappelle que l’utilisation principale des données agricoles est d’aider les agriculteurs à améliorer la productivité de leur exploitation. Toutefois, ces données pourraient aussi être un bien précieux pour les entreprises agricoles. Celles-ci pourraient s’en servir pour élaborer leur stratégie d’investissement. « Si M. Deere agrégeait les données d’un nombre suffisant de fermes et vendait ce flux de données, cela donnerait des prévisions assez précises sur la production agricole de l’année prochaine. Ce qui lui donnerait un avantage financier énorme ».

Selon Michael Blitz, Directeur Général d’Accenture Technology Labs, le Big Data attire les opportunités. « Chaque nouveau service vous donnera plus de données. Et plus vous en aurez, plus vous comprendrez ce qui se passe réellement. Cela permettra aux gens de créer des services entièrement nouveaux ».

Traiter et analyser les données

Comme le suggère l’exemple de Deere & Company, les entreprises ayant des modèles d’affaires bien établis ont le potentiel d’utiliser les plateformes. Et pas seulement pour présenter leurs produits et services. Egalement comme source de données détaillées sur les utilisateurs. Les données recueillies via l’IoT (Internet of Things, ou internet des objets) puis analysées par des algorithmes d’intelligence artificielle (IA) deviennent une source précieuse d’informations commerciales. Pour Michael Biltz, « la possibilité de partager les données des clients avec des tiers fait partie des avantages des plates-formes ».

Et selon lui, « les entreprises réalisent très vite que les données qu’elles collectent ont plus de valeur pour leurs partenaires que pour elles-mêmes ». Le Directeur Général d’Accenture Technology Labs cite l’exemple des entreprises spécialisées dans les soins de santé. Celles-ci recueillent les dossiers médicaux électroniques des hôpitaux sur les maladies. Mais aussi les tests effectués et les produits pharmaceutiques utilisés pour les traitements. Bien que ces données puissent être utiles aux hôpitaux, elles le sont encore plus pour les compagnies pharmaceutiques. Notamment pour la recherche sur les effets de différents médicaments. Ou encore pour les essais cliniques, ainsi que pour décrypter les tendances dans les soins de santé.

Sangeet Paul Choudary, co-auteur du livre Platform Revolution, dirige une plateforme de conseil à Singapour. Il cite l’exemple d’un grand client bancaire qui a mis en place une plateforme immobilière pour aider les acheteurs à naviguer dans le processus d’achat d’une maison. Ainsi, les clients peuvent croiser les annonces de maisons avec des informations sur les écoles et quartiers voisins. Et la banque a pu utiliser les données recueillies sur le site Web pour cibler des offres de prêts à destination des couples qui achètent une maison.

Créer de la valeur avec le Big Data

Pour beaucoup d’entreprises, le processus de collecte et d’analyse de Big Data est trop compliqué pour être rentable. Alors, les sociétés spécialisées dans le Big Data peuvent intervenir pour proposer des services d’analyse. Selon Annabelle Gawer, codirectrice du Centre for the Digital Economy de l’Université de Surrey, en Angleterre, le Big Data est une opportunité professionnelle. « Avec la capacité accrue de se connecter sur des plates-formes et la capacité accrue d’analyser les données, vous allez voir émerger des entreprises qui trouvent les bons modèles d’affaires pour combiner ces deux éléments afin de créer de la valeur ».

De plus, les plates-formes numériques sont particulièrement bien placées pour bénéficier de l’intelligence artificielle. En effet, des algorithmes sophistiqués peuvent non seulement analyser les données, mais aussi améliorer continuellement leur analyse en tirant des enseignements des données. Ainsi, les grandes entreprises chinoises investissent massivement dans la technologie de l’intelligence artificielle. Et plus particulièrement dans le « machine learning« , la technologie de « l’apprentissage machine ».

Selon Peter Evans, directeur de l’Innovation Enterprise Solutions chez KPMG, un cabinet de conseil de la région d’Atlanta, « Leur modèle d’affaires est très axé sur la collecte de données et la facilitation de l’interaction ». Il ajoute assister à une adoption massive de l’intelligence artificielle par les plateformes en ligne. « Je vois beaucoup de plateformes graviter vers l’intelligence artificielle, plus rapidement que d’autres entreprises ».

Convolutional Neural Network

⌚: 2 minutes

Un convolutional neural network (CNN) est un type de réseau neuronal artificiel utilisé dans la reconnaissance et le traitement d’images et spécifiquement conçu pour traiter les données de pixels.

Les convolutional neural network sont de puissants systèmes de traitement d’images, d’intelligence artificielle (IA) qui utilisent un apprentissage approfondi (deep learning) pour effectuer des tâches à la fois génératives et descriptives, souvent à l’aide de vison machine qui inclut la reconnaissance d’images et de vidéos, ainsi que des systèmes de recommandation et le traitement du langage naturel (NLP).

Un réseau de neurones est un système de matériel et/ou de logiciel conçu d’après le fonctionnement des neurones du cerveau humain. Les réseaux neuronaux traditionnels ne sont pas idéaux pour le traitement des images et doivent être alimentés en images à résolution réduite. Les « neurones » des CNN sont disposés de manière à ressembler davantage à ceux du lobe frontal, la zone responsable du traitement des stimuli visuels chez l’homme et les autres animaux. Les couches de neurones sont disposées de manière à couvrir l’ensemble du champ visuel, évitant ainsi le problème du traitement d’images par morceaux des réseaux neuronaux traditionnels.

Un CNN utilise un système semblable à un perceptron multicouche qui a été conçu pour des besoins de traitement réduits. Les couches d’un CNN se composent d’une couche d’entrée, d’une couche de sortie et d’une couche cachée qui comprend plusieurs couches convolutionnelles, des couches de regroupement, des couches entièrement connectées et des couches de normalisation. La suppression des limitations et l’augmentation de l’efficacité pour le traitement des images aboutissent à un système beaucoup plus efficace, plus simple à former, et spécialisé pour le traitement des images et le traitement du langage naturel.

Qu’est ce que Amazon AI

⌚: 3 minutes

C’est un ensemble de services d’intelligence artificielle (IA) qui offrent des technologies d’apprentissage machine et d’apprentissage profond pour les clients d’Amazon Web Services (AWS). Ces services, appelés Amazon Lex, Amazon Polly, Amazon Rekognition et Amazon Machine Learning, sont accessibles via une API ou la console de gestion AWS.

La suite de services AI de Amazon peut avoir des conversations textuelles ou vocales avec un utilisateur final en utilisant une interface conversationnelle, ChatOps. Elle dispose également de services qui peuvent comprendre les langues humaines, transformer le texte en parole et analyser les images pour identifier des lieux, des visages et des objets. Les services de reconnaissance vocale, de synthèse vocale, de reconnaissance d’images et d’apprentissage automatique sont évolutifs et entièrement gérés, ce qui permet à un développeur d’inclure la technologie dans une application sans avoir à apprendre des algorithmes ou à gérer l’infrastructure de soutien.

Options des services d’Amazon

Amazon Lex permet à un développeur de construire des interfaces conversationnelles dans des applications. Amazon Lex utilise la reconnaissance automatique de la parole pour convertir la parole en texte et le traitement du langage naturel (NLP) pour comprendre l’instruction orale. La technologie d’apprentissage approfondi permet à un développeur de construire une application qui peut avoir des interactions réalistes, comme le service Amazon Alexa qui alimente Amazon Echo. Un développeur peut utiliser ce service pour créer des robots de conversation, également appelés « chatbots« .

Amazon Polly permet à un développeur d’ajouter des capacités de parole à sonorité naturelle dans des applications. Un développeur envoie un texte à Amazon Polly par le biais d’un kit de développement logiciel ou de la console de gestion AWS, et Polly le synthétise en une parole à consonance humaine. Amazon Polly fournit plus de 40 voix dans 20 langues.

Amazon Rekognition utilise la reconnaissance faciale, d’objets et de scènes pour analyser les images et prendre des décisions sur leur contenu. Amazon Rekognition fournit également des fonctions de recherche d’images et de comparaison de visages qu’un développeur peut utiliser dans une application. Le service étiquette les objets et les personnes qui l’utilisent à l’aide de technologies préprogrammées de réseaux neuronaux profonds qui sont basées sur la technologie qu’Amazon utilise en interne pour analyser les images dans Prime Photos.

Amazon Machine Learning permet à un développeur d’identifier des modèles dans les données de l’utilisateur final par le biais d’algorithmes et de créer des modèles mathématiques basés sur ces modèles pour des applications d’analyse prédictive.

AlphaGo

⌚: 3 minutes

AlphaGo est une intelligence artificielle (IA) spécialisé pour jouer au Go, un jeu de stratégie chinois, contre des concurrents humains. AlphaGo est un projet de Google DeepMind.

La capacité à créer un algorithme d’apprentissage capable de battre un joueur humain aux jeux de stratégie est une mesure du développement de l’IA. AlphaGo est conçu comme une IA autodidacte et joue contre lui-même pour maîtriser le jeu stratégique complexe du Go. Il y a eu des versions d’AlphaGo qui ont battu des joueurs humains, mais de nouvelles versions sont encore en cours de création.

Le Go est un jeu de plateau chinois similaire aux échecs avec deux joueurs, l’un utilisant des pièces noires et l’autre des pièces blanches, plaçant une pièce à chaque tour. Les pièces sont placées sur une grille dont la taille varie en fonction du niveau de jeu jusqu’à 19×19 points de placement. Le but est de capturer plus de territoire (espaces vides) ou de pièces ennemies en les entourant avec vos pièces. Seules les positions qui sont horizontales et verticales par rapport aux joueurs doivent être couvertes pour capturer ; il n’est pas nécessaire qu’elles soient toutes diagonales. Les pièces ou le territoire peuvent être capturés individuellement ou en groupe.

Les échecs sont peut-être un jeu de société plus connu avec des pièces blanches et noires, mais le Go a des règles qui offrent plus de possibilités de mouvements. Le nombre de positions possibles rend impossible une approche traditionnelle par force brute, comme celle utilisée avec le Big Blue d’IBM aux échecs, avec les ordinateurs actuels. Cette différence de complexité du problème a nécessité une nouvelle approche.

AlphaGo est basé sur un algorithme de Monte Carlo basé sur une recherche arborescente en regardant une liste de coups possibles de son répertoire appris par machine. Les algorithmes et l’apprentissage diffèrent selon les différentes versions d’AlphaGo. AlphaGo Master, la version qui a battu le champion du monde de go Ke Jie, utilise l’apprentissage supervisé. AlphaGo Zero, la version à apprentissage non supervisé d’AlphaGo, apprend en jouant contre lui-même. D’abord, l’IA joue au hasard, puis avec une sophistication croissante. Sa sophistication accrue est telle qu’elle bat constamment la version Master qui domine les joueurs humains.

AI Governance

⌚: 6 minutes

La gouvernance de l’IA est l’idée qu’il devrait y avoir un cadre juridique pour garantir que les technologies d’apprentissage machine (ML) sont bien étudiées et développées dans le but d’aider l’humanité de manière équitable dans l’adoption des systèmes d’IA. En traitant les questions relatives au droit d’être informé et aux violations qui peuvent se produire, la AI Governance vise à combler le fossé qui existe entre la responsabilité et l’éthique dans le progrès technologique. En raison de l’augmentation de la mise en œuvre de l’intelligence artificielle dans tous les secteurs, y compris la santé, les transports, l’économie, les affaires, l’éducation et la sécurité publique, la préoccupation de définir définitivement la AI Governance est de plus en plus grande.

Les principaux domaines d’intérêt de la gouvernance de l’IA sont l’IA en ce qui concerne la justice, la qualité des données et l’autonomie. Cela implique d’identifier les réponses aux questions relatives à la sécurité de l’IA, de déterminer les secteurs appropriés et inappropriés pour l’automatisation de l’IA, de définir les structures juridiques et institutionnelles qui doivent être impliquées, le contrôle et l’accès aux données personnelles et le rôle des intuitions morales et éthiques dans l’interaction avec l’IA. Dans l’ensemble, la gouvernance de l’IA détermine la part de la vie quotidienne qui peut être façonnée par les algorithmes et qui est en charge de la surveillance.

Lorsque des algorithmes d’apprentissage automatique sont impliqués dans la prise de décisions, la gouvernance de l’IA devient une nécessité. Il a été observé que l’apprentissage machine peut avoir des effets négatifs sur le profil racial, refuser injustement des prêts à des personnes et identifier de manière incorrecte des informations de base sur les utilisateurs. Le développement de la gouvernance de l’IA aidera à déterminer comment gérer au mieux les scénarios où les décisions basées sur l’IA sont injustes ou en contradiction avec les droits de l’homme.

Les organisations qui se concentrent sur l’avenir et le développement de la gouvernance de l’IA sont l’Initiative pour l’éthique et la gouvernance de l’IA, un projet conjoint du Media Lab du MIT et du Centre Berkman-Klein pour l’Internet et la société de Harvard, et le comité de la Maison Blanche sur l’avenir de l’intelligence artificielle, annoncé par l’administration Obama en 2016. Ces deux initiatives complètent des recherches importantes et ouvertes au public pour étudier et hiérarchiser les implications sociétales et politiques de l’intelligence artificielle. Cependant, il existe encore un grand vide dans le cadre juridique de la responsabilité et de l’intégrité de l’IA.

AI For Good

⌚: 6 minutes

AI for Good est une organisation caritative publique et une plateforme des Nations unies qui organise des sommets annuels à Genève, en Suisse, pour discuter de l’utilisation bénéfique de l’intelligence artificielle (IA). L’organisation a été fondée en 2015 et héberge des opérations satellites à Boston, New York, San Francisco, Londres, Ljubljana et Christchurch.

Dans AI for Good, des chercheurs interdisciplinaires, des gouvernements, des organisations à but non lucratif et d’autres professionnels travaillent ensemble pour traiter les problèmes et éduquer les individus sur l’impact de l’IA. Les membres et collègues associés à l’organisation comprennent des experts dans des domaines tels que les sciences sociales, les sciences politiques et les sciences des données de l’AI.

Thèmes du sommet AI for Good

Un sommet sur l’IA for good se concentre généralement sur de nombreux sujets entourant l’IA, sous forme de panels et d’ateliers. Les participants au sommet identifient et sélectionnent certains des panels et sujets proposés afin de décider des ressources et des étapes futures nécessaires pour faire avancer les panels sélectionnés en tant que projet.

À titre d’exemple de ce que couvrent les panels et les ateliers du sommet, voici quelques-uns des panels du sommet de 2019 :

  • Scaling AI for Good – qui enseigne les projets à échelle réduite qui ont réussi sur Internet, les données et l’IA.
  • Santé et bien-être – qui examine les initiatives d’IA existantes dans différents pays, les modèles d’adoption de l’IA et les cas d’utilisation qui bénéficient à l’IA pour la santé.
  • Science for good, l’intelligence artificielle pour la science – qui explore comment l’intelligence artificielle aide les scientifiques à trouver des solutions aux problèmes les plus urgents.
  • L’IA et l’agriculture – qui partage toute innovation ou proposition concernant les progrès dans l’utilisation de l’IA pour l’agriculture intelligente.
  • L’avenir d’une mobilité intelligente et sûre – qui se concentre sur l’utilisation de l’IA dans les voitures particulières, la sécurité automobile et la sécurité routière.
  • Culture et récits à l’ère de l’IA interactive – traite des récits automatisés basés sur la collecte de données.
  • Conséquences inattendues de l’IA – analyse le potentiel de déploiement de l’IA à l’échelle mondiale qui pourrait causer des problèmes qui ne sont pas clairs à plus petite échelle.

L’IA pour les bons projets

AI for Good travaille avec de nombreuses organisations externes pour aider à résoudre les problèmes sociaux pertinents. AI for Good se concentre généralement sur la mise en œuvre de l’AI dans ces domaines et sur la manière dont elle peut contribuer à améliorer chaque situation. Les projets comprennent des initiatives telles que :

  • Protection de la vie marine – qui a recueilli des données sur des sujets tels que la coalition contre la pollution plastique, la pollution plastique dans les océans du monde, les émissions de plastique des rivières dans les océans et la biodiversité des habitats critiques au niveau mondial.
  • L’éducation – qui vise à créer des modèles d’apprentissage personnels pour les utilisateurs.
  • Architecture du développement urbain – qui a recueilli des données sur les réfugiés dans le monde entier, y compris les réfugiés aux États-Unis, les mouvements de population et les densités des zones où se sont produites des catastrophes nationales.
  • La partialité des médias – qui s’attaque à la partialité des médias pour garantir que les gens ont accès à des sources d’information neutres.
  • Séquestration du carbone – qui collecte des données sur les questions relatives aux forêts et au reboisement, aux régions et aux biomes, ainsi qu’au CO2.
  • La santé, la nutrition et le sommeil – qui cherche à recueillir des ensembles de données sur le sommeil et les habitudes de santé, en encourageant les experts à partager leurs conclusions.
  • Alimentation, énergie et eau – qui se concentre sur la mise en œuvre de systèmes intelligents d’IoT qui peuvent détecter, mesurer et répondre aux changements de l’environnement pour les moyens de préservation.
  • La corruption – qui se concentre sur la mise en œuvre de l’IA pour créer un mécanisme de transparence et de responsabilité.

Affective computing (IA émotionnelle)

⌚: 3 minutes

L’Affective computing, également connue sous le nom d’IA des émotions, est un domaine d’étude au sein de l’informatique cognitive et de l’intelligence artificielle (IA) qui s’intéresse à la collecte de données à partir des visages, des voix et du langage corporel pour mesurer les émotions humaines. Un objectif commercial important de l’AC (Affective computing) est de construire des interfaces homme-ordinateur capables de détecter et de répondre de manière appropriée à l’état d’esprit de l’utilisateur final.

L’informatique affective a le potentiel d’humaniser les interactions numériques et d’offrir des avantages dans une gamme presque illimitée d’applications. Par exemple, dans une situation d’apprentissage en ligne, un programme d’AC (Affective computing) pourrait détecter quand un étudiant est frustré et lui offrir des explications plus détaillées ou des informations supplémentaires. En télémédecine, la programmation AC peut aider les médecins à comprendre rapidement l’humeur d’un patient éloigné ou à rechercher des signes de dépression. D’autres applications commerciales sont actuellement à l’étude, notamment la gestion de la relation client (CRM), la gestion des ressources humaines (HRM), le marketing et le divertissement.

Un appareil informatique doté d’une programmation d’IA émotionnelle recueille des indices sur l’état émotionnel d’un utilisateur à partir de diverses sources, notamment les expressions faciales, la tension musculaire, la posture, les gestes des mains et des épaules, les schémas de parole, le rythme cardiaque, la dilatation des pupilles et la température corporelle. La technologie qui permet de mesurer et d’analyser les émotions comprend des capteurs, des caméras, des données volumineuses et des moteurs d’analyse d’apprentissage profond. Au moment où nous écrivons ces lignes, des API sont disponibles pour mesurer les émotions humaines auprès de sociétés telles qu’Affectiva, Humanyze, CrowdEmotion et Emotient. Les API d’IBM Watson comprennent Tone Analyzer et Emotion Analysis.

Le terme d’informatique affective est généralement attribué à Rosalind Picard, informaticienne au MIT et fondatrice d’Affectiva. En psychologie, le mot affect est utilisé pour décrire le ton émotionnel d’un patient.

 

Qu’est-ce que le Big Data Analytics ?

⌚: 4 minutes

Le Big Data Analytics est le processus, souvent complexe, qui consiste à examiner des données ou bien des ensembles de données, volumineux et variés . L’objectif est de découvrir des informations, comme des modèles cachés et des corrélations inconnues. Ou encore des tendances du marché et des préférences clients. Ainsi, ces données peuvent aider les entreprises à prendre des décisions commerciales éclairées.

Les requêtes BI (Business Intelligence, pour informatique décisionnelle) répondent donc à des questions de base, sur les opérations et les performances de l’entreprise. Le Big Data Analytics est une forme d’analyse avancée. Il implique des éléments tels que des modèles prédictifs et des algorithmes statistiques. Ainsi que des simulations optimisées par des systèmes d’analyse de haute performance.

L’importance du Big Data Analytics

L’analyse des données offre divers avantages commerciaux lorsqu’elle est stimulée par des systèmes et des logiciels d’analyse spécialisés. Ainsi que par des systèmes informatiques de grande puissance. Notamment, elle produira de nouvelles opportunités de revenus. Mais aussi un marketing plus efficace et un meilleur service client. Ainsi qu’une efficacité opérationnelle améliorée et des avantages concurrentiels. Les grandes applications d’analyse de données permettent aux professionnels d’analyser des volumes croissants de transactions structurées. Mais aussi d’autres formes de données, souvent inexploitées par les programmes de BI.

Cela comprend un mélange de données semi-structurées et non structurées. Par exemple, les données du parcours de navigation sur Internet, les journaux du serveur Web ou encore le contenu des médias sociaux. On peut également citer les courriels des clients et les réponses aux sondages. Ainsi que les enregistrements des téléphones mobiles et les données des machines, saisies par des capteurs connectés à l’IoT (Internet of Things, pour internet des objets). Le terme Big Data a été utilisé pour la première fois pour désigner l’augmentation du volume de données au milieu des années 1990.

Les 3V du Big Data : volume, vitesse et variété

C’est en 2001 que Doug Laney, analyste chez Meta Group Inc. à titre de consultant, a élargi la notion de Big Data. Il y a inclut trois facteurs. Ainsi, le volume, la vitesse et la variété des données sont devenus les 3V du Big Data. C’est en 2006 qu’a été lancé Hadoop, un framework libre et open source, conçu pour exécuter des applications Big Data. En 2011, le Big Data Analytics a commencé à s’imposer dans les organisations et dans l’opinion publique. Au même titre que Hadoop et les diverses technologies développées autours de lui.

Au départ, les applications Big Data étaient principalement le fait de grandes sociétés Internet et de commerce électronique. On peut citer Yahoo, Google et Facebook, ainsi que des fournisseurs de services analytiques et marketing. Mais très vite, d’autres entreprises, dans tous les secteurs, se sont de plus en plus tournés vers le Big Data Analytics.

Technologies et outils d’analyse

Les types de données non structurées et semi-structurées ne conviennent généralement pas aux bases de données relationnelles traditionnelles. En effet, elles reposent sur des ensembles de données structurées. De plus, les bases de données ne peuvent pas toujours traiter des paquets de données volumineux avec des mises à jour fréquentes. Voire même continuelles.

C’est le cas par exemple pour les transactions boursières, les activités en ligne des internautes ou encore la performance des applications mobiles. Alors, de nombreuses organisations qui collectent, traitent et analysent de grandes quantités de données se tournent vers les bases de données NoSQL. Ainsi que vers Hadoop et ses outils complémentaires, notamment :

  • YARN : une technologie de gestion de ressources et de plannification des tâches.
  • MapReduce : un framework logiciel qui permet aux développeurs d’écrire des programmes qui traitent des quantités massives de données non structurées. Et ce, en parallèle sur un cluster de processeurs ou d’ordinateurs autonomes.
  • Spark : un cadre de traitement parallèle open source qui permet aux utilisateurs d’exécuter des applications d’analyse de données, à grande échelle, sur des systèmes en cluster.
  • HBase : une base de données non-relationnelles conçue pour fonctionner sur le HDFS (Hadoop Distributed File System, pour système de fichiers distribués Hadoop).
  • Hive : un système d’entrepôt de données open source pour interroger et analyser de grands ensembles de données stockés dans des fichiers Hadoop.
  • Kafka : un système de stockage et d’échange de données en temps réel.
  • Pig : une technologie open source pour la création de programmes MapReduce.

Comment fonctionne le Big Data Analytics ?

Généralement, les analystes de Big Data adoptent le concept d’un pool de données Hadoop. Celui-ci sert de référentiel principal aux flux entrants de données brutes. Dans de telles architectures, les données peuvent être analysées directement dans un cluster Hadoop. Ou alors, être exécutées par un moteur de traitement comme Spark. Une bonne gestion des données est une première étape cruciale dans le processus d’analyse des Big Data.

Les données stockées doivent être organisées, configurées et partitionnées correctement. Ainsi, on peut obtenir de bonnes performances des tâches ETL (Extract, Transform and Load, pour extraction, de transformation et de chargement) et des requêtes analytiques. Une fois que les données sont prêtes, elles peuvent être analysées. Et ce, à l’aide d’un logiciel doté d’outils d’exploration de données, qui passent au crible les ensembles de données à la recherche de modèles et de relations. Ou encore des outils d’analyse prédictive, pour construire des modèles de prédiction sur le comportement des clients et d’autres développements futurs.

Mais aussi le machine learning, l’apprentissage machine, qui exploite les algorithmes pour analyser de grands ensembles de données. Ainsi que le deep learning, l’apprentissage profond, une branche plus avancée du machine learning. Les logiciels d’analyse statistique et de text mining, l’exploration et l’analyse de données textuelles non structurées, jouent un rôle dans le processus d’analyse de données. Tout comme les logiciels de BI et les outils de visualisation de données. Pour les applications ETL et analytiques, les requêtes peuvent être saisies dans MapReduce, via des langages de programmation. Notamment le Python, R, Scala et SQL.

Utilisations et défis

Les applications d’analyse en continu deviennent de plus en plus courantes dans les environnements Big Data. En effet, les utilisateurs veulent réaliser des analyses en temps réel, sur les données introduites dans les systèmes Hadoop, via des moteurs de traitement de flux comme Spark, Flink et Storm. En parallèle, les fournisseurs de platesformes de Cloud computing ont facilité la mise en place et la gestion des clusters Hadoop dans le Cloud. Notamment Amazon Web Services (AWS) et Microsoft.

Il en va de même des fournisseurs Hadoop, comme Cloudera et Hortonworks. Ils prennent en charge la distribution du framework sur AWS et Microsoft Azure Clouds. Désormais, les utilisateurs peuvent faire tourner des clusters dans le Cloud. Et ils peuvent les exécuter aussi longtemps qu’ils en ont besoin. En effet, la tarification est basée sur l’utilisation et ne nécessite pas de licences logicielles permanentes. De plus, les logiciels d’analyse de Big Data sont plus faciles à utiliser, grâce à l’introduction des technologies d’intelligence artificielle et de machine learning.

Parmi les principaux fournisseurs dans ce domaine, on peut citer Alteryx, IBM, Microsoft et Knime. Toutefois, l’intégration des outils de Big Data dans une architecture cohérente reste un défi pour de nombreuses équipes informatiques et analytiques. En effet, elles doivent identifier la bonne combinaison de technologies. Puis assembler les pièces, pour répondre à leurs besoins d’analyse de données.

Qu’est-ce que la reconnaissance faciale ?

⌚: 5 minutes

La reconnaissance faciale est une catégorie de logiciels biométriques. Ils cartographient mathématiquement les caractéristiques du visage d’un individu. Puis, ils stockent ces données, sous forme d’empreinte faciale. Un logiciel de reconnaissance faciale utilise des algorithmes de type deep learning. Il s’agit d’une méthode d’apprentissage automatique, fondée sur l’apprentissage de modèles de données.

Grâce à cet apprentissage profond, le logiciel est capable de comparer une image, capturée en direct ou stockée numériquement, à celle de l’empreinte faciale enregistrée. Ainsi, il est capable de vérifier l’identité d’une personne. Les caméras de haute qualité des appareils mobiles ont fait de la reconnaissance faciale une option viable pour l’authentification des personnes. Mais aussi pour leur identification. L’iPhone X d’Apple, par exemple, intègre la technologie Face ID qui permet aux utilisateurs de déverrouiller leur téléphone. Et ce, à l’aide d’une empreinte faciale cartographiée par l’appareil photo du téléphone.

Le logiciel du téléphone est conçu avec la modélisation 3D pour résister à l’usurpation d’identité par des photos ou des masques. Et il capture et compare plus de 30.000 variables. Déjà, la technologie Face ID peut être utilisée pour authentifier les achats avec Apple Pay. Mais aussi dans les iTunes Store, App Store et iBooks Store. Apple crypte et stocke les données faceprint dans le Cloud. Cependant, l’authentification a lieu directement sur l’appareil.

Amazon, Google ou encore Facebook dans la course

Les développeurs peuvent utiliser Amazon Rekognition afin d’ajouter des fonctions de reconnaissance faciale et d’analyse à une application. Il s’agit d’un service d’analyse d’images qui fait partie de la suite Amazon AI. Google fournit un service similaire avec son API Google Cloud Vision. Cette technologie appel à l’apprentissage autonome pour détecter, apparier et identifier les visages. Et elle est utilisée de nombreuses façons. Notamment par le divertissement et le marketing. Le système de jeu de mouvement Kinect, par exemple, utilise la reconnaissance faciale pour différencier les joueurs. Et les publicités intelligentes dans les aéroports sont maintenant capables d’identifier le sexe, l’origine ethnique et l’âge approximatif des passants.

Ainsi, elles peuvent cibler la publicité correspondant au type de personne qui passe. De son côté, Facebook utilise un logiciel de reconnaissance faciale pour marquer les personnes sur les photos. Chaque fois qu’une personne est étiquetée sur une photo, le logiciel stocke des informations cartographiques sur ses caractéristiques faciales. Ainsi, une fois que le logiciel a recueillies suffisamment de données, il peut utiliser ces informations pour identifier automatiquement son visage lorsqu’il apparaît sur une nouvelle photo. Toutefois, pour protéger la vie privée des gens, le membre Facebook qui a été identifié automatiquement en est informé. C’est la charge de la fonction appelée Photo Review.

Peu de lois concernant la protection des données biométriques

Actuellement, il n’existe aucune loi aux États-Unis qui protège spécifiquement les données biométriques d’une personne. Des systèmes de reconnaissance faciale sont actuellement à l’étude ou déployés pour la sécurité dans les aéroports. D’ailleurs, on estime que plus de la moitié de la population des États-Unis a déjà pris ses empreintes faciales. Selon le Département de la sécurité intérieure, la seule façon d’éviter la collecte d’informations biométriques lors de voyages internationaux est de s’abstenir de voyager. Toutefois, en Europe, le RGPD (Règlement Général sur la Protection des Données) traite des données biométriques.

Comment fonctionne une application de reconnaissance faciale

Le logiciel de reconnaissance faciale identifie 80 points nodaux sur un visage humain. Dans ce contexte, les points nodaux sont des morceaux utilisés pour mesurer les variables du visage d’une personne. On peut notamment citer la longueur ou la largeur du nez. Mais aussi la profondeur des orbites des yeux ou encore la forme des pommettes. Le système fonctionne en capturant des données pour les points nodaux, sur une image numérique du visage d’un individu, puis en stockant le résultat sous forme d’empreinte faciale. L’empreinte faciale sert ensuite de base de comparaison avec les données capturées à partir des visages d’une image ou d’une vidéo.

Bien que le système de reconnaissance faciale n’utilise que 80 points nodaux, il permet d’identifier rapidement et précisément les individus cibles lorsque les conditions sont favorables. Cependant, si le visage du sujet est partiellement obscurci, que la lumière est insuffisante, ou encore de profil plutôt que de face, ce type de logiciel est moins fiable. Néanmoins, selon le National Institute of Standards and Technology (NIST), l’incidence des faux positifs dans les systèmes de reconnaissance faciale a diminué de moitié tous les deux ans depuis 1993. La reconnaissance faciale est déjà utilisée dans de nombreux domaines, et ses possibilités sont infinies.

Exemples d’utilisation de la reconnaissance faciale

Ainsi, une équipe de recherche de l’Université de Carnegie Mellon a développé un prototype d’application pour iPhone qui peut prendre une photo d’une personne et, en quelques secondes, retourner son nom, sa date de naissance et son numéro de sécurité sociale. L’application Google Arts & Culture utilise la reconnaissance faciale pour identifier les « sosies de musée » en faisant correspondre l’empreinte faciale d’une personne réelle à celle d’un portrait. Quant au professeur Shen Hao, de l’Université des communications de Chine, il utilise la technologie de reconnaissance faciale pour suivre la présence des étudiants. Enfin, Amazon, MasterCard et Alibaba ont mis en place des méthodes de paiement par reconnaissance faciale, communément appelées  » selfie pay « .

Qu’est-ce que l’Intelligence Artificielle (IA) ?

⌚: 5 minutes

L’Intelligence Artificielle (IA) est la simulation de processus d’intelligence humaine par des machines. Plus particulièrement, des systèmes informatiques. Ces processus comprennent trois phases. Tout d’abord, l’apprentissage, c’est-à-dire l’acquisition de l’information et ses règles d’utilisation. Puis, le raisonnement, soit l’utilisation de règles pour tirer des conclusions approximatives ou définitives. Et enfin, l’autocorrection. Les applications particulières de l’IA comprennent la narrow AI, la reconnaissance faciale et la vision par ordinateur.

L’IA peut être classée comme faible ou forte. L’IA faible, ou IA étroite, est un système d’intelligence artificielle conçu et entraîné pour une tâche particulière. Ainsi, les assistants personnels virtuels comme Siri d’Apple, sont une forme d’IA faible. Quant à l’IA forte, ou intelligence générale artificielle, elle dispose de capacités cognitives humaines. Lorsqu’on lui présente une tâche inconnue, un bon système d’IA est capable de trouver une solution, sans intervention humaine.

Les coûts du matériel, des logiciels et du personnel pour l’intelligence artificielle peuvent être élevés. Alors, de nombreux fournisseurs incluent des composants d’IA dans leurs offres standard ainsi que l’accès aux plates-formes AIaaS (Artificial Intelligence as a Service, pour intelligence artificielle en tant que service). L’AIaaS permet aux particuliers et aux entreprises d’expérimenter l’intelligence artificielle et de tester plusieurs plateformes avant de s’engager. Les offres les plus populaires de Cloud computing d’intelligence artificielle comprennent les services d’Amazon AI, IBM Watson Assistant, Microsoft Cognitive Services et les services de Google AI.

L’intelligence augmentée pour le grand public

Les outils d’intelligence artificielle présentent un éventail de nouvelles fonctionnalités pour les entreprises. Toutefois, l’utilisation de l’IA soulève des questions éthiques. En effet, les algorithmes de deep learning, ou apprentissage profond, sous-tendent bon nombre des outils d’IA les plus avancés. Néanmoins, leur intelligence dépend des données qu’on leur fournit pendant la formation. Puisqu’un humain choisit les données qui utilisées pour la formation d’un programme d’IA, le risque de biais humain est inhérent et doit être surveillé de près.

Certains experts de l’industrie estiment que le terme  » intelligence artificielle  » est trop étroitement lié à la culture populaire. Alors, le grand public a des craintes irréalistes au sujet de l’IA. Mais aussi des attentes improbables sur la façon dont elle va changer le milieu de travail et la vie en général. Ainsi, les chercheurs et spécialistes du marketing espèrent que l’étiquette « intelligence augmentée« , qui a une connotation plus neutre, aidera les gens à comprendre que l’intelligence artificielle améliorera simplement les produits et les services. Mais surtout qu’elle ne remplacera pas les humains qui les utilisent.

Types d’intelligence artificielle

Selon Arend Hintze, professeur adjoint de biologie intégrative, d’informatique et d’ingénierie à la Michigan State University, il y a quatre types d’intelligences artificielles, dont certaines n’existent pas encore. Tout d’abord, les « machines réactives ». Il s’agit par exemple de Deep Blue, le programme d’échecs de IBM qui a battu Garry Kasparov dans les années 1990. Deep Blue peut identifier les pièces sur l’échiquier et faire des prédictions.

Toutefois, il n’a pas de mémoire, si bien qu’il n’apprend pas de ses expériences passées. Il ne fait qu’analyser les mouvements possibles et choisir le plus stratégique. Ainsi, Deep Blue ne peut pas être appliqué à d’autres situations. Puis, il y a les « mémoire limitée ». C’est systèmes d’IA peuvent utiliser les expériences passées pour éclairer les décisions futures. Certaines fonctions de prise de décision des voitures autonomes sont conçues ainsi. Néanmoins, ces observations ne sont pas conservées indéfiniment.

Ensuite vient la « théorie de l’esprit », un type d’IA qui n’existe pas encore. Ce terme de psychologie fait référence à la compréhension des croyances, désirs et intentions des autres, qui influencent leurs décisions. Enfin, la dernière catégorie concerne la « conscience de soi », qui n’existe pas encore. C’est-à-dire des intelligences artificielles dotées d’un sens de soi et d’une conscience. Ainsi, elles seraient capables de comprendre leur état actuel, mais aussi déduire ce que ressentent les autres.

Exemples de technologie d’IA

L’intelligence artificielle est intégrée à différents types de technologies, dont voici six exemples.

1. L’automatisation

C’est ce qui fait qu’un système ou un processus fonctionne automatiquement. Par exemple, le RPA (Robotic Process Automation, pour automatisation robotique des procédés) peut être programmée pour exécuter des tâches répétitives plus rapidement que les humains.

2. Le machine learning

L’apprentissage machine est une science qui consiste à faire en sorte qu’un ordinateur agisse sans le programmer. Le deep learning en est un sous-ensemble, qui peut être considéré comme l’automatisation de l’analyse prédictive. Il en existe trois types différents. Tout d’abord, l’apprentissage supervisé, où les ensembles de données sont étiquetés pour que des modèles soient détectés puis réutilisés. Puis, l’apprentissage non supervisé, où les ensembles de données ne sont pas étiquetés, mais sont triés en fonction des similarités ou des différences. Et enfin, l’apprentissage renforcé, où les ensembles de données ne sont pas étiquetés, mais l’IA reçoit un feedback de rétroaction après avoir agit.

3. La vision par ordinateur

Il s’agit d’une technologie qui capture et analyse l’information visuelle à l’aide d’une caméra. On l’utilise dans l’identification de signature ou encore l’analyse d’images médicales.

4. Le NLP (Natural language processing)

Le traitement du langage naturel est le traitement du langage humain par un programme. La détection de spam en est un vieil exemple. Toutefois, les approches actuelles sont basées sur le machine learning. Elles comprennent donc la traduction de texte, l’analyse des sentiments et la reconnaissance vocale.

5. La robotique

Il s’agit de la conception et la fabrication de robots. Ils sont ensuite utilisés dans les chaînes de montage pour la production automobile, ou encore par la NASA afin de déplacer de gros objets dans l’espace. Les chercheurs tentent désormais d’intégrer le machine learning pour construire des robots qui peuvent interagir dans des contextes sociaux.

6. Les voitures autonomes

Ces véhicules combinent la vision par ordinateur, la reconnaissance d’images et le deep learning. Ainsi, l’intelligence artificielle développe une habileté automatisée à piloter un véhicule. Et ce, tout en restant dans une voie donnée et en évitant les obstacles imprévus, tels que les piétons.

Applications de l’IA

L’intelligence artificielle a fait son chemin dans un certain nombre de domaines. On peut notamment citer celui de la santé. Ainsi, les le machine learning est utilisé pour obtenir de meilleurs diagnostics, plus rapides. L’une des technologies les plus connues est IBM Watson. Il comprend le langage naturel et est capable de répondre aux questions qui lui sont posées. Il exploite les données des patients et d’autres sources de données disponibles pour former une hypothèse, qu’il présente ensuite avec un schéma de notation de confiance.

Dans le domaine des affaires, le machine learning intègre les plateformes d’analyse et les CRM (customer relationship management, pour gestion de la relation client) afin de mieux servir les clients. Les Chatbots intègrent les sites internet pour répondre aux questions et aider les clients. Dans l’éducation, les intelligences artificielles peuvent automatiser la notation, afin de dégager du temps aux professeurs. Ici, les intelligences artificielles pourraient changer la façon dont les élèves apprennent, voire même remplacer certains enseignants.

Dans la finance, l’intelligence artificielle recueille des données personnelles et fournit des conseils financiers. Certains programmes, comme IBM Watson, ont été appliqués au processus d’achat d’une maison. Enfin, l’industrie manufacturière est un domaine qui a été à l’avant-garde de l’intégration des robots dans le flux de travail.

Préoccupations en matière de sécurité et d’éthique

Le concept des voitures autonomes soulève des questions de sécurité et d’éthique. Les véhicules peuvent être piratés. Et dans un contexte d’accident, la responsabilité n’est pas claire. De plus, les voitures autonomes peuvent être mis dans une situation où un accident est inévitable, forçant l’IA à prendre une décision éthique sur la façon de minimiser les dommages. Une autre préoccupation majeure est le risque d’abus des outils d’intelligence artificielle.

En effet, les hackers commencent à utiliser des outils sophistiqués de machine learning pour accéder à des systèmes sensible. Cela complique encore plus la question de la sécurité. Enfin, les outils de création vidéo et audio basés sur le deep learning ont été rapidement détournés pour la création de deepfakes, cette technique de synthèse d’images qui permet une permutation intelligente des visages.

Malgré les risques potentiels, il existe peu de réglementation concernant les intelligences artificielles. Lorsque des lois existent, elles ne s’appliquent qu’indirectement aux IA. Ainsi, le RGPD (Règlement Général sur la Protection des Données) impose des limites strictes à la manière dont les entreprises peuvent utiliser les données des consommateurs. Ce règlement entrave donc l’apprentissage et certaines fonctionnalités d’intelligences artificielles destinées aux consommateurs.