Quelles sont les origines de l’intelligence artificielle ?
L’histoire de l’intelligence artificielle (IA) est plus récente et pas aussi avancée que ne le supposent de nombreux politiciens. L’histoire réelle est plutôt désordonnée, mais elle tend à se dérouler comme suit. Dans les années 1950, un mathématicien visionnaire nommé Norbert Wiener testait une version de la machine de Turing avec un programme d’échecs. Cela a fonctionné – Turing l’a appelé « les ordinateurs qui pensent ». La machine fut connue comme la première machine « universelle » et permit aux théoriciens d’explorer les ramifications de l’univers informatique. Mais elle était trop lente pour réaliser toutes ses promesses. Ce qui rend la machine de Turing si fascinante, c’est qu’en théorie, la seule raison pour laquelle elle peut atteindre une intelligence de niveau humain est le dispositif très spécifique qu’elle utilise pour stocker ses données. Un ordinateur personnel pourrait faire la même chose, mais il lui faudrait…
Histoire de l’intelligence artificielle (IA)
La production en masse de programmes informatiques n’était pas aussi simple qu’il n’y paraît aujourd’hui. Dans les années 1930 et 1940, les universités, les entreprises et les instituts de recherche gouvernementaux ont investi massivement dans la construction d’équipements spécialisés, notamment de logiciels spécialisés pour un ordinateur. Malheureusement, la chaîne d’approvisionnement avait une connaissance très limitée du fonctionnement d’un ordinateur et la société ou l’entreprise qui construisait réellement les machines était souvent celle qui payait les coûts de développement initiaux de ces appareils. Par une curieuse coïncidence, c’est également par la vente de bibliothèques de logiciels par abonnement aux universités et aux entreprises de ces années-là qu’est apparue la vision dominante de l’économie des programmes informatiques. À cette époque, de nombreuses entreprises se plaignaient de la difficulté d’employer des programmeurs et de maintenir leurs logiciels existants, ce qui les empêchait d’embaucher des programmeurs informatiques.
L’atelier de Dartmouth sur l’intelligence artificielle en 1956, qui a été largement cité comme le précurseur des recherches actuelles sur l’IA et de ses diverses avancées. Naissance de la première forme d’IA, jusqu’au test de Turing et au-delà, ainsi que d’un outil essentiel dans la recherche moderne sur l’IA : les heuristiques et les biais. John McCarthy, d’IBM, a inventé le terme « paramétrique » pour résumer les efforts des chercheurs en intelligence artificielle en vue de saisir le raisonnement artificiel comme un ensemble de règles transparentes et séparables du contexte. (Vous êtes comme une pièce de monnaie jouant à pile ou face pour divers algorithmes ; ces hypothèses ou heuristiques s’ajoutent à la combinaison d’états et de résultats du tirage à pile ou face). Ce modèle de raisonnement basé sur les processus, conçu par un certain nombre de chercheurs, a contribué à donner naissance aux premiers algorithmes informatiques à usage général permettant de tout gérer, des soins hospitaliers à la gestion automatisée des contrats en passant par la conception de jeux vidéo.
Les progrès récents de l’IA ont commencé [lorsque le] nombre de problèmes formant un ordinateur virtuel a augmenté puis explosé. Ces technologies informatiques – contrôleurs de robots, systèmes de reconnaissance vocale et algorithmes d’entraînement – sont devenues si complexes qu’elles ne pouvaient plus prendre en charge les simulations d’entraînement de joueurs humains. En 2012, les chercheurs ont lancé DeepMind, un projet de Google visant à exploiter l’immense réservoir de données du monde entier pour mener certaines des premières recherches sur l’intelligence artificielle virtualisée. Le premier fruit du projet, annoncé par la société le mois dernier, a été AlphaGo, un programme gagnable qui a dépassé le champion du monde humain au Go, l’ancien jeu chinois. Les progrès récents de l’IA ont commencé lorsque la tâche consistant à faire correspondre le scénario d’un jeu mobile aux actions de l’agent a été prise en charge par une IA appelée AlphaGo, avec l’aide d’experts humains.
Rapidement, les machines ont commencé à battre les humains à des jeux comme le Go, elles ont rapidement commencé à analyser leurs mouvements et à décider s’ils pouvaient être améliorés. Au cours de ce processus, un algorithme binaire de prise de décision pour le Go a émergé et a servi d’étalon-or. L’idée était simple : laisser l’ordinateur prendre toutes les décisions pour un jeu particulier.
L’alpha go s’est en fait avéré presque imbattable ; une victoire par match nul statistique a été rendue impossible par une IA capable d’élaborer des stratégies qui piégeraient l’ensemble de la population humaine dans une sorte de matrice d’erreurs de score aux échecs/marbre. Cela a failli faire tomber le reste du programme SCAI. Le résultat le plus intéressant de cette défaite est venu du partenariat entre Deep Blue d’IBM et la machine IA Watson d’IBM. Le superordinateur a décidé d’adopter un style de jeu élégant qui n’est pas adapté aux adversaires humains et une fois qu’il a pris le jeu de Go sur un chemin similaire à celui d’AlphaGo, il a battu les maîtres humains 2:1 dans un tournoi. Les humains ne peuvent pas battre les IA
Désormais, les chercheurs explorent ce que l’IA peut faire sans l’aide de l’homme. Dans une étude publiée dans Science, les chercheurs suggèrent que le cerveau humain peut être entraîné à effectuer des tâches simples qu’il ne pourrait pas réaliser par lui-même. Après avoir fait une découverte importante, les chercheurs affirment qu’il n’est peut-être pas nécessaire de développer de nouvelles techniques d’IA à partir de zéro. Au lieu de cela, on pourrait y accéder à partir de technologies déjà existantes et les utiliser pour créer des machines capables de faire pratiquement tout ce que les humains peuvent faire.