IA OU EN SOMMES NOUS ? – [2] PROGRÈS ET LACUNES

pexels-photo-129742

Cet article est le deuxième d’une série de 5 articles consacrés à faire le point sur l’intelligence artificielle. Voici la liste des sujets qui seront abordés :

  1. L’IA en quête de définition
  2. Les progrès et les lacunes de l’IA
    • Une histoire mouvementée
    • Les percées en attente d’un Einstein de l’IA
    • La compréhension du langage naturel
  3. Les usages
  4. Une éthique pour l’IA
  5. L’IA et le métier du conseil

Ce travail est le fruit d’une collaboration entre P. Lemberger, J. Lepan et O. Reisse.


2 Progrès et lacunes de l’IA

2.1 Une histoire mouvementée

Voici quelques jalons de l’histoire de l’IA qui permettront de mieux situer les efforts de la recherche contemporaine.

2.1.1 L’enthousiasme des pionniers – avant 1966

En 1936 Allan Turing cherche à formaliser ce qu’est un calcul1. Il introduit à cette occasion un concept révolutionnaire en mathématiques, appelé par la suite la Machine de Turing, conçu comme un calculateur universel. C’est une première tentative, sur un plan conceptuel, d’automatiser certains processus mentaux, ceux du calcul en l’occurrence. Un autre procédé de calcul universel, équivalent, basé sur des réseaux de neurones (RN) artificiels, a été étudié dès les années 1950. La création de la discipline de l’IA est traditionnellement associée à une conférence qui s’est tenue en 1956 à Dartmouth. Son objectif affiché illustre bien l’enthousiasme, rétrospectivement excessif, des débuts de l’IA :

Nous nous proposons de réunir durant deux mois une dizaine d’experts pour essayer de concevoir des machines apprenantes qui utilisent le langage, forment des abstractions et résolvent des problèmes d’ordinaire réservés aux humains. Le postulat de base sera qu’il est possible de décrire de manière si précise tous les aspects de l’intelligence et de l’apprentissage qu’on pourra les simuler. 

[Conférence de Dartmouth – 1956]

Inutile de préciser que les percées escomptées ne furent pas réalisées. Un grand nombre de chercheurs en IA ont cependant fait connaissance à cette occasion.

En 1958, J. McCarthy inventa LISP un nouveau type de langage de programmation qui opère sur des expressions symboliques plutôt que sur des nombres. LISP restera durant 30 ans le langage de prédilection des chercheurs en IA qui adoptèrent l’approche dite logiciste à l’IA. Celle-ci part du postulat que l’on peut représenter tout raisonnement en logique formelle.

Le même année McCarthy publia un article historique « Programs with Common Sense » dans lequel il décrit un système hypothétique qui peut être vu comme un système d’IA complet et qui reste en grande partie d’actualité. Réduire au maximum la complexité d’un problème pour en saisir l’essence est une stratégie classique dans toute recherche scientifique. L’approche par micro-mondes a été élaborée dans cet esprit, elle consiste à définir un univers simplifié à l’extrême, constitué de formes géométriques élémentaires destinées à être manipulées par un agent « intelligent ». Cet agent doit comprendre cet environnement ainsi que les ordres qu’on lui transmet. Il doit être en mesure de planifier puis exécuter des actions qui correspondent à l’injonction fournie. Des problèmes comme la vision, la planification de tâches ou la compréhension du langage naturel ont été abordés dans ce cadre expérimental.

Le perceptron que l’on peut envisager comme un neurone artificiel fut inventé par F. Rosenblatt en 1957. C’est un algorithme élémentaire de classification binaire capable d’apprendre à partir par expérience.

ELIZA développé au MIT dans les années 1964-66 est le premier chatbot de l’histoire, il tentait de simuler une conversation avec un psychanalyste.

2.1.2 Le temps des désillusions 1966 – 1986

Continuer la lecture sur Ristretto by weave

1 Comment

  1. Pingback: IA OU EN SOMMES NOUS ? – [1] QUELLE DÉFINITION ? – L'Observatoire des usages du Big Data

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *