Quels challenges pour l’IA ? Verteego vous résume les enjeux clés selon le Facebook AI Research (FAIR)

 

Vendredi dernier, Facebook réunissait dans ses locaux parisiens Yann Lecun, chef de la datascience chez Facebook, ainsi que Joelle Pineau et Antoine Bordes, codirecteurs du FAIR, le laboratoire de recherche en IA de Facebook, pour parler IA.

De nombreux sujets en relation avec l’intelligence artificielle ont été abordés, dont celui particulièrement excitant des futurs challenges à relever dans ce domaine.

Une technologie balbutiante

L’intelligence artificielle a fait d’énormes progrès ces dernières années, tant sur le plan matériel, avec l’arrivée des TPUs en 2016 que sur le plan académique avec par exemple le couplage des réseaux de neurones profonds et de l’apprentissage par renforcement dont le point d’orgue est l’arrivée fin 2017 d’Alpha Zero.

Il n’en reste pas moins que l’intelligence artificielle, en dépit de ses récents succès et de ses nombreuses applications, reste une technologie balbutiante, au regard des espoirs et promesses qu’elle suscite, et de l’image fantasmée qui lui est rattachée.

Accro à la donnée

L’un des points majeurs qui distingue l’intelligence humaine de l’intelligence artificielle est la remarquable faculté du cerveau humain à généraliser à partir de très peu d’exemples.

Un enfant sait reconnaître une montagne, après en avoir vu seulement quelques unes. Pour une IA, il faut compter une bonne dizaine de milliers d’images. Multipliées par le nombre d’objets que sait reconnaître un humain, la taille de la base de données à constituer est faramineuse.

La conséquence de cette dépendance à la donnée est double :

  • la machine n’est actuellement pas capable d’apprendre sans qu’un humain ait étiqueté manuellement des millions d’images
  • la nécessité de traiter un tel volume de données est très coûteux en temps de calcul et donc en énergie.

Deux axes de recherche sont actuellement explorés pour remédier à cette limitation. Le premier consiste à augmenter la capacité à généraliser d’un réseau de neurones.

 

Le second contourne le problème, en proposant une approche dans laquelle l’IA n’a plus besoin de données étiquetées pour apprendre. Le besoin en données reste le même, mais plus besoin d’intervention humaine. On parle de Self Supervised Learning.

 

C’est la piste la plus prometteuse, ou tout au moins la plus immédiate. Dans le domaine du traitement du langage, de telles approches sont déjà utilisées avec succès. On peut citer Word2Vec, FastText, Elmo, Bert, …

L’application à la reconnaissance d’images ou de vidéo reste plus difficile, en raison du très large spectre des images possible, en comparaison à un vocabulaire limité à quelques centaines de milliers de mots. Il existe néanmoins des approches très astucieuses basées sur l’analyse du contexte qui portent déjà leur fruits : https://arxiv.org/pdf/1505.05192.pdf.

Changement de paradigme

D’un point de vue conceptuel, Yann LeCun, l’un des inventeurs de l’apprentissage par réseau de neurones profonds, propose de généraliser encore plus le concept des réseaux de neurones, et de ne finalement conserver que leur caractéristique essentielle : leur différentiabilité et donc la possibilité mathématique de les optimiser pour une tâche particulière.

Pour Yann Lecun, les nouvelles formes d’IA seront composées de blocs fonctionnels paramétriques différentiables, indépendamment de leur structure. Cette dernière devrait par ailleurs cesser d’être peaufinée à la main par des data scientists, et être construite automatiquement.

Sens commun

Autre challenge pour l’IA : la constitution, à partir de l’observation de son environnement, d’un sens commun.

On parle ici d’un défi à beaucoup plus long terme, où l’objectif est de disposer d’une IA qui puisse inférer de ses observations des concepts simples tels que : pour sortir d’une pièce il faut passer par la porte, il fait plus chaud quand le soleil brille, un objet tombe toujours vers le bas, il faut manger pour ne pas mourir, …

Pour l’instant, aucune méthode ne permet de réaliser ce type d’apprentissage, premier préalable indispensable pour la constitution d’une IA forte, qui puisse rivaliser avec l’adaptabilité de l’intelligence humaine.

 

Un article de Guillaume Saupin.