Séances

Intelligence artificielle : séminaire annuel

Big Data Small I Stock 522636128

SÉMINAIRE ANNUEL - 11 ET 12 OCTOBRE 2018

ANIMATEUR : Michèle Sebag

Le séminaire annuel de l’Académie a présenté l’IA dans la perspective de l’apprentissage automatique, exploitant les masses de données issues de la numérisation des activités pour construire les connaissances et modèles permettant de raisonner, prédire, décider et optimiser dans un contexte incertain.

Quelques idées-force ressortent de ce séminaire :

La course technologique entre USA, Chine et Europe autour de l’IA a pour but la souveraineté : les GAFAM (Google, Amazon, Facebook, Apple, Microsoft), captant les interactions entre utilisateurs/acheteurs et informations/produits, créent de fait des monopoles contribuant à la convergence vers une vision unique du monde (Marc Schoenauer, INRIA, membre de la mission Villani sur l’IA). Les problèmes posés par l’IA du point de vue du droit vont des matières premières (les données doivent être prises en compte et traitées, mais leur confidentialité doit être préservée) aux résultats (comment établir le partage des torts lorsqu’une entité intelligente provoque une catastrophe ? (Célia Zolynski, Univ. Paris-1).

Le renouveau de l’IA depuis 2012 est dû à l’apprentissage profond, construisant des réseaux neuronaux de plusieurs dizaines ou centaines de niveaux (couches), dont les sauts de performance ont été rendus possibles par une augmentation de plusieurs ordres de grandeur à la fois des données disponibles et des capacités de calcul (Stéphane Canu, INSA Rouen). L’apprentissage s’effectue fréquemment à partir de grandes masses de données (des millions d’exemples, décrits par des millions de variables) et construit des modèles composés eux aussi de millions de paramètres. L’analyse de tels systèmes complexes se prête bien à la physique statistique (Marc Mézard, ENS Ulm), en soulignant que leurs bonnes performances en prédiction n’offrent pas les mêmes garanties que celles des découvertes scientifiques : prédire n’est ni comprendre, ni expliquer, ni prouver. De fait, les réalisations de l’IA sont aujourd’hui en avance sur la théorie ; les modèles obtenus sont fragiles face aux attaques (ce qui entraîne des problèmes de sûreté, e.g. pour les véhicules autonomes). Les questions mathématiques et algorithmiques posées sont au confluent des statistiques, des systèmes dynamiques, de la combinatoire, de la théorie des jeux, des problèmes de passage à l’échelle et de calibration (Eric Moulines, École Polytechnique).

La compréhension du langage naturel est une part essentielle de l’IA. Depuis trois décennies, les approches ont évolué de la linguistique vers des méthodes “boite-noire”, ou` la taille des corpus permet, semble-t-il, de remplacer la sémantique par la statistique. Cependant, si les masses de données permettent de répondre aux problèmes simples, le langage naturel fourmille de situations pauvres en données (textes de spécialistes, langues orphelines. . . ). La compréhension d’un document peut être par ailleurs gouvernée par les relations d’une poignée de mots et les mots rares sont souvent importants (Francois Yvon, CNRS & Univ. Paris- Saclay).

Des approches d’apprentissage frugal — c’est-`a-dire à partir d’un petit nombre de données – sont suggérées par les sciences cognitives et l’approche développementale : parmi les conditions favorables à l’apprentissage, qu’il s’agisse d’un enfant, d’un mammifère, d’un robot, figurent la motivation intrinsèque, c’est à dire la capacité de savoir se donner, de manière autonome, des buts et des critères d’intérêt, le fait de savoir mesurer les progrès accomplis, et de contrôler la montée en complexité des tâches choisies (Pierre-Yves Oudeyer, INRIA).

L’apprentissage par renforcement a atteint des performances surhumaines sur des jeux complexes comme le Go (2016), les échecs (2017) et les jeux videos Atari (2015). Les conditions d’une telle performance reposent sur des contextes déterministes et parfaitement connus (toute l’information est disponible). Le système AlphaGo, jouant contre lui-même pendant l’équivalent de plusieurs vies humaines, peut ainsi apprendre une fonction déterminant la valeur de chaque position, du point de vue de la probabilité de gagner in fine et jouer alors le coup amenant à la meilleure position (Olivier Pietquin, Google Brain).

Les rapports entre entreprises, innovation, gouvernement et recherche universitaire ont été abordés lors de la table ronde animée par Patrick Albert (ex Ilog-IBM), Jérémie Mary (Criteo), Philippe Rolet (Artefact global). Les commandes publiques sont essentielles pour le soutien des acteurs industriels. La régulation, la protection des données et les spécificités européennes, font débat : elles induisent des handicaps, ou conduisent à redéfinir le jeu. Les relations entre entreprises et recherche universitaire sont marquées par l’importance des infrastructures de calcul et le pouvoir d’attraction des GAFAM, avec un impact critique sur les capacités d’enseignement et de recrutement aux niveaux national et européen.

Quelle influence l’IA aura-t-elle sur nos modes de vie ? Les IAs peuvent nous permettre de faire face à la vie complexe des mégalopoles, de prendre en charge partiellement certains domaines, comme la santé, de redéfinir certains usages (comme les transports, avec les véhicules autonomes). Dans les domaines régaliens (police, armée, justice), les verrous de l’IA tiennent autant à l’acceptabilité du monde à venir qu’à la difficulté des problèmes à résoudre (Jean-Gabriel Ganascia, Univ. Paris-6).

En conclusion, l’IA a vraisemblablement le pouvoir de modifier la condition humaine, de la notion de contrat social à la longueur de la vie humaine. Pour l’ensemble des participants, il apparaît clairement qu’une éthique de l’IA — définition, mesures, régulation hétéronome — est cruciale.

Michèle Sebag

Directrice de recherche au CNRS,  
co-responsable de l’équipe commune CNRS/UPSud/Inria 
sur le thème « apprentissage et optimisation » (TAO) 
au sein du laboratoire de recherche en i nformatique 
de l’Université de Paris-Saclay