0_defisIA
Accueil / Dossiers / Science et technologies / Les nouveaux enjeux de l’IA
π Science et technologies

Les nouveaux enjeux de l’IA

3 épisodes
  • 1
    Comment corriger les biais du Machine Learning ?
  • 2
    « AI Act », comment l’Europe veut réguler les machines
  • 3
    « Il faut justifier les décisions prises par un algorithme »
Épisode 1/3
Sophy Caulier, journaliste indépendante
Le 1 décembre 2021
5 mins de lecture
Stéphan Clémençon
Stephan Clémençon
professeur en mathématiques appliquées à Télécom Paris (IP Paris)

En bref

  • L’IA est un ensemble d’outils, de méthodes et de technologies qui permettent à un système d’effectuer des tâches de façon quasi autonome.
  • La question de la confiance que l’on peut avoir dans les outils de Machine Learning (ML) est récurrente, car l’apprentissage profond requiert de très grands volumes de données, lesquels proviennent bien souvent du web.
  • Il y a différents types de biais pouvant être relatifs aux données ; les biais dits « de sélection », liés au manque de représentativité, ceux « d’omission », dus à l’endogénéité, etc.
  • Lorsque les données dont on dispose sont trop rares pour pouvoir mettre en œuvre le ML de façon simple, on parle alors de « signaux faibles ». L’hybridation des techniques ML et symboliques en IA pourrait apporter des solutions.
Épisode 2/3
Sophy Caulier, journaliste indépendante
Le 1 décembre 2021
4 mins de lecture
Winston Maxwell
Winston Maxwell
directeur d’études en droits et numérique à Télécom Paris (IP Paris)

En bref

  • L’IA n’est pas une zone de non-droit, la réglementation existante s’y applique déjà. Que ce soit le RGPD pour les données à caractère personnel, ou des réglementations sectorielles dans le domaine de la santé, la finance, ou l’automobile.
  • En Machine Learning (ML), les algorithmes se créent eux-mêmes et fonctionnent de façon probabiliste. Leurs résultats sont exacts la plupart du temps, mais le risque d’erreurs est une caractéristique inévitable de ces modèles.
  • Le défi pour l’avenir sera d’entourer de garde-fous ces systèmes probabilistes très performants pour des taches comme la reconnaissance d’images.
  • Le projet de règlement européen sur l’IA va exiger des tests de conformité et un marquage « CE » pour tout système d’IA à haut risque mis sur le marché en Europe.
Épisode 3/3
Sophy Caulier, journaliste indépendante
Le 1 décembre 2021
4 mins de lecture
Isabelle Bloch
Isabelle Bloch
professeure à Sorbonne Université (chaire en Intelligence Artificielle)

En bref

  • L’IA symbolique se base sur des règles et reproduit le raisonnement humain. Cette approche est dite « explicable par essence », à quelques exceptions près.
  • Les approches statistiques de l’IA s’appuient sur des méthodes d’apprentissage statistique. Il est difficile d’extraire et d’exprimer les règles de ce que font ses réseaux de neurones.
  • Le besoin d’explicabilité provient de différents enjeux, il y a des enjeux de confiance, d’éthique, de responsabilité, et éventuellement des enjeux économiques.
  • L’IA hybride peut remédier à ce problème en associant plusieurs approches de l’IA. Elle combine connaissances et données, IA symbolique et réseaux de neurones, logique et apprentissage.
  • Mais, quelles que soient les approches, la place de l’humain reste primordiale et il faudra toujours justifier les décisions prises par un algorithme.

Auteurs

Sophy Caulier

Sophy Caulier

journaliste indépendante

Sophy Caulier est diplômée en Lettres (Université Paris-Diderot) et en Informatique (Université Sorbonne Paris Nord). D'abord journaliste en rédaction à Industrie & Technologies puis à 01 Informatique, elle est devenue journaliste pigiste pour des quotidiens (Les Echos, La Tribune), des magazines spécialisés - ou pas - et des sites web. Elle écrit sur le numérique et l'économie en général, mais aussi sur le management, les PME, l'industrie ou le spatial. Aujourd'hui, elle écrit principalement pour Le Monde et The Good Life.