0_defisIA
Accueil / Dossiers / Numérique / Les nouveaux enjeux de l’IA
π Numérique π Science et technologies

Les nouveaux enjeux de l’IA

4 épisodes
  • 1
    Comment corriger les biais du Machine Learning ?
  • 2
    « AI Act », comment l’Europe veut réguler les machines
  • 3
    « Il faut justifier les décisions prises par un algorithme »
  • 4
    L’intelligence artificielle : outil de domination ou d’émancipation ?
Épisode 1/4
Sophy Caulier, journaliste indépendante
Le 1 décembre 2021
5 min. de lecture
Stéphan Clémençon
Stephan Clémençon
professeur en mathématiques appliquées à Télécom Paris (IP Paris)

En bref

  • L’IA est un ensemble d’outils, de méthodes et de technologies qui permettent à un système d’effectuer des tâches de façon quasi autonome.
  • La question de la confiance que l’on peut avoir dans les outils de Machine Learning (ML) est récurrente, car l’apprentissage profond requiert de très grands volumes de données, lesquels proviennent bien souvent du web.
  • Il y a différents types de biais pouvant être relatifs aux données ; les biais dits « de sélection », liés au manque de représentativité, ceux « d’omission », dus à l’endogénéité, etc.
  • Lorsque les données dont on dispose sont trop rares pour pouvoir mettre en œuvre le ML de façon simple, on parle alors de « signaux faibles ». L’hybridation des techniques ML et symboliques en IA pourrait apporter des solutions.
Épisode 2/4
Sophy Caulier, journaliste indépendante
Le 1 décembre 2021
4 min. de lecture
Winston Maxwell
Winston Maxwell
directeur d’études en droits et numérique à Télécom Paris (IP Paris)

En bref

  • L’IA n’est pas une zone de non-droit, la réglementation existante s’y applique déjà, que ce soit le RGPD pour les données à caractère personnel, ou des réglementations sectorielles dans le domaine de la santé, la finance, ou l’automobile.
  • En Machine Learning (ML), les algorithmes se créent eux-mêmes et fonctionnent de façon probabiliste.
  • Leurs résultats sont exacts la plupart du temps, mais le risque d’erreurs est une caractéristique inévitable de ces modèles.
  • Le défi pour l’avenir sera d’entourer de garde-fous ces systèmes probabilistes très performants pour des tâches comme la reconnaissance d’images.
  • Le projet de règlement européen sur l’IA va exiger des tests de conformité et un marquage « CE » pour tout système d’IA à haut risque mis sur le marché en Europe.
Épisode 3/4
Sophy Caulier, journaliste indépendante
Le 1 décembre 2021
4 min. de lecture
Isabelle Bloch
Isabelle Bloch
professeure à Sorbonne Université (chaire en Intelligence Artificielle)

En bref

  • L’IA symbolique se base sur des règles et reproduit le raisonnement humain. Cette approche est dite « explicable par essence », à quelques exceptions près.
  • Les approches statistiques de l’IA s’appuient sur des méthodes d’apprentissage statistique. Il est difficile d’extraire et d’exprimer les règles de ce que font ses réseaux de neurones.
  • Le besoin d’explicabilité provient de différents enjeux, il y a des enjeux de confiance, d’éthique, de responsabilité, et éventuellement des enjeux économiques.
  • L’IA hybride peut remédier à ce problème en associant plusieurs approches de l’IA. Elle combine connaissances et données, IA symbolique et réseaux de neurones, logique et apprentissage.
  • Mais, quelles que soient les approches, la place de l’humain reste primordiale et il faudra toujours justifier les décisions prises par un algorithme.
Épisode 4/4
Le 17 janvier 2023
6 min. de lecture
Lê Nguyên Hoang
Lê Nguyên Hoang
co-fondateur et président de Tournesol.app
BERGER Victor
Victor Berger
chercheur post-doctoral au CEA de Saclay
PISTILLI Giada
Giada Pistilli
doctorante en philosophie à Sorbonne Université et affiliée au laboratoire Science, Normes, Démocratie du CNRS

En bref

  • Il existe trois façons d’apprendre à une intelligence artificielle (IA) : l’apprentissage supervisé, l’apprentissage non-supervisé et l’apprentissage par renforcement.
  • Or, les algorithmes de machine learning permettent de repérer des patterns : le moindre biais caché dans un jeu de données peut donc être exploité et amplifié.
  • La généralisation du passé peut poser problème car les algorithmes utilisent des données historiques pour répondre à des problèmes présents.
  • L’IA est aussi une arène de pouvoir : des problèmes éthiques peuvent émerger, comme celui de l’utilisation des données.
  • On peut faire de l’IA un véritable outil d’émancipation participatif que les communautés pourraient s’approprier.

Auteurs

Sophy Caulier

Sophy Caulier

journaliste indépendante

Sophy Caulier est diplômée en Lettres (Université Paris-Diderot) et en Informatique (Université Sorbonne Paris Nord). D'abord journaliste en rédaction à Industrie & Technologies puis à 01 Informatique, elle est devenue journaliste pigiste pour des quotidiens (Les Echos, La Tribune), des magazines spécialisés - ou pas - et des sites web. Elle écrit sur le numérique et l'économie en général, mais aussi sur le management, les PME, l'industrie ou le spatial. Aujourd'hui, elle écrit principalement pour Le Monde et The Good Life.