0_defisIA
Accueil / Dossiers / Numérique / Les nouveaux enjeux de l’IA
π Numérique π Science et technologies

Les nouveaux enjeux de l’IA

6 épisodes
  • 1
    Comment corriger les biais du Machine Learning ?
  • 2
    « AI Act », comment l’Europe veut réguler les machines
  • 3
    « Il faut justifier les décisions prises par un algorithme »
  • 4
    L’intelligence artificielle : outil de domination ou d’émancipation ?
  • 5
    Quels enjeux quand les algorithmes remplacent l’humain ? 
  • 6
    Intelligence artificielle et humaine sont-elles comparables ?
Épisode 1/6
Sophy Caulier, journaliste indépendante
Le 1 décembre 2021
5 min. de lecture
Stéphan Clémençon
Stephan Clémençon
professeur en mathématiques appliquées à Télécom Paris (IP Paris)

En bref

  • L’IA est un ensemble d’outils, de méthodes et de technologies qui permettent à un système d’effectuer des tâches de façon quasi autonome.
  • La question de la confiance que l’on peut avoir dans les outils de Machine Learning (ML) est récurrente, car l’apprentissage profond requiert de très grands volumes de données, lesquels proviennent bien souvent du web.
  • Il y a différents types de biais pouvant être relatifs aux données ; les biais dits « de sélection », liés au manque de représentativité, ceux « d’omission », dus à l’endogénéité, etc.
  • Lorsque les données dont on dispose sont trop rares pour pouvoir mettre en œuvre le ML de façon simple, on parle alors de « signaux faibles ». L’hybridation des techniques ML et symboliques en IA pourrait apporter des solutions.
Épisode 2/6
Sophy Caulier, journaliste indépendante
Le 1 décembre 2021
4 min. de lecture
Winston Maxwell
Winston Maxwell
directeur d’études en droits et numérique à Télécom Paris (IP Paris)

En bref

  • L’IA n’est pas une zone de non-droit, la réglementation existante s’y applique déjà, que ce soit le RGPD pour les données à caractère personnel, ou des réglementations sectorielles dans le domaine de la santé, la finance, ou l’automobile.
  • En Machine Learning (ML), les algorithmes se créent eux-mêmes et fonctionnent de façon probabiliste.
  • Leurs résultats sont exacts la plupart du temps, mais le risque d’erreurs est une caractéristique inévitable de ces modèles.
  • Le défi pour l’avenir sera d’entourer de garde-fous ces systèmes probabilistes très performants pour des tâches comme la reconnaissance d’images.
  • Le projet de règlement européen sur l’IA va exiger des tests de conformité et un marquage « CE » pour tout système d’IA à haut risque mis sur le marché en Europe.
Épisode 3/6
Sophy Caulier, journaliste indépendante
Le 1 décembre 2021
4 min. de lecture
Isabelle Bloch
Isabelle Bloch
professeure à Sorbonne Université (chaire en Intelligence Artificielle)

En bref

  • L’IA symbolique se base sur des règles et reproduit le raisonnement humain. Cette approche est dite « explicable par essence », à quelques exceptions près.
  • Les approches statistiques de l’IA s’appuient sur des méthodes d’apprentissage statistique. Il est difficile d’extraire et d’exprimer les règles de ce que font ses réseaux de neurones.
  • Le besoin d’explicabilité provient de différents enjeux, il y a des enjeux de confiance, d’éthique, de responsabilité, et éventuellement des enjeux économiques.
  • L’IA hybride peut remédier à ce problème en associant plusieurs approches de l’IA. Elle combine connaissances et données, IA symbolique et réseaux de neurones, logique et apprentissage.
  • Mais, quelles que soient les approches, la place de l’humain reste primordiale et il faudra toujours justifier les décisions prises par un algorithme.
Épisode 4/6
Le 17 janvier 2023
6 min. de lecture
Lê Nguyên Hoang
Lê Nguyên Hoang
co-fondateur et président de Tournesol.app
BERGER Victor
Victor Berger
chercheur post-doctoral au CEA de Saclay
PISTILLI Giada
Giada Pistilli
doctorante en philosophie à Sorbonne Université et affiliée au laboratoire Science, Normes, Démocratie du CNRS

En bref

  • Il existe trois façons d’apprendre à une intelligence artificielle (IA) : l’apprentissage supervisé, l’apprentissage non-supervisé et l’apprentissage par renforcement.
  • Or, les algorithmes de machine learning permettent de repérer des patterns : le moindre biais caché dans un jeu de données peut donc être exploité et amplifié.
  • La généralisation du passé peut poser problème car les algorithmes utilisent des données historiques pour répondre à des problèmes présents.
  • L’IA est aussi une arène de pouvoir : des problèmes éthiques peuvent émerger, comme celui de l’utilisation des données.
  • On peut faire de l’IA un véritable outil d’émancipation participatif que les communautés pourraient s’approprier.
Épisode 5/6
Le 22 mars 2023
5 min. de lecture
Véronique Steyer
Véronique Steyer
maître de conférences en management de l’innovation à l’École polytechnique (IP Paris)
Milie Taing
Milie Taing
fondatrice de Lili.ai

En bref

  • Les intelligences artificielles (IA) participent de plus en plus aux décisions de notre quotidien, mais soulèvent des enjeux pratiques et éthiques.
  • Il faut distinguer la notion d’interprétabilité de l’IA (son fonctionnement) de la notion de rendu de compte (le degré de responsabilité du créateur/utilisateur).
  • Un projet de réglementation européenne devrait aboutir en 2023 à classer les IA selon différents niveaux de risque.
  • L’IA peut libérer l’humain de tâches chronophages et répétitives et lui permettre de se concentrer sur des tâches plus importantes.
  • La France a tout intérêt à investir dans ce type d’IA pour la réalisation des très gros chantiers car elle a accès à des quantités colossales de données à traiter.
Épisode 6/6
Le 17 janvier 2024
5 min. de lecture
Daniel Andler
Daniel Andler
professeur émérite de philosophie des sciences à Sorbonne Université
Maxime Amblard
Maxime Amblard
professeur en informatique à l’Université de Lorraine
Avatar
Annabelle Blangero
docteure en Neurosciences et Manager en Data Science chez Ekimetrics

En bref

  • Immanquablement, l’intelligence artificielle et l’intelligence humaine sont comparées.
  • Cette confrontation est intrinsèque à l’histoire de l’IA : des approches s’inspirent de la cognition humaine, quand d’autres ne s’en préoccupent pas.
  • La définition floue et controversée de l’intelligence rend cette comparaison vague.
  • La conscience reste un des principaux éléments qui semble manquer à l’IA, pour imiter l’intelligence humaine.
  • La question de la comparaison soulève, en fait, des enjeux éthiques sur l’utilisation, le but et la réglementation de l’IA.

Auteurs

Sophy Caulier

Sophy Caulier

journaliste indépendante

Sophy Caulier est diplômée en Lettres (Université Paris-Diderot) et en Informatique (Université Sorbonne Paris Nord). D'abord journaliste en rédaction à Industrie & Technologies puis à 01 Informatique, elle est devenue journaliste pigiste pour des quotidiens (Les Echos, La Tribune), des magazines spécialisés - ou pas - et des sites web. Elle écrit sur le numérique et l'économie en général, mais aussi sur le management, les PME, l'industrie ou le spatial. Aujourd'hui, elle écrit principalement pour Le Monde et The Good Life.