Accueil / Chroniques / L’IA et le travail : la promesse de productivité au défi de la formation et de la cohésion sociale
Généré par l'IA / Generated using AI
π Numérique π Économie

L’IA et le travail : la promesse de productivité au défi de la formation et de la cohésion sociale

Eric Hazan_VF
Eric Hazan
professeur de stratégie digitale à Sciences Po, fondateur associé d’Ardabelle Capital et Senior Partner Emeritus de McKinsey & Company
Philippe Tibi_VF
Philippe Tibi
professeur de stratégie et finance à l’École polytechnique (IP Paris) et fondateur de Pergamon Campus
En bref
  • L'IA aurait le potentiel d’améliorer la productivité sans alléger la charge : les gains réels se réinvestissent en surcroît d'activité plutôt qu'en temps libéré.
  • La même technologie peut augmenter les capacités humaines ou les substituer selon la façon dont elle est déployée.
  • Les jeunes diplômés paient le prix fort, car les postes juniors disparaissent en premier, coupant la filière traditionnelle de transmission de l'expertise professionnelle.
  • Un Plan Marshall de la formation est urgent. Réforme des curriculums, reconversion massive et investissement en capital humain comparable aux infrastructures IA.
  • Comme la “pause d'Engels”, l'IA pourrait concentrer ses bénéfices chez quelques-uns — sauf à inventer de nouvelles solidarités et à orienter délibérément le progrès vers les travailleurs.

Rare­ment une tech­no­lo­gie aura sus­ci­té simul­ta­né­ment autant d’en­thou­siasme et autant d’an­goisse. D’un côté, des pro­messes de gains de pro­duc­ti­vi­té sans pré­cé­dent depuis les années 1970 ; de l’autre, le spectre d’une com­pres­sion des débou­chés pour une géné­ra­tion entière de jeunes diplô­més. Ces deux réa­li­tés ne sont pas contra­dic­toires. Elles des­sinent ensemble l’é­qua­tion fon­da­men­tale de notre époque : l’IA est un ampli­fi­ca­teur — de valeur pour ceux qui s’y pré­parent, d’i­né­ga­li­tés pour ceux qu’on laisse de côté. Prendre la mesure de ce défi exige de suivre le fil qui va de la pro­duc­ti­vi­té à l’emploi, de l’emploi à l’or­ga­ni­sa­tion des entre­prises, puis de l’or­ga­ni­sa­tion à une ambi­tion col­lec­tive de for­ma­tion à la hau­teur de l’en­jeu. C’est ce par­cours que cet article propose.

La productivité, une promesse qui commence à se matérialiser

Com­men­çons par une bonne nou­velle : les signaux d’un choc de pro­duc­ti­vi­té réel com­mencent à s’ac­cu­mu­ler. En jan­vier 2026, les éco­no­mistes d’A­pol­lo Glo­bal Mana­ge­ment, conduits par Tors­ten Slok, recensent des hausses tan­gibles dans le DevOps, l’au­to­ma­ti­sa­tion des pro­ces­sus et les fonc­tions sup­port1. La syn­thèse la plus com­plète dis­po­nible à ce jour est celle du tableau de bord Ear­ly Signals of AI Impact, qui agrège en temps réel 303 sources — études aca­dé­miques, rap­ports sec­to­riels, don­nées de ter­rain — autour de 17 indi­ca­teurs de trans­for­ma­tion du tra­vail par l’IA : pro­duc­ti­vi­té indi­vi­duelle, évo­lu­tion du recru­te­ment, recom­po­si­tion des com­pé­tences deman­dées, restruc­tu­ra­tion des équipes. Son diag­nos­tic de consen­sus est net : l’a­dop­tion des outils d’IA accé­lère dans l’en­semble des indus­tries, la pro­duc­ti­vi­té mesu­rée dans les entre­prises pion­nières monte, et les postes d’exé­cu­tion répé­ti­tive se com­priment. La nuance déci­sive tient en un mot : les emplois changent plus vite qu’ils ne dis­pa­raissent, et aucun dépla­ce­ment macroé­co­no­mique agré­gé n’est encore mesu­rable. C’est pré­ci­sé­ment cet « encore » qui confère à la ques­tion de la pré­pa­ra­tion son carac­tère d’ur­gence2.

L’IA ne fait pas que rem­pla­cer des tâches : elle trans­forme le rythme même de l’innovation

Mais l’IA ne fait pas que rem­pla­cer des tâches : elle trans­forme le rythme même de l’in­no­va­tion. Bon­ta­di­ni, Has­kel et leurs co-auteurs la décrivent comme une « méta-inno­va­tion » — une inno­va­tion dans la méthode d’in­no­va­tion —, avec des effets mul­ti­pli­ca­teurs sur la pro­duc­ti­vi­té totale des fac­teurs dont l’é­co­no­mie amé­ri­caine com­men­ce­rait à peine à res­sen­tir les effets, tan­dis que l’Eu­rope accuse un retard d’a­dop­tion pré­oc­cu­pant3.

Pour autant, deux nuances s’im­posent. La pre­mière tient au para­doxe de Mora­vec : l’IA excelle dans les tâches cog­ni­ti­ve­ment com­plexes — rédac­tion, syn­thèse, code — mais reste mal­adroite dans les tâches manuelles contex­tuelles qui nous semblent faciles. Cet écart explique en par­tie le déca­lage entre le poten­tiel annon­cé et l’a­dop­tion réelle dans l’é­co­no­mie4. La seconde nuance est encore plus contre-intui­tive : selon une étude de la Har­vard Busi­ness Review publiée en février 2026, l’IA n’al­lège pas la charge de tra­vail — elle l’in­ten­si­fie. Les sala­riés qui adoptent les outils IA traitent davan­tage de dos­siers, répondent à plus de demandes, assument de nou­velles tâches. Le gain de pro­duc­ti­vi­té est réel, mais il ne se tra­duit pas auto­ma­ti­que­ment en temps libé­ré : il se réin­ves­tit dans un sur­croît d’ac­ti­vi­té5.

Autre ensei­gne­ment déci­sif des tra­vaux du NBER et du MIT : l’IA peut aug­men­ter la pro­duc­ti­vi­té des tra­vailleurs sans néces­sai­re­ment auto­ma­ti­ser des tâches entières. Cette dis­tinc­tion entre aug­men­ta­tion et auto­ma­ti­sa­tion n’est pas séman­tique — elle condi­tionne l’en­semble des effets sociaux de la tech­no­lo­gie. Dans le mode aug­men­ta­tion, l’IA devient une pro­thèse cog­ni­tive : elle étend les capa­ci­tés de l’in­di­vi­du, lui per­met de trai­ter plus de com­plexi­té, de pro­duire plus vite, de mieux docu­men­ter ses déci­sions. L’emploi est pré­ser­vé, sou­vent valo­ri­sé. Dans le mode auto­ma­ti­sa­tion, elle se sub­sti­tue à l’ac­ti­vi­té humaine elle-même : l’emploi peut dis­pa­raître ou se trans­for­mer radi­ca­le­ment. Les deux modes coexistent dans la plu­part des orga­ni­sa­tions — par­fois au sein du même poste, selon les tâches et les moments6.

Ace­mo­glu, Autor et John­son affinent encore cette grille en dis­tin­guant cinq caté­go­ries de tech­no­lo­gies, dont deux méritent atten­tion par­ti­cu­lière. Les tech­no­lo­gies de « nivel­le­ment de l’ex­per­tise » per­mettent à des non-experts d’ac­com­plir des tâches autre­fois réser­vées à des spé­cia­listes — l’IA médi­cale d’aide au diag­nos­tic en est un exemple. Les tech­no­lo­gies de « créa­tion de nou­velles tâches » sont, quant à elles, les seules « sans ambi­guï­té favo­rables aux tra­vailleurs » : elles génèrent une demande nette d’ex­per­tise humaine en ouvrant des acti­vi­tés qui n’exis­taient pas. C’est dans cette der­nière caté­go­rie que réside la pro­messe la plus solide — mais aus­si la plus exi­geante en termes de for­ma­tion — de l’IA7.

Figure 1 : Cinq types de tech­no­lo­gies et leurs impacts sur le tra­vail (Ace­mo­glu, Autor, John­son 2026)

L’impact sur les emplois : qui sont les canaris dans la mine ?

La méta­phore choi­sie par Erik Bryn­jolf­sson pour son étude de l’é­té 2025 est sai­sis­sante : dans les mines de char­bon, on envoyait des cana­ris détec­ter les gaz toxiques avant que les mineurs n’entrent. Les jeunes tra­vailleurs des sec­teurs expo­sés à l’IA sont, aujourd’­hui, ces cana­ris8.

Les don­nées ADP — les plus gra­nu­laires jamais mobi­li­sées pour ce type d’a­na­lyse — sont élo­quentes : aux États-Unis, entre fin 2022 et juillet 2025, l’emploi des 22–25 ans dans les métiers à forte expo­si­tion à l’IA a recu­lé de 6 %. Pour les jeunes déve­lop­peurs logi­ciels, la chute atteint 20 % par rap­port au pic de novembre 2022. Les fonc­tions sup­port client d’en­trée de gamme ont éga­le­ment per­du près de 11 % de leurs effec­tifs juniors. Ce sont les postes d’en­trée qui s’é­va­porent en pre­mier9.

Figure 2 : Les cana­ris dans la mine, évo­lu­tion de l’emploi junior, 2022–2025 (États-Unis)

Ce diag­nos­tic résonne avec ce qu’ob­serve le Finan­cial Times dans son enquête sur la « grande séche­resse d’emplois pour diplô­més » : des pro­mo­tions entières sortent de bonnes uni­ver­si­tés et peinent à trou­ver des postes à la hau­teur de leurs études, non parce que l’IA les a rem­pla­cés, mais parce qu’elle a ren­du super­flue la couche d’ap­pren­tis­sage par le bas que consti­tuent les postes juniors10. La consé­quence est per­verse et mérite qu’on s’y arrête : si les jeunes n’ac­quièrent plus leur exper­tise sur le tas dans ces pre­miers emplois, la filière de trans­mis­sion de l’ex­per­tise pro­fes­sion­nelle est inter­rom­pue. L’IA peut ampli­fier l’ex­per­tise — mais elle ne peut pas la créer ex nihi­lo. Si la géné­ra­tion qui entre aujourd’­hui sur le mar­ché du tra­vail ne construit pas ses fon­da­tions, qui for­me­ra les experts de 2035 ?

Il convient cepen­dant de ne pas confondre expo­si­tion et des­truc­tion nette — et même de ques­tion­ner la cau­sa­li­té. Autor lui-même sou­ligne que le ralen­tis­se­ment de l’embauche dans les métiers expo­sés à l’IA com­mence au prin­temps 2022, soit avant la sor­tie de ChatGPT en novembre 2022 ; la hausse des taux direc­teurs de la Fed consti­tue une expli­ca­tion au moins aus­si plau­sible11. Plus sur­pre­nant encore, le Bud­get Lab de Yale n’ob­serve pas de dif­fé­rence signi­fi­ca­tive entre les niveaux d’emploi dans les métiers les plus expo­sés à l’IA et les moins expo­sés — « the lines look the same », selon les propres termes de sa pré­si­dente. Ce que les métriques d’ex­po­si­tion cap­turent avec cer­ti­tude, c’est une baisse des offres publiées dans les 40 % de métiers les plus expo­sés depuis l’es­sor de ChatGPT — ce qui n’est pas équi­valent à des sup­pres­sions d’emplois nettes. L’é­co­no­mie dans son ensemble conti­nue de créer des emplois ; c’est leur struc­ture qui se trans­forme, et avec elle le conte­nu des com­pé­tences atten­dues12.

En France, le tableau est ana­logue. Les pro­jec­tions pour 2026–2030 iden­ti­fient plu­sieurs caté­go­ries socio-pro­fes­sion­nelles par­ti­cu­liè­re­ment vul­né­rables : les pro­fes­sions inter­mé­diaires admi­nis­tra­tives, cer­tains cadres des fonc­tions sup­port, les employés de bureau qua­li­fiés. La France n’est pas immu­ni­sée par son modèle social — elle est expo­sée, comme ses par­te­naires, à une recom­po­si­tion accé­lé­rée de son mar­ché du tra­vail13.

Figure 3 : Expo­si­tion à l’IA par CSP en France, scores syn­thé­ti­sés d’a­près France Stra­té­gie, OCDE, INSEE et WEF (2025–2030)

David Autor offre une pers­pec­tive plus nuan­cée et, à terme, plus opti­miste : l’IA pour­rait recons­ti­tuer de la valeur pour le tra­vail qua­li­fié en ampli­fiant ce que les humains font de mieux — le juge­ment, la rela­tion, la créa­ti­vi­té contex­tuelle. Elle pour­rait même être le levier d’une recons­truc­tion des emplois qua­li­fiés de la classe moyenne, à condi­tion que la tech­no­lo­gie soit orien­tée vers l’aug­men­ta­tion des capa­ci­tés humaines plu­tôt que vers leur sub­sti­tu­tion pure. Mais cette pers­pec­tive sup­pose des poli­tiques actives. Elle ne se maté­ria­li­se­ra pas spon­ta­né­ment14.

L’entreprise face à l’IA : entre adoption hésitante et transformation profonde

Si les effets macroé­co­no­miques res­tent à conso­li­der, les effets de l’IA sur l’or­ga­ni­sa­tion interne des entre­prises sont déjà per­cep­tibles. La pre­mière leçon des études empi­riques les plus rigou­reuses est que les résul­tats dépendent bien moins de la tech­no­lo­gie elle-même que des choix orga­ni­sa­tion­nels qui l’ac­com­pagnent. Deux entre­prises dotées des mêmes outils peuvent obte­nir des résul­tats radi­ca­le­ment dif­fé­rents selon qu’elles ont repen­sé leurs pro­ces­sus, for­mé leurs équipes et redé­fi­ni les rôles — ou non15.

Cette ten­sion entre auto­ma­ti­sa­tion et aug­men­ta­tion est au cœur du rap­port Beyond the Bina­ry : les deux dyna­miques coexistent et se com­binent. Une même tech­no­lo­gie peut auto­ma­ti­ser des tâches rou­ti­nières tout en aug­men­tant la capa­ci­té d’ac­tion sur les tâches à forte valeur ajou­tée. On iden­ti­fie empi­ri­que­ment trois pro­fils d’a­dop­tion : les « cyborgs », qui intègrent l’IA de manière fluide dans leur flux de tra­vail quo­ti­dien ; les « cen­taures », qui alternent entre tra­vail auto­nome et délé­ga­tion à l’IA selon la nature des tâches ; et les « auto-auto­ma­ti­seurs », qui pro­gramment l’IA pour prendre en charge des por­tions entières de leur acti­vi­té. Ces trois modes n’ont pas les mêmes impli­ca­tions pour les com­pé­tences requises, les risques d’ob­so­les­cence ou les besoins de for­ma­tion. La ques­tion n’est donc pas « l’IA rem­place-t-elle ? » mais « com­ment est-elle déployée, par qui, pour quels objec­tifs, et avec quels garde-fous ? »16.

Les entre­prises qui ont réus­si à déployer une IA qui élève les com­pé­tences de leurs sala­riés l’ont fait déli­bé­ré­ment, en refu­sant de lais­ser la seule logique d’au­to­ma­ti­sa­tion dic­ter les choix d’architecture

Une caté­go­rie par­ti­cu­liè­re­ment scru­tée est celle des mana­gers inter­mé­diaires. L’IA rend visibles des couches hié­rar­chiques dont la valeur ajou­tée — trans­mis­sion de l’in­for­ma­tion, coor­di­na­tion, repor­ting — est pré­ci­sé­ment celle que les sys­tèmes auto­ma­ti­sés peuvent désor­mais assu­mer17. Mais la fonc­tion mana­gé­riale ne se réduit pas à la cir­cu­la­tion de l’in­for­ma­tion : elle inclut le déve­lop­pe­ment des talents, la ges­tion des conflits, l’in­ter­pré­ta­tion du contexte, la confiance dans les équipes — com­pé­tences que le McKin­sey Glo­bal Ins­ti­tute iden­ti­fie comme les grandes gagnantes de l’ère IA, dont la demande croît pré­ci­sé­ment parce que les LLMs ne savent pas les repro­duire. Le mana­ger de demain n’est pas celui qui filtre l’in­for­ma­tion — c’est celui qui crée du sens18.

Enfin — et c’est peut-être la leçon la plus impor­tante — une IA favo­rable aux tra­vailleurs ne se construit pas par défaut. Les recherches du MIT Sloan le montrent : les entre­prises qui ont réus­si à déployer une IA qui élève les com­pé­tences de leurs sala­riés l’ont fait déli­bé­ré­ment, en refu­sant de lais­ser la seule logique d’au­to­ma­ti­sa­tion dic­ter les choix d’ar­chi­tec­ture. Ce n’est pas un impé­ra­tif moral abs­trait : c’est une condi­tion de per­for­mance durable, dans un contexte où la réten­tion des talents et la confiance interne deviennent des avan­tages com­pé­ti­tifs déter­mi­nants19. Ace­mo­glu, Autor et John­son vont plus loin : ce n’est pas seule­ment une ques­tion de choix d’en­tre­prise, c’est une défaillance de mar­ché docu­men­tée. Trois fac­teurs cumu­la­tifs poussent struc­tu­rel­le­ment l’in­dus­trie vers l’au­to­ma­ti­sa­tion : la dépen­dance au sen­tier (les grandes firmes ont bâti leur modèle éco­no­mique sur des outils d’au­to­ma­ti­sa­tion dont elles tirent leur ren­ta­bi­li­té) ; l’i­déo­lo­gie domi­nante dans les labo­ra­toires de recherche, orien­tée vers l’A­GI et peu sen­sible aux effets de tra­vail ; et la concen­tra­tion crois­sante du sec­teur, qui étouffe les modèles alter­na­tifs. « We are not cur­rent­ly on the pro-wor­ker AI path » — « nous ne sommes pas actuel­le­ment sur la voie d’une IA favo­rable aux tra­vailleurs » —, tranche Simon John­son. Cette défaillance appelle des réponses qui dépassent la bonne volon­té des entre­prises20.

Pour un plan Marshall de la formation

Si l’IA com­prime les postes d’en­trée, elle fra­gi­lise le prin­ci­pal méca­nisme par lequel les socié­tés ont tou­jours trans­mis leur capi­tal humain : l’ap­pren­tis­sage sur le tas. Toutes les typo­lo­gies d’in­te­rac­tion humain-IA — des « cyborgs » aux « cen­taures » en pas­sant par les « auto-auto­ma­ti­seurs » — sup­posent une exper­tise préa­lable que l’IA vient ampli­fier. Mais cette exper­tise se construit dans les pre­mières années d’ac­ti­vi­té pro­fes­sion­nelle, dans des postes juniors qui sont pré­ci­sé­ment ceux qui dis­pa­raissent. Le risque sys­té­mique est réel : en court-cir­cui­tant l’ap­pren­tis­sage d’en­trée de car­rière, l’IA risque de créer une géné­ra­tion de pro­fes­sion­nels sans fon­da­tions solides — des édi­fices sans rez-de-chaus­sée21.

Ce diag­nos­tic impose une réponse de l’am­pleur d’un Plan Mar­shall. L’a­na­lo­gie n’est pas rhé­to­rique : le plan de 1948 était une réponse col­lec­tive et struc­tu­rée à une des­truc­tion mas­sive de capi­tal phy­sique. L’IA crée une des­truc­tion accé­lé­rée de capi­tal humain — pas par la vio­lence, mais par l’ob­so­les­cence. Les tra­vaux d’Ox­ford sur le chô­mage tech­no­lo­gique rap­pellent uti­le­ment que chaque grande vague d’au­to­ma­ti­sa­tion a pro­duit ses adap­ta­tions inat­ten­dues ; mais aucune vague pré­cé­dente n’a­vait ce rythme ni cette por­tée trans­ver­sale à l’en­semble des fonc­tions cog­ni­tives, du bas de l’é­chelle jus­qu’aux pro­fes­sions les plus qua­li­fiées22.

Les com­pé­tences ont une durée de vie de plus en plus courte, et les sys­tèmes de for­ma­tion conti­nue ont été conçus pour un monde où l’ob­so­les­cence se comp­tait en décen­nies, non en années

Trois chan­tiers s’im­posent en paral­lèle. Le pre­mier est la réforme des cur­ri­cu­lums : des for­ma­tions pri­maires aux grandes écoles, il faut inté­grer non seule­ment les com­pé­tences d’in­te­rac­tion avec l’IA, mais sur­tout les apti­tudes que les LLMs ne savent pas repro­duire — juge­ment cri­tique, argu­men­ta­tion, créa­ti­vi­té contex­tuelle, intel­li­gence rela­tion­nelle. Les tra­vaux sur les com­pé­tences K‑12 à l’ère de l’IA montrent que cette réforme est fai­sable à grande échelle si on se donne les moyens de la prio­ri­sa­tion23.

Le deuxième chan­tier est un pro­gramme mas­sif de recon­ver­sion pro­fes­sion­nelle, ciblé sur les 40 % de métiers les plus expo­sés. Les don­nées gra­nu­laires du Bud­get Lab de Yale per­mettent de prio­ri­ser ces inter­ven­tions avec une pré­ci­sion inédite. L’en­jeu est de construire des par­cours courts, cer­ti­fiants, acces­sibles aux actifs en emploi, avec une gou­ver­nance tri­par­tite asso­ciant État, branches pro­fes­sion­nelles et entre­prises. La rapi­di­té est ici déci­sive : les com­pé­tences ont une durée de vie de plus en plus courte, et les sys­tèmes de for­ma­tion conti­nue ont été conçus pour un monde où l’ob­so­les­cence se comp­tait en décen­nies, non en années.

Le troi­sième chan­tier est finan­cier. Les entre­prises inves­tissent des cen­taines de mil­liards dans l’in­fra­struc­ture IA — data cen­ters, puces, modèles de fon­da­tion. Un effort com­pa­rable sur le capi­tal humain n’est pas seule­ment une obli­ga­tion morale : c’est la condi­tion de la sou­te­na­bi­li­té sociale du modèle. Les scé­na­rios éco­no­miques pour une IA trans­for­ma­trice éla­bo­rés en février 2026 à Londres, dans le cadre d’un exer­cice pros­pec­tif réunis­sant des éco­no­mistes et des déci­deurs autour de Wind­fall Trust et du Gre­sham Col­lege, l’illus­trent avec pré­ci­sion : dans toutes les tra­jec­toires où les gains de pro­duc­ti­vi­té se dis­tri­buent lar­ge­ment, l’in­ves­tis­se­ment en for­ma­tion a sys­té­ma­ti­que­ment pré­cé­dé — ou accom­pa­gné — le déploie­ment tech­no­lo­gique. L’op­po­sé est tout aus­si vrai : là où la for­ma­tion a été dif­fé­rée, les béné­fices de l’IA se sont concen­trés sur quelques acteurs, creu­sant les inéga­li­tés au lieu de les réduire24.

Figure 4 : Deux tra­jec­toires – for­ma­tion anti­ci­pée vs for­ma­tion dif­fé­rée, 2025–2035 (Royaume-Uni, prospectif)

Ces trois chan­tiers — cur­ri­cu­lums, recon­ver­sion, finan­ce­ment — sont néces­saires. Mais ils ne suf­fisent pas si l’on ne s’at­taque pas au pro­blème en amont : l’o­rien­ta­tion de l’IA elle-même. Ace­mo­glu, Autor et John­son iden­ti­fient trois leviers poli­tiques com­plé­men­taires. Le pre­mier est l’ap­pli­ca­tion du droit de la concur­rence pour bri­ser la concen­tra­tion du sec­teur et ouvrir l’es­pace à de nou­veaux entrants por­teurs de modèles d’af­faires moins tour­nés vers l’au­to­ma­ti­sa­tion pure. Le deuxième est la pro­tec­tion juri­dique de l’ex­per­tise pro­fes­sion­nelle : les tra­vailleurs dont le savoir-faire est absor­bé par les sys­tèmes d’IA devraient dis­po­ser de droits sur cette contri­bu­tion, comme une digue contre le « vol d’ex­per­tise »25. Le troi­sième est l’ins­ti­tu­tion­na­li­sa­tion de la voix des tra­vailleurs dans les déci­sions de déploie­ment — au niveau de l’en­tre­prise comme de la régu­la­tion sec­to­rielle. For­mer les humains à s’a­dap­ter à l’IA est indis­pen­sable ; orien­ter l’IA vers les humains est tout aus­si urgent26.

Face aux bouleversements sociaux, créer de nouvelles formes de solidarité

Ce plan de for­ma­tion est donc indis­pen­sable pour ceux dont les com­pé­tences sont mena­cées par l’in­tel­li­gence arti­fi­cielle. Tou­te­fois, l’his­toire enseigne que les révo­lu­tions indus­trielles bou­le­versent les cadres sociaux tra­di­tion­nels. Lors­qu’ils sont mas­sifs, les gains de pro­duc­ti­vi­té ne sont pas une simple don­née sta­tis­tique ; ils annoncent une pro­fonde muta­tion structurelle.

Au XIXe siècle, la domes­ti­ca­tion de la puis­sance méca­nique et ther­mique a bru­ta­le­ment évin­cé les pay­sans de leurs champs et déclas­sé des arti­sans au pro­fit d’u­sines opé­rées par des ouvriers peu qua­li­fiés. Ce pro­ces­sus a consti­tué un pro­lé­ta­riat urbain plon­gé dans la misère par la sur­abon­dance de l’offre de tra­vail. Mal­gré une hausse spec­ta­cu­laire du PIB, les condi­tions de vie ouvrière ont stag­né pen­dant près d’un demi-siècle. C’est la « pause d’En­gels »27, la période pen­dant laquelle l’é­lite indus­trielle a cap­tu­ré l’es­sen­tiel de la richesse née des gains de pro­duc­ti­vi­té. Ce bou­le­ver­se­ment est aus­si carac­té­ri­sé par une dévas­ta­trice perte de repères sociaux : dépla­ce­ments for­cés, dis­ten­sion des soli­da­ri­tés fami­liales, effa­ce­ment des hié­rar­chies tra­di­tion­nelles du tra­vail, rému­né­ra­tions de sub­sis­tance. L’é­co­no­mie est alors « désen­cas­trée » de la socié­té, selon les termes de Pola­nyi28. La réac­tion intel­lec­tuelle et poli­tique fut vigou­reuse : du Capi­tal de Karl Marx (1867) à la struc­tu­ra­tion des mou­ve­ments révo­lu­tion­naires et réfor­mistes, un rap­port de forces se construit entre le capi­tal et le tra­vail pour abou­tir pro­gres­si­ve­ment à la sécu­ri­té sociale moderne, sans le « grand soir » annoncé.

Cette fresque his­to­rique est évi­dem­ment sim­pli­fiée. La lente construc­tion du pacte social ne fut ni natu­relle, ni pai­sible. Elle a eu lieu sous la pres­sion bru­tale des chocs poli­tiques et géo­po­li­tiques : expan­sion colo­niale, choc des impé­ria­lismes, révo­lu­tion sovié­tique et guerres mon­diales. Le pacte social a aus­si long­temps repo­sé sur l’é­mer­gence d’emplois de repli dans les ser­vices, capables d’ab­sor­ber les effec­tifs ren­dus inutiles dans l’a­gri­cul­ture et l’in­dus­trie. Dou­glass North sou­ligne que la sur­vie d’un tel sys­tème dépend de l’é­vo­lu­tion de ses ins­ti­tu­tions pour gérer ces tran­si­tions29.

L’IA pour­rait pro­vo­quer des muta­tions com­pa­rables à celles des révo­lu­tions industrielles

Parce qu’elle est cog­ni­tive, la révo­lu­tion de l’IA se répan­dra plus rapi­de­ment que celle du moteur — ce qui rend l’in­ter­ven­tion d’au­tant plus urgente : une « pause d’En­gels » de 60 ans serait inac­cep­table au XXIe siècle, même rac­cour­cie. Dans ses appli­ca­tions phy­siques, l’IA s’ap­puie sur des archi­tec­tures de robots exis­tantes ou repro­gram­mables dans des délais rela­ti­ve­ment courts. Comme l’élec­tri­ci­té, l’IA est une tech­no­lo­gie trans­ver­sale sus­cep­tible d’ac­croître mas­si­ve­ment la pro­duc­ti­vi­té de tous les sec­teurs. Tout est ques­tion de rythme de déploie­ment et d’impact réel mais le risque existe et doit être ana­ly­sé et anti­ci­pé. L’IA pour­rait pro­vo­quer des muta­tions com­pa­rables à celles des révo­lu­tions indus­trielles anté­rieures. Il s’agit plus d’une ques­tion de temps, en par­ti­cu­lier dans une Europe qui a sous-inves­ti la tech­no­lo­gie et la R&D depuis plus de 10 ans. Par ailleurs, depuis 20 ans, la révo­lu­tion de l’in­ter­net concentre les rentes chez un petit nombre d’ac­teurs capables d’in­ves­tir mas­si­ve­ment en capi­tal indus­triel et humain. Cette accu­mu­la­tion de capi­tal per­met au Big Tech amé­ri­cain de se posi­tion­ner aux avant-postes de l’IA, en acqué­rant les start-ups concur­rentes, en recru­tant les meilleurs talents et en pré­emp­tant les res­sources élec­triques néces­saires au déploie­ment. Ces pos­tures rap­pellent celles des oli­go­poles pétro­liers de la deuxième révo­lu­tion indus­trielle, fina­le­ment déman­te­lés au début du XXe siècle.

Face au risque de déclas­se­ment, nous pei­nons à ima­gi­ner les futurs sec­teurs de repli. Même si le vieillis­se­ment de la popu­la­tion, l’é­du­ca­tion, les loi­sirs et la san­té sont des thé­ma­tiques d’emploi puis­santes, elles sont aujourd’­hui mal rému­né­rées et peu attrayantes. En paral­lèle, la tech­no­lo­gie réac­tive les ten­sions géo­po­li­tiques : elle est, par exemple, une des causes fon­da­men­tales des fric­tions sino-amé­ri­caines. Nous devons donc nous pré­pa­rer à une double révo­lu­tion — l’im­pact interne de la tech­no­lo­gie dans nos pro­duc­tions et les effets externes d’une nou­velle répar­ti­tion des richesses. Comme l’in­diquent Ace­mo­glu et John­son30, après Kori­nek et Sti­glitz31, l’a­jus­te­ment ne sera pro­ba­ble­ment pas spon­ta­né et néces­site de « diri­ger » le pro­grès tech­nique32. Cette posi­tion est contes­tée par ceux qui redoutent les risques de cap­ture régle­men­taire ; elle n’en pose pas moins une ques­tion inté­res­sante et qu’il est pro­ba­ble­ment néces­saire d’anticiper.

Il est donc pru­dent de tra­vailler sur des para­digmes nova­teurs, notam­ment en termes d’ins­ti­tu­tions et de finan­ce­ment. Les options fré­quem­ment pro­po­sées sont toutes en rup­ture avec les dis­po­si­tifs exis­tants : reve­nu uni­ver­sel, accès gra­tuit aux ser­vices publics, baisse volon­taire de la pro­duc­ti­vi­té par la réduc­tion du temps de tra­vail. Il est trop tôt pour se pro­non­cer mais il reste à finan­cer ces pro­grammes. Le sujet est simple en appa­rence, puisque la hausse de la pro­duc­ti­vi­té aug­mente l’as­siette des richesses à répar­tir. On évoque des taxes sur les robots33 et le capi­tal pro­duc­tif, voire sur les don­nées, puisque la taxa­tion du tra­vail seule sera insuf­fi­sante34. Ou bien la consti­tu­tion d’un très grand fonds de pro­tec­tion sociale, géré comme un fonds de pen­sion abon­dé par des parts des nou­velles entre­prises, en contre­par­tie de la four­ni­ture des infra­struc­tures sociales aux­quelles elles devront leur suc­cès — sur le modèle de l’A­las­ka Per­ma­nent Fund, qui redis­tri­bue aux citoyens une frac­tion des reve­nus pétro­liers d’É­tat, ou des pro­po­si­tions aca­dé­miques de « fonds citoyen » déve­lop­pées par John Roe­mer et reprises par Daron Ace­mo­glu. Dans la même veine, David Autor et Neil Thomp­son (MIT) pro­posent un « Uni­ver­sal Basic Capi­tal » : chaque enfant rece­vrait à la nais­sance un por­te­feuille d’ac­tifs pro­duc­tifs, lui confé­rant un droit per­ma­nent aux reve­nus du capi­tal — y com­pris auto­ma­ti­sé — sans dépendre de trans­ferts bud­gé­taires poli­ti­que­ment vul­né­rables. D’autres idées sont néces­saires, car les mon­tants évo­qués ici ne sont pas à la hau­teur des enjeux. Ces pro­po­si­tions sup­posent de sur­croît un consen­sus mon­dial en rai­son de la mobi­li­té du capi­tal et des entre­pre­neurs. Ce débat doit avoir lieu avant que des solu­tions indé­si­rables ne nous soient impo­sées par une évo­lu­tion du mar­ché du tra­vail où nous serions « agis » et non pas « agissants ».

L’é­co­no­miste David Autor a cette for­mule : l’IA pour­rait recons­truire la classe moyenne en ampli­fiant ce que les humains font de mieux. Bryn­jolf­sson nous rap­pelle, don­nées à l’ap­pui, que pour l’ins­tant, ce sont les plus jeunes qui paient le prix de la tran­si­tion. Entre ces deux véri­tés, il n’y a pas de contra­dic­tion — il y a un agenda.

L’IA est un ampli­fi­ca­teur. Elle ampli­fie la pro­duc­ti­vi­té des orga­ni­sa­tions qui s’y pré­parent ; elle ampli­fie les inéga­li­tés dans celles qui ne le font pas. Elle peut ampli­fier la valeur du juge­ment humain ; elle peut aus­si ampli­fier la vul­né­ra­bi­li­té de ceux qui n’ont pas accès à la for­ma­tion. La vraie ques­tion n’est pas tech­no­lo­gique. Elle est poli­tique : avons-nous la volon­té col­lec­tive de faire de la for­ma­tion une prio­ri­té aus­si urgente que l’in­ves­tis­se­ment en infra­struc­ture numé­rique ? et de trou­ver des solu­tions créa­tives et réa­listes pour finan­cer la trans­for­ma­tion du sys­tème. La réponse à cette ques­tion déter­mi­ne­ra si le divi­dende IA pro­fite à quelques-uns — ou à tous.

1Tors­ten Slok, Raj­vi Shah and Shru­ti Gal­wan­kar., Quan­ti­fying the Pro­duc­ti­vi­ty Gains from AI Adop­tion, Apol­lo Glo­bal Mana­ge­ment, jan­vier 2026.
2Ear­ly Signals of AI Impact, tableau de bord en temps réel (jobs​da​ta​.ai), mars 2026. Agrège 460+ sources / 18 indi­ca­teurs. Diag­nos­tic : adop­tion accé­lé­rée, pro­duc­ti­vi­té en hausse, postes d’exé­cu­tion en com­pres­sion — aucun dépla­ce­ment macroé­co­no­mique agré­gé encore mesu­rable.
3Filip­po Bon­ta­di­ni, Carol Cor­ra­do, Jona­than Has­kel et al., AI as an Inno­va­tion in the Method of Inno­va­tion, SPRU/Imperial, octobre 2025.
4Anja­na Susar­la, A Gap in AI Adop­tion ? Mora­vec and the AI Pro­duc­ti­vi­ty Para­dox, Forbes, jan­vier 2026.
5Har­vard Busi­ness Review, AI Doesn’t Reduce Work — It Inten­si­fies It, février 2026.
6Ace­mo­glu, Autor, John­son, op. cit. ; MIT Sloan, Pro-Wor­ker AI Doesn’t Just Hap­pen, 2026. Sur la dis­tinc­tion aug­men­ta­tion / auto­ma­ti­sa­tion comme variable déter­mi­nante des effets sociaux de l’IA.
7Ace­mo­glu, Autor, John­son, op. cit. Les auteurs dis­tinguent cinq caté­go­ries de tech­no­lo­gies (aug­men­tant le tra­vail, le capi­tal, auto­ma­ti­santes, nive­lant l’ex­per­tise, créant de nou­velles tâches). Seule cette der­nière est « unam­bi­guous­ly pro-wor­ker ».
8Erik Bryn­jolf­sson, Bha­rat Chan­dar, Ruyu Chen, Cana­ries in the Coal Mine ? Six Facts about the Recent Employ­ment Effects of AI, Stan­ford Digi­tal Eco­no­my Lab, août 2025.
9Ibid. Les don­nées ADP couvrent plu­sieurs dizaines de mil­lions de sala­riés amé­ri­cains — base empi­rique la plus gra­nu­laire dis­po­nible sur l’im­pact de l’IA sur l’emploi des jeunes tra­vailleurs.
10Finan­cial Times, The Great Gra­duate Job Drought, 2026.
11Bud­get Lab at Yale, Labor Mar­ket AI Expo­sure : What Do We Know?, février 2026 ; Gad Leva­non, AI Expo­sure and Labor Mar­ket Change : What Charts Do and Don’t Show, Lin­ke­dIn Pulse, 2026. À noter : Nata­sha Sarin, pré­si­dente du Bud­get Lab, pré­cise dans une conver­sa­tion publiée par le New York Times (4 février 2026) que les don­nées de l’ins­ti­tu­tion ne montrent pas de dif­fé­rence signi­fi­ca­tive entre les niveaux d’emploi dans les métiers les plus expo­sés à l’IA et les moins expo­sés.
12David Autor, Anton Kori­nek, Nata­sha Sarin, entre­tien conduit par David Leon­hardt, « What Eco­no­mists Real­ly Think About A.I. and Jobs », The New York Times, 4 février 2026. Autor y sou­ligne que le ralen­tis­se­ment de l’embauche dans les métiers expo­sés com­mence avant ChatGPT et que la hausse des taux Fed est une expli­ca­tion concur­rente. Sarin y indique que le Bud­get Lab ne détecte pas de dif­fé­rence signi­fi­ca­tive entre métiers expo­sés et non expo­sés. Autor et Neil Thomp­son y esquissent le concept d”« Uni­ver­sal Basic Capi­tal ».
13Expo­si­tion à l’IA géné­ra­tive et emploi : appli­ca­tion à la clas­si­fi­ca­tion socio-pro­fes­sion­nelle fran­çaise, 2024 ; Zety, Les métiers en France face au risque de l’IA (2026–30).
14David Autor, AI and the Future of Work, Issues​.org ; NBER wor­king paper w32140, Applying AI to Rebuild Middle Class Jobs.
15MIT Ini­tia­tive on the Digi­tal Eco­no­my, Effec­tive AI in the Work­place : What the Research Shows, Medium, février 2026 ; SYPart­ners, Still Loa­ding : Humans at Work in the AI Age, 2026.
16Matt Sigel­man et al., Beyond the Bina­ry : How Auto­ma­tion and Aug­men­ta­tion Are Com­bi­ning to Reshape Work, jan­vier 2026.
17Le Figa­ro Déci­deurs, IA, recherche d’ef­fi­ca­ci­té : les mana­gers inter­mé­diaires sont-ils une espèce en voie de dis­pa­ri­tion ?, février 2026.
18McKin­sey Glo­bal Ins­ti­tute, Human Skills Will Mat­ter More Than Ever in the Age of AI, 2025 ; Eric Hazan, Anu Mad­gav­kar, Michael Chui et al., A New Future of Work : The Race to Deploy AI and Raise Skills in Europe and Beyond, MGI, 2024.
19MIT Sloan, Pro-Wor­ker AI Doesn’t Just Hap­pen : Com­pa­nies Need to Act, 2026 ; Daron Ace­mo­glu, David Autor, Simon John­son, Buil­ding Pro-Wor­ker Arti­fi­cial Intel­li­gence, The Hamil­ton Pro­ject / Broo­kings, NBER Wor­king Paper 34854, février 2026.
20Ace­mo­glu, Autor, John­son, op. cit. Les auteurs iden­ti­fient la path depen­dence, l’i­déo­lo­gie pro-AGI des labo­ra­toires et la concen­tra­tion du sec­teur comme fac­teurs de sous-inves­tis­se­ment struc­tu­rel dans l’IA pro-tra­vailleur.
21Ste­ven Ran­daz­zo (Warwick/Harvard Busi­ness School WP 26–036), Cyborgs, Cen­taurs and Self-Auto­ma­tors : The Three Modes of Human-GenAI Know­ledge Work and Their Impli­ca­tions for Skilling, 2025.
22Anselm Küs­ters et Ben­ja­min Schnei­der, What is Tech­no­lo­gi­cal Unem­ploy­ment?, Oxford Eco­no­mic and Social His­to­ry Wor­king Paper n° 218, mars 2025.
23Which Skills Mat­ter Now ? A Data-Dri­ven Fra­me­work for K‑12 in the Age of AI, V5.1, 2025
24Dan­ny Buerk­li (Wind­fall Trust) et Daniel Suss­kind (Gre­sham Col­lege, Oxford), Secu­ring huma­ni­ty’s AI future — Eco­no­mic Sce­na­rios for Trans­for­ma­tive AI, Londres, 5 février 2026. Construit sur des tra­vaux anté­rieurs avec Bryn­jolf­sson, Kori­nek et Agra­wal.
25Des accords de com­pen­sa­tion col­lec­tive existent déjà dans ce domaine : le syn­di­cat amé­ri­cain SAG-AFTRA (Screen Actors Guild – Ame­ri­can Fede­ra­tion of Tele­vi­sion and Radio Artists, sagaf​tra​.org) a obte­nu en 2023, après une grève de 118 jours, que les stu­dios s’en­gagent contrac­tuel­le­ment à recueillir le consen­te­ment des acteurs et à les indem­ni­ser avant toute uti­li­sa­tion de leur image ou voix pour l’en­traî­ne­ment de modèles d’IA. Ce pré­cé­dent montre que des méca­nismes sec­to­riels de com­pen­sa­tion sont opé­ra­tion­nels — même si leur exten­sion aux pro­fes­sions cog­ni­tives reste un chan­tier ouvert.
26Ace­mo­glu, Autor, John­son, op. cit. Neuf direc­tions poli­tiques ana­ly­sées : anti­trust, pro­tec­tion de l’ex­per­tise des tra­vailleurs, ins­ti­tu­tion­na­li­sa­tion de leur voix, focus sec­to­riel san­té et édu­ca­tion.
27Robert C. Allen (2009), « Engels” Pause : A Pes­si­mist’s Guide to the Bri­tish Indus­trial Revo­lu­tion », Explo­ra­tions in Eco­no­mic His­to­ry, vol. 46.
28Karl Pola­nyi, La Grande Trans­for­ma­tion (1944) : Pola­nyi décrit le pro­ces­sus par lequel le mar­ché, au XIXe siècle, a ces­sé d’être un outil au ser­vice de la socié­té pour deve­nir une force auto­nome qui impose ses règles. La désen­cas­tre­ment de l’é­co­no­mie crée selon lui une insta­bi­li­té sociale struc­tu­relle qui appelle, tôt ou tard, un mou­ve­ment de ré-encas­tre­ment.
29North, D. C. (1990). Ins­ti­tu­tions, Ins­ti­tu­tio­nal Change and Eco­no­mic Per­for­mance. Cam­bridge Uni­ver­si­ty Press.
30Ace­mo­glu, D., & John­son, S. (2023). Power and Pro­gress : Our Thou­sand-Year Struggle Over Tech­no­lo­gy and Pros­pe­ri­ty. Publi­cAf­fairs.
31Kori­nek, A., & Sti­glitz, J. E. (2021). « Stee­ring Tech­no­lo­gi­cal Pro­gress », AEA Papers and Pro­cee­dings, vol. 111.
32Ace­mo­glu (Power and Pro­gress, 2023) sou­tient que la direc­tion du pro­grès tech­nique est un choix poli­tique. Si l’IA est orien­tée uni­que­ment vers l’au­to­ma­ti­sa­tion (rem­pla­ce­ment de tâches), elle com­prime les emplois et concentre les gains.
33Plu­sieurs éco­no­mistes ont pro­po­sé une taxa­tion des robots ou des sys­tèmes d’IA pour finan­cer la tran­si­tion sociale, dont Robert Shil­ler (« Robo­ti­za­tion of the Work­force and the Need for a Robot Tax », 2017) et Bill Gates (inter­view Quartz, février 2017 : « The robot that takes your job should pay taxes »). L’i­dée reste contro­ver­sée : ses détrac­teurs craignent qu’elle décou­rage l’in­no­va­tion.
34Kori­nek, A., & Sti­glitz, J. E. (2021). « Stee­ring Tech­no­lo­gi­cal Pro­gress », op. cit. Les auteurs sou­lignent qu’en l’ab­sence d’in­ter­ven­tion, les gains de pro­duc­ti­vi­té liés à l’IA béné­fi­cie­ront struc­tu­rel­le­ment aux déten­teurs de capi­tal et non aux tra­vailleurs.

👋 Nous avons besoin de votre avis ! Prenez quelques minutes pour répondre à notre enquête de lectorat

Je participe à l'enquête