L’intelligence artificielle (IA), en particulier dans sa forme « agentique »1, ne se contente plus de transformer les métiers : elle redessine les équilibres économiques, sociaux et politiques des sociétés démocratiques. Les études récentes, notamment celle dévoilée le 18 mars 2026 par la Coface et l’Observatoire des emplois menacés et émergents2, révèlent une réalité inquiétante : près de 5 millions d’emplois en France, soit un sur six, pourraient être menacés d’ici 2 à 5 ans. Contrairement aux révolutions technologiques passées, qui frappaient surtout les emplois intermédiaires ou peu qualifiés, l’IA cible désormais les cols blancs, les métiers intellectuels et les professions les mieux rémunérées. Les architectes, les ingénieurs, les juristes, les comptables, les journalistes et même les cadres de la finance voient leurs tâches automatisables à plus de 20%, voire 30%. Cette accélération sans précédent pose une question fondamentale : que devient une société lorsque sa base fiscale et ses élites professionnelles sont fragilisées par une technologie dont les promesses de création d’emplois restent, pour l’heure, largement théoriques ?
Schumpeter en PLS ou la destruction créatrice en panne : quand l’IA détruit plus vite qu’elle ne crée
L’argument classique de la « destruction créatrice », cher aux économistes libéraux, suppose que les emplois détruits par l’innovation seront compensés par de nouvelles activités, plus qualifiées et plus valorisantes. Pourtant, avec l’IA, ce mécanisme semble grippé. Les tâches automatisables le sont à un rythme tel que les nouvelles activités peinent à émerger – ou, lorsqu’elles apparaissent, elles sont à leur tour vulnérables à l’automatisation. Les juniors des cabinets de conseil, les correcteurs de presse, les assistants juridiques ou les analystes financiers commencent à voir leurs postes supprimés ou déqualifiés, tandis que les promesses de reconversion vers des métiers « émergents » – data analysts, managers d’IA – restent limitées à une minorité. Pire, ces nouveaux emplois, lorsqu’ils existent, sont souvent moins stables, moins rémunérateurs, ou soumis à une pression accrue de productivité.
| Révolution technologique | Vitesse de déploiement | Emplois détruits | Emplois créés | Impact social |
| Machine à vapeur (XIXe) | Décennies | Ouvriers agricoles/artisans | Ouvriers d’usine | Urbanisation, travail des enfants |
| Électricité (XXe) | 20-30 ans | Emplois manuels | Techniciens, ingénieurs | Montée des classes moyennes |
| Informatique (années 1980-2000) | 15-20 ans | Employés administratifs | Développeurs, data analysts | Polarisation du marché du travail |
| IA générative (2020-) | 2-5 ans | Cols blancs, cadres | Peu (prompt engineers, etc.) | Précarisation des élites, choc fiscal ? |
Les entreprises, sous couvert d’innovation, utilisent l’IA comme un levier de réduction des coûts salariaux. Les plans de licenciements annoncés chez Prisma Media (récemment racheté par Bolloré), Capgemini ou Microsoft France invoquent explicitement l’IA pour justifier des suppressions de postes, alors même que la technologie n’est pas toujours pleinement déployée. Cette précipitation révèle une stratégie financière plus qu’industrielle : l’IA sert de prétexte pour rationaliser des effectifs, externaliser des activités, ou délocaliser des tâches vers des pays à bas coûts. Les syndicats, comme la CGT chez Prisma Media, dénoncent une instrumentalisation de l’IA pour masquer des restructurations purement comptables.
Dans ce contexte, la productivité gagnée grâce à l’IA ne profite ni aux salariés, ni à l’économie réelle. Elle se traduit par des gains financiers pour les actionnaires et une concentration accrue du capital entre les mains des géants technologiques. Les 10% des Français les mieux rémunérés, dont les emplois sont les plus exposés, contribuent aujourd’hui fortement aux recettes fiscales et sociales. Leur précarisation menace directement le financement de la protection sociale, alors même que les emplois de production, moins touchés par l’IA, stagnent depuis longtemps en termes de salaires et de reconnaissance de qualifications.
Un défi fiscal et écologique ignoré : l’IA, technologie subventionnée (sans que vous ne le sachiez) par la collectivité
L’IA bénéficie d’un avantage structurel : ses coûts réels – énergétiques, environnementaux, sociaux – ne sont pas internalisés. Les data centers, gourmands en électricité et en eau, prospèrent grâce à des externalités négatives supportées par la collectivité. Aux États-Unis, des moratoires sont déjà demandés en raison des pénuries d’eau locales, tandis qu’en France, les projets de nouveaux centres de données se multiplient sans que leur impact écologique ne soit sérieusement encadré. Pourtant, ces coûts, lorsqu’ils sont ignorés, faussent la compétition entre le travail humain et l’automatisation. Une entreprise qui remplace un salarié par une IA ne paie ni cotisations sociales, ni taxe sur les robots, alors même que les infrastructures publiques (éducation, santé, retraites) dépendent des revenus du travail.
La fiscalité actuelle aggrave ce déséquilibre. Les investissements dans l’IA sont amortissables, tandis que le travail est soumis à des prélèvements obligatoires. Résultat : les entreprises ont un intérêt financier à automatiser, même lorsque le gain de productivité est marginal. Pour corriger cette distorsion, des pistes émergent, comme la taxation des requêtes adressées aux modèles d’IA (« coûts d’inférence ») ou la création de labels « 100% humain » pour valoriser les productions non automatisées. Mais ces mesures se heurtent à la logique d’une économie mondialisée, où la compétitivité et les profits privés priment sur la justice sociale et l’intérêt général.
Risques politiques : quand l’IA alimente la défiance et la polarisation
L’histoire montre que les chocs technologiques, lorsqu’ils ne sont pas accompagnés, nourrissent les populismes et les extrémismes. La désindustrialisation a ainsi contribué à la montée des partis d’extrême droite en Europe et aux États-Unis, en créant des territoires abandonnés et des classes sociales déclassées. Avec l’IA, le risque est double. D’une part, la destruction d’emplois qualifiés dans les métropoles – Paris, Lyon, Grenoble – pourrait fragiliser des bassins d’emploi jusqu’ici épargnés par la précarité. D’autre part, la concentration du capital entre les mains d’une poignée de géants technologiques, majoritairement américains, menace de saper la souveraineté économique française et européenne.
Les syndicats, comme la CFE-CGC chez Orange ou la CFTC chez L’Oréal, alertent déjà sur les dérives managériales liées à l’IA : surveillance accrue des salariés, intensification du travail, déqualification des métiers. À terme, c’est le rapport de force entre capital et travail qui pourrait basculer, avec des salariés réduits à des rôles de « vérificateurs » ou de « superviseurs » d’IA, sans réelle autonomie ni valorisation. Les exemples se multiplient : des traducteurs contraints de corriger des textes générés par machine, des journalistes relégués à la relecture d’articles automatisés, des avocats cantonnés à la validation de contrats rédigés par des algorithmes.
Les pouvoirs publics et les partenaires sociaux sont devant un défi vital ; il est urgent de travailler des pistes pour limiter les dégâts. L’État pourrait conditionner les aides aux entreprises à des engagements en matière de formation et de reconversion, ou imposer des clauses de revoyure dans les accords d’entreprise, comme le fait déjà le centre Henri-Becquerel à Rouen pour les dosimétristes. Une régulation européenne des modèles d’IA, exigeant transparence et explicabilité, pourrait aussi limiter les abus, notamment dans les secteurs critiques (santé, justice, éducation). Enfin, la création d’un écosystème technologique souverain, fondé sur des modèles ouverts et frugaux, permettrait à l’Europe de réduire sa dépendance aux Big Tech américaines.
Vers un modèle français de l’IA ?
La France, comme l’Europe, se trouve à un carrefour. Soit elle subit l’IA comme une fatalité, en laissant les plateformes américaines et les fonds d’investissement dicter les règles du jeu. Soit elle invente un modèle hybride, où l’innovation technologique s’accompagne de garde-fous sociaux, fiscaux et écologiques. Sans que cela relève d’une inventivité démesurée, il conviendrait pour commencer de veiller à quelques priorités…
Premièrement, repenser la formation pour éviter l’obsolescence des compétences. Les programmes actuels, souvent génériques, doivent être remplacés par des parcours ciblés, co-construits avec les branches professionnelles. L’exemple de L’Oréal, qui forme ses salariés au « prompt engineering », montre que l’adaptation est possible – à condition qu’elle ne serve pas de prétexte à une précarisation accrue. Cette préoccupation est au demeurant valable en soi : les entreprises et les grands groupes ne sont pas des organisations philanthropiques, la question du pouvoir des salariés et de leurs représentants est plus que jamais cruciale.
Deuxièmement, rééquilibrer la fiscalité pour que l’IA ne soit plus subventionnée indirectement par la collectivité. Taxer les requêtes aux modèles d’IA, intégrer le coût carbone des data centers, ou encore conditionner les aides publiques à des engagements en matière d’emploi : autant de mesures qui pourraient ralentir la course à l’automatisation et financer la transition.
Troisièmement, encadrer les usages de l’IA dans les secteurs sensibles. Dans la santé, l’éducation ou la justice, l’automatisation ne peut se faire sans contrôle humain. Des instances paritaires, associant salariés, directions et experts, pourraient superviser ces déploiements, comme le demandent les syndicats d’Orange pour leur outil « Speech Analytics ». On retrouve ici l’obligation pointée dans le premier point.
Enfin, soutenir une IA française et européenne, sobre et souveraine. Les modèles ouverts, hébergés localement, permettraient de réduire la dépendance aux géants américains tout en limitant l’empreinte écologique. La France, avec son tissu de start-up et ses laboratoires publics, a les moyens de jouer sa partie – à condition que l’État y consacre les investissements nécessaires et redonne les moyens indispensables à la recherche publique et à l’université, sans se laisser aveugler par les sirènes du « toujours plus technologique ».
L’IA n’est pas une fatalité, mais un choix de société. Les scénarios catastrophistes, s’ils sont plausibles au regard de la perte de souveraineté économique réelle de l’Europe, ne sont pas inévitables – à condition que les dirigeants politiques en prennent rapidement conscience. Toutes les données à notre disposition confirment bien que la trajectoire actuelle repose sur une destruction bien plus rapide des activités que lors des « révolutions technologiques » précédentes. La question n’est donc plus de savoir si l’IA transformera le travail, mais comment elle le fera : en creusant les inégalités et en fragilisant la démocratie, ou en servant de levier pour une stratégie économique et sociale orientée en fonction de choix politiques clairs et délibérés. Le temps de la naïveté technologique est révolu, l’IA n’est pas un gadget inoffensif visant à produire des vidéoclips R’n’B de mauvaise qualité pour salle de gym : c’est une technologie dont les effets transformateurs et destructeurs sont potentiellement massifs, il est donc urgent de préparer des arbitrages politiques et sociaux déterminants.
Frédéric Faravel
1« IA agentique » désigne une catégorie d’intelligence artificielle capable d’agir de manière autonome, c’est-à-dire de planifier, décider et exécuter des tâches complexes sans intervention humaine constante. Contrairement aux outils d’IA traditionnels, qui se limitent à des fonctions spécifiques (comme la génération de texte ou l’analyse de données), l’IA agentique combine plusieurs modèles et technologies pour interagir avec son environnement, prendre des initiatives et accomplir des objectifs définis par l’utilisateur.
2L’étude est intitulée « L’IA, une menace pour 5 millions de salariés en France », portée par le Coface (compagnie d’assurance-crédit) et l’Observatoire des emplois menacés et émergents (OEM), avec notamment Axelle Arquié (économiste, cofondatrice de l’OEM) et Aurélien Duthoit (économiste chez Coface). L’étude a été dévoilée le 18 mars 2026 par Le Monde et devait paraître officiellement le 1er avril 2026.