IA, la revanche des cols bleus
31/12/2025
L’IA a-t-elle pour effet de redéfinir la valeur sociale du travail humain ? IA et exploitation massive des données redéfinissent-elles le pouvoir décisionnel dans les entreprises ?
David Fayon : L’IA redéfinit la valeur sociale du travail en automatisant certaines tâches mais en renforçant aussi l’importance de la créativité, de l’ancrage culturel et du savoir-faire humain. Nous avons vécu sept étapes de l’information¹, de la transmission orale aux IA génératives, en passant par l’avènement de l’écrit, les médias puis Internet et les réseaux sociaux. Ces étapes ne se remplacent pas mais s’ajoutent, ce qui aboutit à une prolifération de données, à l’image des énergies (bois, charbon, pétrole, gaz, hydrogène, nucléaire, renouvelables), leur production et leur consommation qui ne font que croître dans un processus entropique. Chaque façon de produire et de consommer l’information présente des défauts. La transmission orale génère des déformations entre celui qui parle, celui qui écoute et qui comprenant plus ou moins va transmettre à son tour. Les IA génératives sont pour leur part non exactes mais probabilistes. Elles comportent des biais et peuvent produire des hallucinations. En grande consommation, la différenciation devient plus difficile, d’autant que les IA vont uniformiser le contenu produit dans un usage marketing ou commercial. Les marques ont intérêt à miser sur l’authenticité pour se distinguer et fidéliser leur clientèle.
Quant au pouvoir, à chaque étape technologique, les dirigeants ont eu peur qu’il ne leur échappe, et leur réflexe a toujours été de contraindre l’accès aux outils nouveaux, alors même que leurs employés et leurs clients les utilisent. Ce fut le cas pour le téléphone (1970), le mèl (1990), les réseaux sociaux (2010) et désormais les IA génératives (2025). Les marques qui misent sur le volume avec des marges faibles peuvent utilement exploiter des signaux faibles que ces moyens fournissent, grâce à des algorithmes. C’est particulièrement vrai avec les réseaux sociaux, mais plus délicat avec les IA génératives, où il existe des biais et une uniformisation du contenu qui favorisent la chasse au politiquement incorrect – lequel peut pourtant être le révélateur d’une tendance, un signal d’alerte avant un boycottage ou une rumeur malveillante.
Cependant, les grands volumes de données sont par ailleurs souvent matière à optimisation, par exemple dans la logistique et la gestion des stocks. Amazon et Alibaba le font très bien. La pression concurrentielle pousse à innover, et l’entreprise qui sait exploiter une technologie la première prend de l’avance.
Transparence et consentement
Assiste-t-on à une technocratisation de la gouvernance, où l’algorithme légitime certaines décisions au détriment des expertises humaines ?
D. F. : Lorsqu’une décision a des conséquences humaines, financières ou environnementales notables, elle doit être validée par un expert humain. Il faut qu’il soit le copilote qui valide ou réfute les résultats produits par une IA et les LLM (modèles larges de langage de type ChatGPT, Gemini, DeepSeek ou Mistral). Comme les IA génératives se nourrissent de données, il est nécessaire pour une entrprise ou une marque que sur Internet son site, sa page Wikipédia, sa présence sur les réseaux sociaux, soient perçus fidèlement et positivement, car c’est là que les IA puiseront les éléments pour répondre aux questions des internautes.
Ce n’est pas vraiment une technocratisation de la gouvernance : il faut être conscient des règles du jeu pour mieux en tirer profit, et il faut des garde-fous, des tests réguliers d’outils en évolution permanente. Par exemple, la version 5.1 de ChatGPT est à peine utilisée que la 5.2 est déjà annoncée, dans un combat sans merci entre les acteurs… Cela passe aussi par des formations sur l’information et les IA en interne. Du côté de la gouvernance, une supervision humaine est nécessaire, avec un comité d’éthique et des responsabilités associées. Cela peut concerner par exemple les actions de « recrutement » d’une marque. Du côté de la communication, il convient de veiller à la qualité des données publiées et d’assurer une cohérence éditoriale, notamment au regard de références culturelles qui parlent à certaines cibles. Les entreprises doivent aussi avoir conscience que les contenus produits par les IA peuvent être faux ou trompeurs – biais ou aux hallucinations – ou non alignés avec leurs valeurs.
Dans quelle mesure l’IA renforce-t-elle le pouvoir de surveillance sur les salariés (productivité, comportements, émotions), et comment encadrer éthiquement ces pratiques ?
D. F. : L’IA est ce que nous en faisons pour le meilleur comme pour le pire. Des statistiques sur l’usage de ces outils peuvent être facilement effectuées. L’IA améliore la productivité et permet d’accomplir des actions qui étaient impossibles ou très difficiles. La question est de choisir lesquelles. En grande consommation, c’est tant pour les clients et pour les salariés : ce peut être des caméras de surveillance pour prévenir des vols ou vérifier la nature des fruits et légumes, le poids de produits en libre-service pour éviter des erreurs de caisse ; ce peut être des outils de mesure de la production aux caisses, en libre-service ou non. Mais aussi des outils d’analyse de sentiments sur les réseaux sociaux. Les champs d’application sont vastes. Toutefois, il convient de veiller à ce qu’il n’y ait pas d’atteinte à la vie privée et qu’au préalable les usages de l’IA soient consignés dans une charte collaborative et évolutive. La responsabilité sociale des entreprises suppose le respect de la dignité de chacun. Pour cela des principes peuvent être retenus : transparence et consentement quant à l’enregistrement des données et en vertu du droit positif :application du règlement RGPD pour le site de l’entreprise, droit à la déconnexion pour les salariés, principe de non-discrimination et de finalité du traitement automatisé, principe de proportionnalité, validation humaine pour les décisions importantes, comité d’éthique traitant des risques et des retombées dans une démarche d’amélioration permanente.
Éviter le combat de prompts
Quel sont, s’il y en a, les effets de l’IA sur le dialogue social (syndicats, CSE, représentants du personnel) : peut-elle devenir un outil de transparence et de confiance, ou risque-t-elle d’ajouter une couche d’opacité dans un contexte de profusion d’informations où les acteurs n’ont pas forcément tous des capacités égales à faire le tri ?
D. F. : Nous avons encore peu de recul. L’IA peut être utilisée tant par les syndicats que par le patronat. Ce que je vois est le risque que des IA parlent aux IA, si on s’abrite trop derrière elles sans point de vue critique : les syndicats préparent des argumentaires avec l’IA et ils sont réfutés par des IA du patronat, et vice versa. L’IA peut accélérer les processus décisionnels avec le résumé de tracts syndicaux ou l’établissement de contre-argumentaires dans le cadre d’un rapport de force. Pour ne pas tomber dans le travers de l’IA vers l’IA, il est nécessaire que l’IA devienne un outil de transparence et de confiance avec un but : rendre les données sociales plus lisibles et accessibles, sans déshumaniser le dialogue par un combat de prompts entre humains. À cet effet, la transparence des sources et encore une fois la formation des acteurs sociaux à une utilisation efficiente de l’IA et à son usage critique est un préalable nécessaire.
L’IA accentue-t-elle ou réduit-elle les inégalités entre cols blancs et cols bleus, siège et usine, centres et périphéries, et comment les marques Made in France peuvent-elles se positionner au-delà de leur seule origine pour préserver leur cohésion sociale ?
D. F. : L’IA permet une revanche des cols bleus, qui ont été attaqués par la robotisation depuis la machine à tisser de Jacquard et même avant. L’IA brouille les frontières entre tâches manuelles et intellectuelles, ce qui redistribue les cartes. Les IA concurrencent désormais les cols blancs, et nul ne sera à terme épargné, certains métiers seront transformés et non supprimés. Mais elles peuvent conduire à une convergence mainstream des contenus et des décisions où l’humain sera relégué à un rôle d‘opérateur. Il faut en avoir conscience. L’IA fait fi de toute organisation bureaucratique, au même titre que les startups, qui ont incité les grandes organisations à aplatir leurs niveaux hiérarchiques pour être plus réactives dans un monde complexe et incertain.
Les politiques de formation à l’IA prennent-elles réellement en considération tous les métier et niveaux où elles se justifieraient, ou créent-elles une nouvelle fracture interne entre « augmentés » et « remplaçables » ?
D. F. : Il est pertinent pour chacun en entreprise de se fixer des plages horaires pour tester les outils, les expérimenter dans le cadre de son travail ou de ses évolutions possibles. Les IA bien utilisées peuvent augmenter la curiosité intellectuelle. Des échanges de bonnes pratiques entre employés au vu de leur utilisation des outils permettent de faire grandir les équipes. Cependant, il est essentiel que chacun ait accès aux mêmes opportunités de formation, quel que soit son niveau. Les managers doivent encourager une culture d’apprentissage continu et valoriser les efforts de progression, plutôt que d’avoir les yeux rivés sur les résultats à court terme. Cela permettrait aussi d’endiguer la grande démission et la démotivation des talents, dans une société où l’ascenseur social est en panne. La documentation de cas d’usage réussis peut en outre créer une mémoire collective et éviter que le savoir reste concentré chez quelques experts – eux-mêmes susceptibles de quitter l’entreprise. Les équipes doivent aussi être sensibilisées aux biais et aux limites des outils, afin de développer un esprit critique. Enfin, instaurer des temps d’échange entre métiers est de nature à favoriser la cohésion.
* Auteur d’Informez-vous !, L’Éditeur à part, 2025, il anime le site éponyme https://davidfayon.fr.
1. Cf. ibid. « Les sept péchés capitaux des intelligences artificielles génératives ».
Propos recueillis par Jean Watin-Augouard