Entretiens

L’IA sur mesure

07/09/2023

Le temps de la découverte ludique est passé. En entreprise a commencé celui du déploiement opérationnel de l’IA. Ou plutôt des IA, à visées et à configurations diverses, selon un art des “cas d’usage”. Entretien avec Nicolas Gaudemet, “Chief AI Officer”, Onepoint.

Comment en êtes-vous venu à vous intéresser à l’intelligence artificielle ?

Nicolas Gaudemet : J’ai fait des études scientifiques, donc j’ai goûté tôt à l’algorithmie. J’ai travaillé dans le secteur des médias et du divertissement et comme directeur commercial d’Orange. Surtout, j’ai été directeur du pôle culture de Fnac Darty, tout ce qui est livre, musique, vidéo. C’était ça mon fil conducteur, médias et divertissement, avec l’innovation, puisque ces secteurs étaient touchés par la tech. En 2018, la “data” devenait un sujet qui montait. DeepMind, une filiale de Google, venait de sortir un modèle qui avait battu le premier joueur mondial de go. Je me suis dit qu’il se passait des trucs, j’ai lu un livre d’IA et je n’ai rien compris. Parce qu’expliquer l’IA dans un livre ne montre pas concrètement comme ça marche. Donc j’ai codé de l’IA, j’ai pris des cours à Stanford et je me suis plongé dedans. Après, j’ai dirigé le cabinet du secrétaire d’État au numérique Mounir Mahjoubi, où nous avons mis en œuvre le plan “AI for humanity” qui avait été écrit avec Cédric Villani. Ensuite j’ai rejoint Onepoint¹, où j’ai développé le secteur médias-culture-divertissement, et les activités de datascience, en particulier d’IA. De plus en plus, puisque j’y ai été nommé, il y a quelques mois Chief AI Officer.

On ne peut pas comprendre l’IA dans un livre mais y aurait-il un moyen de dire succinctement ce qu’est l’intelligence artificielle générative ?

N. G. : C’est un type d’intelligence artificielle qui s’oppose à l’intelligence artificielle analytique, laquelle s’appuie sur des données chiffrées, structurées en tableaux de valeur, pour faire des prédictions de vente par exemple, des recommandations de produits sur un site web, etc. L’IA générative est différente, au sens où elle traite beaucoup de données non structurées : des mots, du langage, des images, du code informatique, des molécules… Et ces données non structurées, les IA génératives sont capables non seulement de les analyser, mais aussi de générer de nouvelles données : de nouveaux mots, de nouvelles images, de nouvelles vidéos, etc. D’où le nom de génératif.

En quoi consistent les services de Onepoint pour les entreprises ?

N. G. : Nous accompagnons nos clients, entreprises et organisations publiques, sur tous leurs sujets de transformation. À la fois du conseil en stratégie, en marketing ou auprès des grandes directions métiers en excellence opérationnelle, en design, et de la mise en œuvre de produits technologiques. Donc typiquement de la data, de l’IA, du cloud, du développement d’applications, de sites web, du test de service avant mise en production sur le marché. Pour la data et l’IA, nous avons à peu près trois cents spécialistes, huit cents en comptant tous nos spécialistes autour du cloud. Nous couvrons tous les sujets d’IA.

Des enjeux dans tous les métiers, pour toutes les directions opérationnelles

Dans les grandes entreprises de PGC où il y a beaucoup de départements, vos services s’adressent-ils plutôt par exemple au directeur commercial, au directeur marketing, au directeur RH ?

N. G. : En fait, il y a des cas d’usage de l’IA, en particulier de l’IA générative, dans toutes les fonctions. J’interviens dans beaucoup de séminaires de direction, comité exécutif, etc. Il y a toujours un moment où je le leur montre que toutes les fonctions y passent, et à la fin tous se rendent compte que tous sont concernés. En RH par exemple, doublement : parce que l’IA générative peut aider à faire des comptes rendus d’entretiens, à faire un bon mariage entre des CV et des missions, à rendre un corpus documentaire plus accessible, conversationnel avec des chatbots, pour des formations, etc. ; et parce que les fonctions RH sont clés dans la transformation des entreprises, or comme l’intelligence artificielle, en particulier générative, est un énorme sujet de transformation, qui va toucher à peu près tous les talents , les équipes RH sont concernées au titre de l’accompagnement au changement.

À la formation continue, quoi…

N. G. : La formation, mais même l’évolution des compétences et des parcours. Par exemple pour la GEPP, la gestion des emplois et des parcours professionnels, qui va identifier comment les compétences nécessaires des différents métiers vont se transformer avec l’IA générative. On va peut-être passer moins de temps à faire des comptes rendus et un peu plus de temps à réfléchir sur le fond, du coup, les compétences utiles vont se transformer. Et pour utiliser de l’IA, il faut acquérir des compétences, il faut savoir lui parler, ce qu’on appelle le “prompt engineering”. Donc les besoins en compétences vont changer. Et les parcours professionnels, puis les besoins de recrutement, donc les équipes RH sont affectées à double titre. Les équipes marketing, vont l’être sur tous les sujets de création de contenu, d’analyse automatique des verbatims client, etc. Les équipes de vente sont très concernées par les questions de prédiction de vente, qui vont aussi toucher les équipes logistiques, pour optimiser les stocks, etc.

Pour les prédictions de vente, auriez-vous un cas concret d’utilisation de l’IA ?

N. G. : Il y a des IA qui vont être très bonnes pour apprendre de la saisonnalité et la reproduire d’une année à l’autre, en injectant des paramètres exogènes qui la déforment. Il y en a qui sont très bonnes pour apprendre à partir d’un historique de vente de produits plus ou moins comparables, pour se projeter sur un nouveau produit. C’est un cas d’usage assez bien balisé qui intéresse toutes les questions d’optimisation de la fabrication et des stocks, et même d’organisation dans les entrepôts, pour mettre au plus près des préparateurs de commandes un produit dont on sait qu’il va bien se vendre.

Et pour les directeurs financiers ?

N. G. : Pareil : les outils prédictions de vente, ça peut les aider. Par exemple pour des prédictions budgétaires. Et l’IA générative va toucher tous les outils, tous les métiers de la connaissance : demain, les équipes financières vont avoir à disposition des outils bureautiques augmentés par de l’IA générative. Il y a une version d’Excel qui va ainsi intégrer un moteur conversationnel, qui s’appellera Excel Copilot, et permettra à ceux qui ne savent pas faire de macros dans Excel de poser des questions à Excel en langage naturel.

Risques réputationnels et techniques de modération

Quel vous semble être l’avancement du secteur de la grande consommation dans l’incorporation de l’IA à ses activités ?

N. G. : Dans tous les secteurs, il y a des entreprises qui sont plus ou moins avancées. Évidemment, dans la grande conso, il y a des cas d’usage assez balisés, nous avons des clients qui sont très avancés sur ces sujets, d’autres moins.

Quels sont les principaux défis ou obstacles à l’IA, de manière générale et dans le secteur spécifique des PGC ?

N. G. : Des défis génériques pour l’IA, en particulier l’IA générative, il y en a plein. Ce sont des techniques qui avancent très vite, qui sont très puissantes, donc qui peuvent avoir de nombreux effets et peuvent effrayer.  Le principal défi, c’est de s’approprier l’IA, d’identifier les cas d’usage qui ont plus de valeur et une faisabilité raisonnable, pour savoir lesquels on développe en priorité. Développer des cas d’usage requiert un peu de tech parce qu’il faut développer les services, les prototypes, et ensuite les mettre en production, ce n’est pas forcément simple sans expertise d’IA. Et puis il y a les enjeux d’accompagnement au changement, parce que va changer la façon dont on interagit avec des clients, et les relations de travail. Dans la presse les titres alarmistes ne manquent pas, « 300 millions d’emplois vont être touchés », « Chat-GPT va créer des usines à fake news », etc. Donc y a plein d’enjeux associés à l’IA générative qu’il faut appréhender de façon à éviter tout risque réputationnel. Typiquement, si vous voulez un chatbot qui marche pour vos consommateurs, il faut vous assurer qu’il va bien sourcer ses réponses dans un corpus documentaire et ne pas inventer n’importe quoi. Et qu’on ne pourra pas faire du “prompt injection”, un terme qui désigne les petits malins qui s’amusent à poser des questions licencieuses à un modèle de langage, par exemple à Chat-GPT, pour lui faire raconter des horreurs. Il y a des techniques de modération, bien connues, qui doivent être mises en place.

C’est ce qu’on appelle aussi le biais algorithmique ; ça peut être contrôlé modéré ?

N. G. : Il y a des techniques qui le permettent. Open AI a sorti Chat-GPT et notamment sa version 4 en février, mais en fait c’était disponible depuis au moins huit mois. Ils ont passé huit mois à le modérer. Les techniques de modération sont documentées, nous les connaissons bien.

Éviter les outils grand public en entreprise

Quand vous accompagnez une entreprise dans l’incorporation de l’IA, comment parvenez-vous à lever les résistances ?

N. G. : Il y a des craintes, des résistances, qui ne sont pas forcément dans des Comex. Cela dépend de la culture des entreprises, mais en général les comex regroupent des gens qui sont plutôt impliqués dans la transformation et goûtent un peu à l’innovation. Mais je suis quand même assez surpris de voir dans certains comex des gens qui qui disent n’avoir encore jamais utilisé Chat-GPT, alors que c’est une révolution majeure qui va toucher toutes les entreprises. Mais ce ne sont pas des freins, c’est plutôt que les gens n’ont pas le temps ou ne se sentent pas concernés. Quand nous montrons l’éventail des cas d’usage, en général tout le monde se sent impliqué. Et pour embarquer tout le corps social de l’entreprise, il y a des techniques d’accompagnement qui ne sont pas spécialement liés à l’IA générative : bien expliquer, avoir des ambassadeurs, des démonstrateurs, des exemples d’amélioration pour tel cas d’usage, tel client, ou tel métier. Et répondre aux craintes, typiquement, « mon job va être remplacé par une IA » : ce sont plutôt certaines activités qui vont être accélérées mais qui nécessitent d’acquérir des compétences, et du temps gagné qui peut s’investir ailleurs. L’accompagnement au changement peut répondre à ces craintes.

La protection des données motive-t-elle des craintes ?

N. G. : Oui, bien sûr. Les sujets de confidentialité sont majeurs pour les entreprises, la protection des données personnelles aussi. Là encore, il y a des solutions. Si vous voulez utiliser de l’IA sur des données propriétaires d’une entreprise, il faut évitez d’utiliser un outil grand public. C’est de bon sens : Chat-GPT dans les entreprises dans sa version grand public, ce n’est pas une bonne idée.

Vous créez donc de l’IA ad hoc pour les besoins d’une entreprise ?

N. G. : Il y a des services sur étagères, typiquement Chat-GPT, ou si vous êtes codeur Github Copilot, qui permet de générer du code, de le documenter, d‘écrire des tests. Sur cet outil-là, il y a une version grand public et une version entreprise. La version entreprise de Github Copilot a le niveau de sécurité des produits Microsoft 365 comme Word et Excel. C’est un niveau de sécurité qui convient à certaines entreprises. Si vous utilisez de l’IA avec des produits sur étagères dans une entreprise, prenez un service entreprise qui répond aux problématiques de confidentialité. Mais il y a un certain nombre de cas d’usage qui sont tellement spécifiques qu’il n’y a pas d’outils sur étagère : là, il faut le construire sur mesure. Nous accompagnons beaucoup d’entreprises en cela : le prototypage et ensuite la mise en œuvre d’outils sur mesure. Et ces outils, évidemment, on les créé de façon qu’ils aient le niveau de sécurité requis pour l’entreprise.

Efficacité carbone de l’IA

La transition écologique est aussi un motif de transformation de toutes les fonctions de l’entreprise, notamment pour les marques de PGC. Est-ce que la transition numérique rejoint la transition environnementale avec l’IA ?

N. G. : Le numérique a évidemment une empreinte carbone. Nous avons des outils qui permettent de mesurer l’impact carbone d’un modèle en fonction de ce qui tourne, combien de paramètres, combien d’énergie, de quelle origine, bas carbone ou pas… Mais il y a plein de de cas d’usage d’IA qui permettent de réduire de l’empreinte carbone. Quand vous faites de l’optimisation de coûts de stock, quand vous faites de l’optimisation de transport, de l’optimisation logistique, vous allez réduire les coûts carbone. Quand vous faites de l’optimisation d’espace dans les bureaux, aussi. Quand vous faites de l’optimisation de compression de vidéos, pareil. L’impact positif du numérique dans des cas d’usage de ce type est mille fois supérieur au coût carbone associé. Encore faut-il le mesurer.

Donc l’IA dépend beaucoup des données. Comment produire les données, comment trouver les méthodes de captation des données qui vont permettre à l’IA de dire comment optimiser les ressources ?

N. G. : Chaque cas d’usage aura les données qui lui seront utiles. Quand on regarde la faisabilité d’un cas d’usage, on se pose la question des données disponibles. Si les données sont disponibles, ça aide à la faisabilité du cas d’usage. Mais les données utilisées dépendent vraiment de chaque usage. Pour la prédiction de vente, ce sera les ventes passées d’autres produits ou du même produit précédemment… Si on fait un chatbot, il faut de bons corpus documentaires pour que le robot source ses questions. Les données ça va être du texte.

Est-ce qu’il y a des compétences et des connaissances minimales qui sont nécessaires pour utiliser l’intelligence artificielle ?

N. G. : J’ai installé Chat-GPT à mon institutrice de CE1, qui a 90 ans : elle lui a posé des questions toute la journée ! Reste que pour obtenir de bonnes réponses d’un Chat-GPT, il faut savoir lui parler. Mais c’est pareil avec un nouvel employé dans l’entreprise, il faut qu’il acquière un certain nombre de réflexes, il faut lui expliquer pas à pas au début. Si on veut qu’une IA générative fasse un texte de blog pour vanter un produit de grande consommation, il faut lui dire : je voudrais que tu me fasses un texte qui va mettre en avant tel aspect, dans tel type de format, avec tel type de ton. Il faut préciser ce qu’on veut. Ces techniques-là s’appellent “prompt engineering”, c’est un peu d’expérience dans l’utilisation de ces outils. Avec Chat-GPT, c’est quoi les bons prompts ? Qu’est-ce qui marche, qu’est-ce qui ne marche pas quand je lui pose des questions, pour quelle raison ? Pareil avec les générateurs d’images. Si je veux des images pour des publicités sur des réseaux sociaux, c’est quoi les prompts que je vais mettre dans mes demandes à MidJourney ou Adobe Firefly ? En général, quand on fait une première demande, le résultat n’est pas mal, mais pas du niveau entreprise…

Et une formation pour être bon dans le “prompt engineering” prend combien de temps ?

N. G. : Quelques heures pour les formations initiales, ensuite, c’est la pratique.

Changements réglementaires

Si l’IA est aussi essentielle pour la compétitivité des entreprises, est-ce qu’il y a des programmes d’accompagnement des pouvoirs publics ?

N. G. : L’IA est suivie à un assez haut niveau dans l’administration, il y a un coordinateur national pour l’IA qui essaie de coordonner l’ensemble des administrations et des services publics qui peuvent être concernés. Et dans ces services publics, il y a des services qui sont en contact avec les entreprises. Typiquement, il y a BPIFrance qui est un opérateur important pour le financement, il y a la Direction générale des entreprises qui fait des appels à projets pour injecter des financements et elle en fait régulièrement sur l’IA. Il y a France 2030, une panoplie de dispositifs qu’on peut trouver sur le site de BPIFrance ou de la DGE.

Est-ce que le cadre réglementaire est adapté à l’intelligence artificielle, pour éviter les biais algorithmiques et protéger les droits des consommateurs, ou voyez-vous des risques de -réglementation excessive qui pourraient entraver l’incorporation de l’IA par les entreprises ?

N. G. : La réglementation est en train de changer. Il y a un règlement européen en discussion, dans la phase de trilogue entre la Commission, les États et le Parlement. Ce qui est sûr, c’est que l’Europe et la France sont assez championnes pour la réglementation. L’enjeu est de trouver le bon équilibre entre la réglementation qui va protéger l’intérêt du public et celui des États de l’UE contre les biais algorithmiques, les IA qui à risque, etc., mais aussi la capacité d’innovation des entreprises européennes. Les IA de reconnaissance faciale qui font de la surveillance de masse, a priori ça va être interdit par cette réglementation. Ce que vous voyez en Chine, les IA qui affectent des crédits sociaux, ça va être interdit. Il y a des aspects bénéfiques dans ces réglementations.

Pour autant, il ne faut pas inhiber les entreprises européennes. Il y a des géants mondiaux, notamment américains, qui ont suffisamment de financement pour faire de l’IA, mais aussi pour engager des armées de lobbyistes pour négocier la mise en œuvre des futures règles européennes. Ce que n’auront pas des startups ou des PME françaises ou européennes. Cédric O, l’ancien secrétaire d’État au numérique, est assez actif pour promouvoir cette vision. Des start-ups françaises se créent : LightOn sur les modèles « langage », Mistral.AI, Dust… Ce sont souvent des anciens d’OpenAi ou des GAFAM qui les créent, c’est le cas de de Dust, de Mistral. Et il y en a dans le domaine de l’image, par exemple, Pimento, fondée par un ancien d’Apple et un ancien du « pass Culture ».

Est-ce que dans vos activités, vous vous posez des questions sur l’éthique et l’intelligence artificielle ? Est-ce que vous vous siégez dans des comités d’éthique compétents en la matière ?

N. G. : Nous avons trois laboratoires en IA, dont un sur les questions éthiques, monté avec l’Essec, qui s’appelle « L’Essec Metalab avec Onepoint ». Les deux autres laboratoires portent l’un sur les questions technologiques, le traitement automatique du langage, avec Télécom Paris, et l’autre avec le CEA sur les questions d’IA appliquée à l’industrie, notamment l’IA embarquée dans des terminaux qui n’ont pas beaucoup de puissance de calcul : il y en aura de plus en plus avec l’internet des objets. D’une manière générale, dans les missions pour nos clients dès lors qu’elles dépassent un certain seuil nous avons une évaluation que nous appelons « RESET », c’est-à-dire RSE étendue aux aspects impact économique et impact technologique, typiquement la souveraineté économique, la souveraineté technologique, des sujets qui dépassent les questions sociétales et environnementales.

1. https://www.groupeonepoint.com/fr.

Propos recueillis par Antoine Quentin

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à l'utiliser, nous considérerons que vous acceptez l'utilisation des cookies.