L’IA, assistante à assister
31/12/2025
En tant que juriste, qu’est-ce qui a changé dans votre pratique depuis l’émergence de l’IA ?
Sarah Bailey : L’intelligence artificielle a profondément transformé la pratique du droit de la propriété intellectuelle. Au quotidien, l’IA s’est imposée comme un outil d’assistance incontournable à plus d’un titre. Chez Simmons & Simmons, nous avons eu à cœur de l’intégrer à notre pratique quotidienne et de développer des outils ad hoc. Nous avons ainsi mis sur le marché Rocketeer, un outil développé et distribué par le cabinet qui a pour objectif d’aider les avocats spécialisés en droit des marques dans leurs prises de décision et dans l’évaluation des chances de succès d’un dossier. En se fondant sur une base de données composée de milliers de décisions européennes, Rocketeer prédit les issues de conflits entre marques en une fraction de seconde, et fournit à nos équipes une liste détaillée de décisions similaires. Il s’agit là d’un gain de temps considérable.
Comment l’intelligence artificielle peut-elle être intégrée comme levier d’innovation stratégique sans fragiliser la maîtrise des actifs immatériels de l’entreprise (marques, brevets, savoir-faire) ? À quelles conditions devient-elle un avantage réel et non un facteur de vulnérabilité ?
S. B. : Le principal retour que nous avons de nos clients sur ce point est que l’IA constitue un formidable levier de créativité, permettant d’aller plus vite et plus loin dans la conception de produits ou services. Toutefois, son intégration doit être pensée en fonction des attentes du public et des spécificités sectorielles. Dans certains domaines, l’utilisation de l’IA est attendue, voire valorisée, tandis que dans d’autres, elle peut susciter des interrogations quant à l’authenticité ou la qualité des produits créés avec son apport. Je pense notamment au luxe.
Lorsque l’on choisit de l’utiliser, il faut maintenir un contrôle humain à chaque étape clé, notamment s’agissant d’actifs immatériels, pour faire acte de création ou d’invention. En effet, une œuvre ou un brevet ne pourront être rattachés à la personne physique ou morale qui les a conçus qu’à la condition que celle-ci puisse démontrer en être à l’origine. Il est donc impératif que les utilisateurs d’IA veillent à modifier, retoucher, analyser, documenter, valider les résultats produits par une IA et ne se contentent pas de les exploiter tels quels.
Un règlement européen à avoir en vue
Qui est juridiquement responsable d’une création, d’une décision ou d’un dommage issu d’un système d’IA utilisé dans l’entreprise : le développeur, l’utilisateur, l’entreprise, le dirigeant ? Comment anticiper cette responsabilité dans la gouvernance ?
S. B. : La question de la responsabilité juridique liée à l’IA est complexe et dépend du contexte d’utilisation. Les développeurs peuvent être responsables en cas de défauts intrinsèques à l’outil, mais l’utilisateur reste responsable de la manière dont il utilise l’IA mise à sa disposition et de l’usage qu’il décide de faire des résultats produits par elle. À titre d’exemple, les conditions d’utilisation de Chat GPT prévoient que l’utilisateur reconnaît que les informations transmises par ce modèle de langage ne sont pas toujours exactes. Dans ces conditions, il lui appartient de s’assurer de l’exactitude des résultats obtenus. Cette responsabilité est la sienne, non celle du fournisseur.
Pour anticiper ces enjeux, il est crucial de former les utilisateurs, ce qui est d’ailleurs une obligation pour les entreprises depuis le 2 février 2025 et l’entrée en vigueur de l’article 4 du règlement IA¹ mais aussi de conserver une traçabilité des instructions données (prompts), afin de pouvoir les mobiliser en cas de litige. S’agissant des risques liés à la propriété intellectuelle, il est également important de sensibiliser les équipes à ne pas demander à l’IA d’imiter, de copier ou d’intégrer des contenus protégés dans une production de l’IA. Là encore, afin de limiter les risques, il est impératif que l’humain reste au cœur des utilisations, pour vérifier les livrables utilisés, les adapter le cas échéant et réduire les risques de voir la responsabilité de l’utilisateur engagée.
Y a-t-il des menaces réputationnelles et éthiques spécifiques que l’IA fait peser sur une marque et sur la responsabilité personnelle des dirigeants ?
S. B. : Oui, l’IA soulève des enjeux réputationnels et éthiques majeurs. Aux yeux d’un consommateur, il existe une différence fondamentale entre une création humaine et une production générée par une machine. C’est ce qu’a brillamment montré Intermarché avec le succès mondial de son dessin animé réalisé sans IA par une société de production française. Un usage trop intensif de l’IA dans la communication ou le rapport au client peut affecter la perception que le public a d’une marque ou plus globalement d’une entreprise. Sur le plan éthique, l’IA pose des questions relatives au respect des droits d’auteur, à la rémunération des créateurs dont les œuvres ont été utilisées pour entraîner le modèle ou pour générer une création spécifique. Enfin, la question des biais inhérents à chaque modèle d’IA est centrale, particulièrement lorsque ces outils sont utilisés en lien avec des humains. Pour les entreprises, cette question des biais est particulièrement sensible dans les usages de l’IA en lien avec les fonctions RH.
Hallucinations juridiques
Les productions assistées ou générées par l’IA (contenus, code, inventions…) peuvent-elles être protégées par le droit existant de la propriété intellectuelle ? Quelles adaptations contractuelles et stratégiques mettre en place ?
S. B. : Le droit actuel de la propriété intellectuelle refuse, en principe, d’accorder une protection à des créations totalement générées par l’IA, faute d’auteur humain identifiable. S’agissant des inventions, dans les affaires du générateur d’inventions “Dabus”², plusieurs offices de propriété intellectuelle ont refusé l’enregistrement d’un brevet dont l’inventeur identifié était ce modèle d’IA. En revanche, il est possible de protéger des œuvres ou des inventions résultant d’une collaboration entre l’humain et l’IA, à condition de pouvoir, si nécessaire, démontrer l’apport créatif ou le rôle inventif de l’utilisateur. Sur le plan contractuel, afin de s’assurer de la titularité des créations générées à l’aide de l’IA, il est recommandé d’exiger des salariés ou prestataires qu’ils ne réutilisent pas les livrables pour nourrir leurs modèles d’IA, plus généralement d’interdire la fourniture ou l’usage de contenus entièrement générés par l’IA sans apport humain quantifiable, et d’exiger une transparence totale du processus de développement. Ces adaptations, qui peuvent être intégrées à des contrats de prestation de service ou de travail, permettent de sécuriser les droits et de limiter les risques de contentieux.
Dans la mesure où les lois, traités, règlements et jurisprudences sont écrits et publics, la donnée juridique devrait se prêter au mieux à l’investigation de l’IA ; y a-t-il à l’expérience des risques spécifiques de « faux » associés aux corpus juridiques ? Et des méthodes éprouvées pour les prévenir ?
S. B. : L’IA est un outil précieux pour l’analyse et la recherche juridiques, mais elle n’est pas infaillible. Un risque majeur réside en effet dans la génération de « faux », lorsque l’IA cite des sources inexistantes ou inexactes. Dans le langage de l’IA, on appelle cela des hallucinations. Elles peuvent être très convaincantes, et dans plusieurs pays des avocats ont été condamnés pour avoir, faute de vérification, produit devant les tribunaux des décisions inventées par l’IA. Il est donc impératif de s’assurer que les résultats produits par l’IA sont conformes à la réalité et de ne jamais se fier aveuglément à ses suggestions.
Formation et chartes internes
Comment sécuriser l’usage de données (internes et externes) pour entraîner ou utiliser une IA, sans enfreindre les droits de tiers (droits d’auteur, bases de données, secrets, données personnelles) ?
S. B. : Il est important de s’assurer que les données utilisées pour entraîner ou alimenter une IA ne portent pas atteinte aux droits de tiers. Il convient de vérifier l’origine des données, d’obtenir les autorisations nécessaires et de respecter les droits d’auteur, les droits sur les bases de données, les secrets d’affaires et la réglementation sur les données personnelles. En outre, et cela ne va pas toujours de soi, il ne faut bien sûr pas utiliser l’IA pour copier un concurrent, un auteur à succès ou une publicité innovante, etc. Afin de limiter les mauvais usages et les risques afférents, l’adoption de chartes internes, la formation des équipes et des procédures de vérification sont impératives.
Quels effets l’IA a-t-elle sur la politique de brevets et de protection du savoir-faire : faut-il déposer plus, moins, autrement ? Le secret devient-il plus stratégique que le brevet ?
S. B. : Les affaires Dabus ont confirmé que pour la vaste majorité des offices de propriété industrielle dans le monde, l’IA ne peut être reconnue comme inventeur. Toutefois, la simple utilisation de l’IA dans le processus d’invention n’exclut pas la brevetabilité. L’inventeur doit être une personne physique, mais il peut s’être aidé d’un outil d’IA. Hormis cet aspect, l’IA n’a pour l’heure pas d’effet visible sur l’appréciation de la brevetabilité des inventions. Certains ont pu se demander si son usage systématique ne devait pas donner naissance à une « personne de métier augmentée », élevant les exigences des offices en matière d’activité inventive. À ma connaissance, aucune décision n’a été rendue en ce sens. Par ailleurs, l’IA pourrait faciliter l’invalidation des brevets en rendant plus réalisable l’examen de la validité de vastes portefeuilles de brevets, aujourd’hui difficiles à mettre en œuvre.
Si ces éléments peuvent, à terme, affecter les stratégies de protection par le brevet, il ne s’agit pas d’une mise en question fondamentale du régime des brevets, qui restent plus protecteurs que le secret et sont à privilégier lorsque l’entreprise est en mesure de surveiller les comportements des acteurs du marché et d’éventuelles pratiques contrefaisantes de leur part.
Le département juridique d’une entreprise est-il au premier rang de ceux dont l’IA transforme les métiers ?
S. B. : Les départements juridiques et les cabinets d’avocats sont en première ligne de la transformation induite par l’IA. Chez nos clients les plus en pointe, nous constatons des usages divers, des simples relectures, comparaisons et traductions de documents à l’utilisation d’outils permettant de simuler des négociations contractuelles. En substance, les outils d’IA permettent d’automatiser certaines tâches, d’améliorer la gestion documentaire et d’accélérer la recherche d’informations. Cela libère du temps pour des missions à plus forte valeur ajoutée, telles que l’analyse stratégique, la gestion des risques et l’accompagnement de l’innovation. Mais cela pose la question de la formation des jeunes juristes. Bon nombre de tâches désormais automatisables sont en effet celles qui, traditionnellement, permettaient aux jeunes juristes ou avocats d’apprendre leur métier. Il convient donc d’adapter nos méthodes de formation et sans doute de former les jeunes plus tôt à prendre part à des tâches stratégiques, à forte valeur ajoutée.
Le juriste d’entreprise au cœur de la gestion RH
Quelles mesures une entreprise doit-elle prendre pour répondre au mieux aux exigences réglementaires (RGPD, règlement IA, conformité sectorielle) dans une stratégie d’innovation fondée sur l’IA ? Au vu de ces mesures, le juriste doit-il devenir un acteur central du processus d’innovation ?
S. B. : La mise en conformité des entreprises avec les réglementations liées à l’IA est un processus complexe demandant beaucoup de travail sur un temps long et qu’il est difficile de résumer. On peut toutefois souligner quelques principes essentiels. En premier lieu, il revient à l’entreprise de s’assurer qu’elle ne fait pas usage de solutions IA interdites au sens du règlement IA. En outre, ce règlement requiert d’apprécier les risques que représente l’outil IA. Le juriste devra donc procéder à une qualification de l’outil, en collaboration avec le département IT si nécessaire, afin de déterminer le niveau de risque au regard du règlement IA et des obligations qui en découlent pour l’entreprise. Cela suppose, en amont, une gouvernance permettant au service juridique d’être informé préalablement au déploiement des outils d’IA, afin de pouvoir qualifier l’outil et de déployer le plan de mise en conformité approprié.
En second lieu, il faut garder à l’esprit que le RGPD a vocation à s’appliquer lorsque des données personnelles sont traitées au moyen d’un outil d’IA. Il importe donc d’intégrer, de mesurer et de tenir compte de ce qu’impliquent les outils d’IA utilisés dans le traitement de données personnelles par l’entreprise. En particulier, dans la mesure où tant le RGPD que le règlement IA imposent des obligations de transparence, le juriste devra sensibiliser les équipes à la nécessité d’un niveau d’information approprié, tenant compte des informations requises au titre des deux textes.
Enfin, le règlement soumet déjà les entreprises à des obligations de formation de leur personnel à l’usage de l’IA. Les formations visées doivent compléter celles qui, en principe, sont déjà en place pour sensibiliser les équipes aux précautions et bonnes pratiques à adopter afin d’assurer le respect du RGPD. Au regard des problématiques soulevées par l’IA, le juriste doit jouer un rôle central dans l’identification des risques, la mise en conformité et l’accompagnement des équipes, afin de garantir une utilisation responsable et sécurisée.
Face à la généralisation de l’IA, le véritable avantage concurrentiel va-t-il se situer plutôt dans la technologie, les données, la capacité d’orchestration, la culture d’entreprise ou la vision du dirigeant ?
S. B. : L’automatisation et la simplification de nombreuses tâches, loin de déporter les avantages concurrentiels vers les machines vont, à mon sens, les concentrer dans la capacité des humains peuplant une entreprise à veiller à la bonne mise en œuvre de ces outils, à s’assurer qu’ils sont utilisés à bon escient et en conformité avec la vision stratégique de l’entreprise.