MarocDroit  -  موقع العلوم القانونية
plateforme des décideurs juridiques - Platform of Legal Decision-Makers





Notre arsenal juridique est-il suffisant pour faire face aux enjeux de l’IA ?

     

David Méheut
avocat au barreau de Paris, Clyde & Co LLP



Dans un monde dans lequel le déploiement de l’intelligence artificielle (IA) est déjà une réalité tangible, se pose la question de l’adaptation de notre arsenal juridique pour faire face aux enjeux créés par ces nouvelles technologies. Formulée en termes aussi généraux, la réponse ne peut vraisemblablement être que négative. Pour autant, qu’en est-il du droit de la responsabilité civile ?

Le 9 décembre dernier, le Conseil de l’Union européenne et le Parlement européen annonçaient avoir trouvé un accord sur les grands principes d’une « loi intelligence artificielle » (« AI Act ») posant les bases d’une future régulation, à l’image du règlement général sur la protection des données. À peine trouvé, cet accord est déjà critiqué, notamment par ceux qui considèrent qu’il risquerait de brider l’innovation dans un domaine en constante évolution et dans lequel certains de nos concurrents internationaux auraient plusieurs longueurs d’avance.

En outre, cette réforme ne sera pas en vigueur avant 2026.

En parallèle de l’AI Act, d’autres projets sont en discussion au niveau des instances européennes, ce qui pourrait laisser à penser que le droit positif ne permet pas de répondre aux enjeux actuels. Néanmoins, les règles du Code civil permettent d’appréhender bon nombre de cas nouveaux, pour peu qu’on se réfère aux principes éthiques élaborés en matière d’IA et que ces règles soient appliquées avec subtilité. Restera la question des preuves dont l’accès, davantage que les règles de responsabilité, est l’enjeu crucial.

Enjeux en termes d’identification des responsables. L’irruption des usages de l’IA dans des domaines les plus variés crée nécessairement de nouveaux risques de responsabilité civile (en même temps d’ailleurs qu’elle en réduit d’autres, par une certaine fiabilité supérieure aux capacités humaines qu’elle est susceptible d’apporter dans certains domaines). Or, l’IA induit un éclatement potentiel des responsabilités entre les différents professionnels (concepteur des modèles fondamentaux, concepteur de l’IA spécifique, professionnel en faisant un usage dans son activité, vendeur, utilisateur, etc.), en particulier pour certaines IA susceptibles d’acquérir un certain degré d’autonomie échappant à leurs créateurs (on parle alors d’IA forte et d’apprentissage profond). Par la force des choses, l’IA agissant de manière autonome sera confrontée à des situations qui n’ont pas été envisagées par son concepteur. Selon son degré de sophistication et d’évolution, il sera également difficile de tracer l’origine d’une décision ou d’une action.

L’arsenal juridique existant permettra de régler facilement certaines erreurs induites par un excès de confiance dans la fiabilité de la technologie, tel cet avocat américain dont la presse a rapporté qu’il aurait fait référence dans ses écritures à des jurisprudences inventées par une IA sans vérifier leur existence.

En revanche, lorsque les techniques se seront fiabilisées, comment appréciera-t-on, par exemple, la responsabilité d’un diagnostic médical ?

L’expérience a également montré que certaines IA peuvent être influencées par les biais inconscients de leurs créateurs, ce qui peut produire des effets discriminatoires non souhaités et à grande échelle lors de leur déploiement. Les concepteurs pourront-ils être blâmés pour un effet qu’ils n’ont pas voulu et qu’ils ne contrôlent plus ?

Plus spectaculaire, au cours de l’année 2023, la presse s’est également fait l’écho d’une simulation (virtuelle) par l’US Air Force d’un drone piloté par IA au cours de laquelle la machine aurait tué son opérateur humain. L’existence de cette simulation a été démentie par l’armée américaine tout en admettant que l’hypothèse de travail était « plausible »1 . Si cette information en a perdu sa dimension sensationnelle, elle ne touche pas moins du doigt le revers des innovations apportées par l’IA. Si une machine intelligente échappe à son créateur, est-ce que l’utilisateur final doit en porter seul le risque ?

Le Parlement européen est allé jusqu’à proposer de doter certains robots les plus sophistiqués d’une personnalité juridique2 . Ces derniers seraient, de ce fait, responsables de leurs actes et pourraient même être dotés d’une couverture d’assurance. Sans exonérer nécessairement les professionnels de la chaîne de conception/production/déploiement, cette approche aurait le mérite d’une certaine simplicité. Pour autant, ces projets sont loin de voir le jour.

De manière plus prosaïque, en parallèle de l’AI Act qui met en place un régime de gouvernance et de conformité visant certains systèmes d’IA identifiés comme étant à « haut risques », la Commission européenne envisage plusieurs pistes d’instauration de règles spéciales de responsabilité créant un régime spécifique de responsabilité. Cela passe tout d’abord par la réforme de la directive sur la responsabilité pour les produits défectueux3  qui instaure une responsabilité sans faute pour les dommages causés par les produits.

En l’état, cette réforme verrait notamment une extension de la notion de produits aux logiciels et solutions d’IA ainsi que leurs mises à jour et elle considérerait une vulnérabilité cyber comme un défaut du produit.

Pour mémoire, au niveau de la directive et à la différence des règles de transpositions françaises des précédentes directives sur la responsabilité des produits, le régime de responsabilité sans faute ne bénéficie qu’aux consommateurs. Il existe également un projet plus général de directive sur la responsabilité liée à l’IA qui renvoie à de nombreux concepts présents dans l’AI Act (par exemple les notions de « système d’IA à risque élevé », « fournisseur », « utilisateur »…) et instaurant notamment des règles de présomption réfragable de causalité. Ces règles de présomption de causalité seraient plus ou moins strictes selon la classification de l’IA concernée au regard du droit européen (essentiellement selon que l’IA est qualifiée de high riskAIou non).

Ces deux projets de directive prévoient respectivement des règles pour faciliter l’accès aux preuves. En effet, la crainte est que la complexité des systèmes d’IA et des intervenants ne rende la mise en œuvre de la responsabilité illusoire.

Cela étant, si le travail législatif sur la directive sur la responsabilité pour les produits défectueux semble un peu plus avancé, les deux projets de directive ne sont pas prêts à entrer en vigueur.

Est-ce à dire que, dans l’intervalle, l’arsenal juridique existant est démuni ?

Les principes éthiques comme possible source d’une « faute ». Face aux défis posés par l’IA, divers organismes nationaux, européens et internationaux ont travaillé sur des principes éthiques. Ces principes éthiques ont potentiellement vocation à définir les standards de comportement qui seront attendus des professionnels et à l’aune desquels leur responsabilité civile pourrait être appréciée en application des règles de responsabilité civile de droit commun et en particulier celle édictée par l’article 1240 du Code civil. De fait, ces travaux de réflexions éthiques ont très clairement guidé les projets de réformes évoqués plus haut.

Ainsi, on peut se référer au rapport publié par la Commission nationale de l’informatique et des libertés (CNIL) en décembre 2017 : « Comment permettre à l’Homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle »4 , synthétisant le débat public qu’elle avait animé dans le cadre de la mission de réflexion éthique confiée par la loi pour une République numérique. Ce rapport mettait d’abord en avant deux « principes fondateurs » : un « principe de loyauté » et un « principe de vigilance ». S’agissant du principe de loyauté, il veut que tout algorithme soit « loyal » envers ses utilisateurs, quels qu’ils soient et quelles que soient les données concernées. Concrètement, cela revient à placer l’homme au centre et rappeler que l’IA ne doit rester qu’un moyen au service de buts socialement légitimes. Quant au principe de vigilance, il tient compte de la nature évolutive de la technologie, de la complexité de son déploiement et des acteurs impliqués et impose essentiellement de ne pas se concentrer sur le seul usage innovant recherché mais à prendre en considération les différents impacts de l’IA.

Sans refuser les progrès que l’IA est indéniablement susceptible d’apporter, ces principes éthiques invitent à garder toujours à l’esprit la potentialité que l’IA s’écarte de ce principe de loyauté, autrement dit qu’elle soit susceptible de générer des effets indésirables tant pour ses utilisateurs que pour son environnement. C’est l’enjeu des « dérives de modèles » que la CNIL décrit dans son glossaire de l’IA comme « la perte d’adéquation entre un modèle et la tâche qu’il doit accomplir. Cette dérive peut résulter d’un réapprentissage du modèle ou d’une évolution de l’environnement dans lequel il s’applique (domaine d’emploi) »5 .

La vigilance doit donc s’exercer d’abord en amont : tout professionnel se doit d’anticiper les dérives possibles de l’IA qu’il développe ou qu’il exploite. Ce principe se retrouve au centre des nouvelles règles de conformité que le projet d’AI Act envisage d’imposer aux professionnels en lien avec la conception, l’exploitation et la distribution des IA dites à « risques élevés ». Le projet actuel prévoit ainsi la nécessité de réaliser une étude d’impact sur les droits fondamentaux et une étude de conformité. On peut supposer que les autres professionnels maniant des IA non considérées comme à « risques élevés » ne seront pas pour autant dispensés de tout devoir d’anticipation précisément parce qu’il découle des principes éthiques, même si l’ampleur de ce devoir sera nécessairement plus limitée et proportionnée aux enjeux et aux moyens des professionnels concernés. On peut alors imaginer un « devoir de vigilance » consacré au même titre que le devoir d’information ou de conseil comme source de responsabilité dont les contours resteraient à définir au cas par cas.

En outre, même s’il est probablement illusoire (y compris pour une IA) de prédire toutes les dérives possibles, il reste au professionnel la possibilité de surveiller la survenance de telles dérives. Là encore le projet d’AI Act prévoit des obligations continues de contrôle de la qualité des données et de suivi des effets. Au professionnel de se doter des bons outils de mesure et de définir les bons « critères d’arrêt ». S’agissant de la mise en œuvre de ces principes, le projet d’AI Act exige une supervision humaine....


actu-juridique




الخميس 14 مارس 2024

تعليق جديد
Twitter