Les efforts de l’UE dans la normalisation du « Far West numérique » : où en sommes-nous en matière d’IA ?

, par Gabriele Lococciolo, Le Courrier d’Europe

Toutes les versions de cet article : [English] [français] [italiano]

Les efforts de l'UE dans la normalisation du « Far West numérique » : où en sommes-nous en matière d'IA ?
Flickr Prise de parole du commissaire européen au marché intérieur, Thierry Breton, Parlement européen, 2019.

Dans une Europe de plus en plus dans le besoin de s’adapter aux défis que lui pose le monde numérique – et notamment aux conséquences que ceux-ci peuvent avoir sur le marché unique –, des réponses juridiques européennes commencent à être données.

Une normalisation de plus en plus nécessaire

C’est pourquoi la Commission européenne – l’institution qui détient le monopole d’initiative législative – met en avant, au cours des dernières années, plusieurs propositions de directives et de règlements.

D’ailleurs, l’actuel commissaire pour le marché intérieur Thierry Breton avait déclaré que l’ère du « Far West » numérique était désormais terminée et que tout ce qui était interdit dans l’espace publique serait interdit dans l’espace numérique aussi.

DMA, DSA, AI Act : autant de textes pour réguler les GAFAM

Voici comment naissent des textes tels que le DMA (Digital Market Act) sur les marchés numériques (ayant pour but de réguler le marché des plateformes et de mieux contrôler les GAFAM, dont la position dans le marché est de plus en plus dominante) ou le DSA (Digital Service Act) relatif aux services numériques (visant à imposer aux sociétés du numérique une plus grande responsabilité dans le retrait de contenus illicites). Ces efforts s’insèrent, entre autres, dans les six priorités de la Commission von der Leyen. Parmi elles figure une Europe adaptée à l’ère du numérique dont le but est de favoriser la nouvelle génération de technologies, tout en donnant aux citoyens les moyens d’agir pour se protéger des risques qui en découlent.

Une dualité qui pourrait sembler paradoxale et qui pourtant doit être prise en compte à l’ère actuelle. Le terme de risque est en effet un concept-clé dans le cadre des efforts de réglementation du numérique de l’Union Européenne. Cette dernière adopte une véritable « approche par les risques » face aux potentielles atteintes que notamment l’intelligence artificielle (IA) peut porter aux droits fondamentaux des citoyens et des citoyennes tels que le droit au respect de la vie privée.

Voici donc la genèse de l’AI Act (https://eur-lex.europa.eu/resource....), une proposition de règlement en matière d’intelligence artificielle déposée en avril 2021 par la Commission. Celle-ci, qui s’engage de plus en plus pour donner des réponses effectives aux défis découlant du monde de l’IA, travaille maintenant sur une proposition de directive (celle du 28 septembre 2022 https://eur-lex.europa.eu/legal-con...), portant sur l’adaptation des règles de la responsabilité civile extracontractuelle en matière d’IA.

Qu’est-ce que la responsabilité civile extracontractuelle ?

S’agissant de responsabilité civile extracontractuelle, cela veut dire l’obligation (pour la personne qui a vu sa responsabilité civile engagée) de réparer un dommage causé par une certaine action qu’on appelle la faute (un manquement à une obligation juridique ou morale).

Il existe trois conditions d’engagement de la responsabilité civile extracontractuelle : une faute, c’est à dire un manquement à une obligation juridique ou morale ; un préjudice, soit la reconnaissance juridique d’un dommage ; un lien de causalité, à savoir le rapport de cause à effet entre la faute et le préjudice.

Ces trois conditions étant cumulatives, elles doivent coexister afin que la responsabilité extracontractuelle d’une personne puisse être engagée. De plus, ces conditions sont assez exigeantes pour les victimes, puisque ces dernières se trouvent souvent dans la situation difficile de ne pas pouvoir démontrer ces éléments. Parfois, ce sont la jurisprudence (le juge) ou la loi (les textes juridiques) qui vont établir une présomption de lien de causalité, ce qui peut être un outil pour les victimes à partir du moment où cela peut « mincer » la démarche pour les prouver.

Parmi les types de présomptions d’un lien de causalité la doctrine juridique distingue entre la présomption dite réfragable (ou praesumptio iuris tantum), qui prévoit la possibilité pour la personne contre qui est dirigée la présomption du lien de causalité de pouvoir démontrer le contraire, et la présomption dite irréfragable (ou praesumptio iuris et de iure), qui n’admet pas la possibilité de pouvoir donner des preuves contraires pour la personne contre qui est dirigée la présomption du lien de causalité.

Quelles avancées pour l’Union européenne ?

En matière de responsabilité dans le domaine d’IA, nombreuses sont les questions qui émergent et auxquelles l’UE cherche à donner une réponse : quand on donne un prompt à un logiciel d’intelligence artificielle – ChatGPT par exemple – si ce prompt aboutit à un résultat désagréable pour l’usager de l’IA, qui est-ce qui va être responsable ? l’auteur du prompt ? ou le concepteur du logiciel d’IA (en l’occurrence OpenAI dans le cas de ChatGPT) ? ou les deux ? et comment réparer les dommages causés par un système d’IA ? Ces questions font justement l’objet de la proposition de directive de septembre 2022 sur la responsabilité des fournisseurs de service d’intelligence artificielle.

Cette proposition de directive se fixe l’objectif de favoriser le développement d’une IA le plus sécurisé possible, afin que ses bénéfices pour le marché intérieur (conformément à l’art. 114 du TFUE, d’où les bases juridiques pour que l’UE puisse agir) puissent être pleinement appréciés et que les potentielles victimes qui ont subi un préjudice causé par l’IA aient une protection presque équivalente à celle dont on pourrait bénéficier dans d’autres domaines plus traditionnels et non liés au numérique.

Pourquoi l’UE veut-elle réglementer le domaine de l’IA ?

En premier lieu, comme la victime peut avoir du mal à démontrer son dommage, cette directive vise à faciliter les travaux préparatoires de la victime. Les caractéristiques complexes de l’IA peuvent rendre très difficile ou excessivement onéreuse pour les victimes l’identification de la personne responsable et la démonstration d’un lien de causalité entre la faute et le dommage (préjudice). En particulier, lorsqu’elles demandent une réparation d’un dommage. Les parties lésées peuvent être confrontées à des coûts initiaux très élevés et à des procédures judiciaires beaucoup plus longues que dans les affaires non liées à l’intelligence artificielle, ce qui pourrait les décourager voire les dissuader de demander une réparation.

De plus, les stratégies nationales pouvant beaucoup différer les unes des autres sur le sujet, l’absence d’action au niveau communautaire pourrait conduire à une forte fragmentation entre les législations nationales.

Cela demande une action de la part de l’UE pour qu’il y ait le plus haut niveau d’homogénéisation (après la transposition en droit national de la directive) entre les législations des États membres en matière de droit relatif à l’IA. Dans cette perspective, la proposition de septembre 2022 sur la responsabilité civile extracontractuelle en matière d’IA vise à empêcher la fragmentation résultant des adaptations spécifiques de l’IA aux règles nationales de responsabilité civile extracontractuelle.

Une véritable présomption ou simple allégement de la charge de la preuve ?

L’art. 4 de la proposition de directive de septembre 2022 se pose comme but d’établir une « présomption du lien de causalité », à savoir qu’il établit que le préjudice subi par la victime est présumé être causé par l’utilisation du système d’IA, sauf si le défendeur prouve le contraire.

Mais comment apprécier la présomption de lien de causalité prévue par cette proposition de directive ?

C’est tout à fait vrai qu’étant réfragable, elle pourrait être renversée à tout moment si le défendeur était en mesure de prouver que le dommage n’a pas été causé par l’utilisation du système d’IA.

Ainsi, à bien regarder, la présomption ne dispense pas totalement la victime de prouver le lien de causalité entre le dommage subi et l’utilisation du système d’IA. Mais elle permet quand même de faciliter cette preuve en renversant la charge de la preuve, c’est-à-dire en l’attribuant à la contrepartie.

Si en effet, d’un côté, cette notion permet aux juridictions nationales de présumer, « aux fins de l’application des règles de responsabilité à une action en réparation, le lien de causalité entre la faute du défendeur et le résultat produit par le système d’IA » (cf. art. 4-1), de l’autre côté, c’est vrai aussi que le lien de causalité et sa présomption sont toujours susceptibles d’être affaiblis par la contrepartie qui peut prouver le contraire.

De plus, les coûts relatifs au délai temporaire nécessaire pour que la contrepartie prouve le contraire font que la victime doit faire face à des ralentissements considérables avant que toutes les vérifications soient faites et que le dommage puisse être réparé. Certains pourraient donc dire que ce texte vise un allégement de la charge de la preuve pour la victime, plutôt qu’une véritable présomption irréfragable. Celle-ci, rappelons-le, n’admettant pas de preuve contraire, réduit drastiquement tous les efforts et les coûts temporels pour que la réparation d’un dommage soit effectuée.

Deux côtés de la même médaille

La proposition de directive de la Commission sur la responsabilité civile extracontractuelle en matière d’IA est certes un outil qui enrichit l’arsenal législatif de l’Union Européenne et augmente sa puissance normative en matière numérique. Elle constitue sans doute un point de départ pour une protection des victimes de l’IA dans un monde qui ne cesse de progresser en termes de numérisation.

Sa marge d’appréciation, néanmoins, peut être variable. L’art. 4 du texte de septembre 2022, le centre névralgique de cette proposition de directive, met en place la notion de « présomption réfragable de lien de causalité », dont le terme « réfragable » pourrait constituer un véritable « vice de forme », responsable de ralentissements au cas où une victime demanderait une réparation de dommage. Force est de constater que dans le texte tel qu’il se présente actuellement, il demeure la nécessité de prouver ce lien, que ce soit du côté d’une partie ou de l’autre.

Cependant, en raison de la complexité des systèmes d’IA et de l’opacité qui affecte la compréhension de leur fonctionnement, transférer le « fardeau » de la charge de la preuve aux entreprises, qui sont les auteurs de l’IA et qui en connaissent beaucoup mieux les mécanismes, peut au moins décharger significativement les travaux préparatoires des victimes.

Vos commentaires
modération a priori

Attention, votre message n’apparaîtra qu’après avoir été relu et approuvé.

Qui êtes-vous ?

Pour afficher votre trombine avec votre message, enregistrez-la d’abord sur gravatar.com (gratuit et indolore) et n’oubliez pas d’indiquer votre adresse e-mail ici.

Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Suivre les commentaires : RSS 2.0 | Atom