Un cadre européen pour l’intelligence artificielle

Les législateurs de l’Union européenne (UE) réfléchissent à la meilleure façon de légiférer sur l’utilisation de la technologie de l’intelligence artificielle (IA), en cherchant à maximiser les possibilités pour les citoyens de l’UE de bénéficier de cette technologie, tout en limitant les risques. Le Parlement doit voter lors de sa session plénière d’octobre II sur trois rapports d’initiative de la commission des affaires juridiques (JURI) dans les domaines de l’éthique, de la responsabilité civile et de la propriété intellectuelle (PI).

Contexte

L’intelligence artificielle (IA) est une technologie prometteuse qui combine des techniques d’apprentissage par machine, la robotique et des systèmes de prise de décision automatisés. On prévoit que les applications de l’IA auront un large éventail d’effets positifs sur la société et l’économie, notamment dans le secteur des soins de santé pour lutter contre les pandémies, ou dans le secteur des transports pour guider les véhicules autonomes. Parallèlement, les caractéristiques de l’IA, notamment l’opacité opérationnelle (« effet boîte noire ») et le comportement partiellement autonome, comportent un certain nombre de risques potentiels pour les droits fondamentaux des citoyens de l’UE (par exemple, prise de décision biaisée et discrimination) qui peuvent avoir des conséquences négatives, par exemple, dans le contexte de l’application de la loi et de la sécurité et de la responsabilité des produits. Dans ce contexte, les législateurs de l’UE examinent comment encourager et réglementer l’IA.

Proposition de la Commission européenne

La Commission a défini une stratégie en matière d’IA en 2018, qui aborde les aspects socio-économiques de l’IA, et a convenu d’un plan coordonné avec les États membres de l’UE pour aligner les stratégies visant à promouvoir le développement de l’IA en Europe. La Commission souhaite développer une approche de l’IA centrée sur l’homme et respectueuse des valeurs et des principes européens. En 2019, la Commission a publié ses lignes directrices non contraignantes sur l’éthique en matière d’IA, qui définissent sept exigences clés que les développeurs d’IA doivent respecter (à savoir l’agence humaine et la surveillance, la robustesse et la sécurité techniques, la gouvernance de la vie privée et des données, la transparence, la diversité, la non-discrimination et l’équité, le bien-être de la société et de l’environnement, et la responsabilité). En outre, un livre blanc de la Commission, publié en 2020, souligne la nécessité d’éviter une fragmentation des approches nationales, de soutenir le développement et l’adoption de l’IA dans l’économie de l’UE, et prépare le terrain pour des propositions législatives.

La Commission a organisé une consultation publique sur le livre blanc entre février et juin 2020. Les parties prenantes des secteurs public et privé soutiennent largement la révision de la directive sur la responsabilité du fait des produits et des règles nationales en matière de responsabilité, afin de couvrir les risques créés par l’utilisation de systèmes d’IA et de garantir une indemnisation en cas de dommage. En outre, l’opinion selon laquelle un nouveau cadre réglementaire pour l’IA est nécessaire, afin de compléter la législation applicable (par exemple, les régimes de protection des consommateurs, de protection des données et de respect de la vie privée), est largement partagée.

La Commission propose, en particulier, de mettre en place une évaluation préalable de la conformité des systèmes d’IA « à haut risque » afin de vérifier leur conformité avec une série de nouvelles exigences (à savoir la robustesse, l’exactitude et la reproductibilité, la gouvernance des données, la responsabilité, la transparence et la surveillance humaine) avant leur entrée dans le marché intérieur de l’UE. En parallèle, la Commission cherche à évaluer le cadre de la PI pour améliorer l’accès aux données et leur utilisation, ce qui est essentiel pour la formation des systèmes d’IA.
L’une des questions clés pour les législateurs est de définir des critères clairs permettant de différencier les applications d’IA à « faible risque » et à « risque élevé ».

La Commission propose une approche fondée sur le risque, selon laquelle une application d’IA donnée doit être considérée comme à haut risque si le secteur cible (par exemple, les soins de santé) et l’utilisation prévue comportent tous deux un risque important (par exemple, blessure, décès). En outre, certaines applications d’IA, telles que la reconnaissance biométrique, seraient toujours considérées comme présentant un risque élevé. Toutefois, l’approche de la Commission est controversée. Certains universitaires soulignent que la définition de « risque élevé » doit être clarifiée, tandis que d’autres s’interrogent sur la faisabilité d’une distinction solide entre les applications à « faible risque » et à « risque élevé », basée sur le risque anticipé de technologies données, et suggèrent d’adopter plutôt une approche de gestion des risques, où la partie la plus apte à contrôler ou à atténuer les risques serait considérée comme légalement responsable.

Position du Parlement européen

Le Parlement a déjà adopté une série de résolutions dans le domaine de l’IA, notamment sur les règles de droit civil en matière de robotique. Le Parlement a également mis en place une nouvelle commission spéciale sur l’intelligence artificielle à l’ère numérique (AIDA). La commission JURI a adopté trois rapports sur l’IA le 1er octobre 2020.


Un cadre des aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes


La commission JURI a adopté son rapport d’initiative législative (rapporteur: Iban García del Blanco, S&D, Espagne) par 20 voix pour, aucune voix contre et 4 abstentions. Le rapport recommande notamment que la Commission établisse un cadre juridique européen complet et évolutif de principes éthiques pour le développement, le déploiement et l’utilisation de l’IA, de la robotique et des technologies connexes – y compris les logiciels, les algorithmes et les données – dans l’Union. La Commission devrait également intégrer une série de principes directeurs sur l’IA à haut risque, la robotique et les technologies connexes dans sa législation à venir, y compris la surveillance humaine, la transparence, la responsabilité, la non discrimination et la non partialité, la responsabilité sociale et l’égalité des sexes, la durabilité environnementale et les considérations relatives à la vie privée. La législation européenne devrait en outre imposer une série d’exigences aux technologies à haut risque, c’est-à-dire aux technologies qui présentent un risque important de causer des blessures ou des dommages et qui sont en violation des droits fondamentaux et des règles de sécurité de l’UE. La Commission devrait élaborer des orientations communes en la matière et dresser une liste des secteurs à haut risque (par exemple, l’emploi, les soins de santé) et des utilisations à haut risque (par exemple, le recrutement, la conduite automatisée, les processus électoraux) qui devrait servir à identifier les technologies d’IA à haut risque soumises à une évaluation de conformité. Le Parlement propose que les autorités nationales délivrent un certificat européen de conformité éthique si ces technologies sont conformes à des principes directeurs communs, notamment en matière de sécurité et de droit de recours.


Régime de responsabilité civile pour l’intelligence artificielle


La commission JURI a adopté son rapport d’initiative législative (rapporteur: Axel Voss, PPE, Allemagne) par 20 voix pour, aucune voix contre et 4 abstentions. Le rapport recommande notamment l’adoption d’un cadre juridique horizontal et harmonisé pour les actions en responsabilité civile, avec un nouveau règlement énumérant les systèmes d’IA à haut risque et les secteurs critiques dans lesquels ils sont utilisés. La Commission devrait – avec l’aide du comité technique permanent pour les systèmes d’IA à haut risque – revoir et modifier cette liste tous les six mois, si nécessaire par un acte délégué. Le rapport propose que les exploitants d’un système d’IA à haut risque soient soumis à une responsabilité objective pour tout dommage ou préjudice causé par une activité, un dispositif ou un processus physique ou virtuel piloté par ce système d’IA et soient soumis à un régime d’assurance obligatoire. De même, la responsabilité stricte s’appliquerait aux systèmes d’IA qui provoquent de manière répétée des incidents entraînant des dommages ou des préjudices graves (même pour ceux qui ne sont pas classés comme étant à haut risque). Les systèmes d’IA qui ne sont pas classés comme des systèmes d’IA à haut risque resteraient en principe soumis à la responsabilité pour faute, à moins que des lois nationales plus strictes et une législation sur la protection des consommateurs ne soient en vigueur. Le nouveau régime de responsabilité civile devrait couvrir les atteintes à la vie, à la santé, à l’intégrité physique et aux biens ainsi que les préjudices immatériels importants qui entraînent une perte économique vérifiable. Le droit communautaire devrait déterminer le montant et l’étendue de l’indemnisation, ainsi que le délai de prescription pour introduire une action en responsabilité. La nécessité de modifier en parallèle la directive sur la responsabilité du fait des produits doit être évaluée.


Droits de propriété intellectuelle (DPI) pour le développement des technologies de l’intelligence artificielle


La commission JURI a adopté son rapport d’initiative (Rapporteur : Stéphane Séjourné, Renouveau Europe, France), par 19 voix pour, 3 contre et 2 abstentions. Le rapport recommande notamment que la Commission réalise une étude d’impact sur les implications de l’IA et des technologies connexes dans le cadre du système actuel de droit des brevets, de protection des marques et des dessins et modèles, de droits d’auteur et de droits connexes, y compris la protection juridique des bases de données et des programmes informatiques, et de « secrets commerciaux ». La législation de l’UE doit être modifiée si nécessaire. La Commission doit soutenir la normalisation, qui joue un rôle clé dans le développement et la diffusion des nouvelles IA et des technologies connexes, et créer un espace européen des données équilibré pour favoriser la libre circulation, l’accès, l’utilisation et le partage des données, tout en protégeant les DPI et les secrets commerciaux.


Rapports d’initiative législative 2020/2012(INL), 2020/2014(INL) et rapport d’initiative 2020/2015(INI) ; commission(s) compétente(s) : JURI ; Rapporteur(s) : I. García del Blanco (S&D, Espagne), A. Voss (PPE, Allemagne), S. Séjourné (Renew, France).