Auteurs : Sophie Dumas-Lavenac
Maître de conférences à l’Université de Lorraine, Institut François Gény, EA 7301, chercheuse associée à l’IODE, UMR CNRS 6262
Date de mise en ligne : 2020
Résumé
Le développement des intelligences artificielles oblige à une adaptation du système juridique et de ses catégories, comme naguère le développement de la biomédecine. L’observation de la construction du droit de la bioéthique permet de percevoir les difficultés et les éventuels écueils à éviter ou exemples à reproduire dans l’élaboration d’un corpus normatif propre à réguler les intelligences artificielles. Si la création de nouveaux modèles juridiques semble indispensable, il faut veiller à la façon dont la réflexion est menée pour aboutir à cette création, sous peine d’adopter des normes impuissantes à atteindre l’objectif de protection de la personne. La précipitation est alors à proscrire, ce qui conduit à rechercher la régulation, au moins dans un premier temps, dans les concepts et normes existants.
Citation : Sophie Dumas-Lavenac, « Construire la protection juridique de la personne face aux intelligences artificielles : inventer de nouveaux modèles ou solliciter les anciens ? », Cahiers Droit, Sciences & Technologies [En ligne], 11 | 2020, mis en ligne le 31 octobre 2020, consulté le 13 novembre 2020. URL : http://journals.openedition.org/cdst/2381 ; DOI : https://doi.org/10.4000/cdst.2381
licence : Cahiers Droit, Sciences & Technologies sont mis à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International.
Lien du document : : https://doi.org/10.4000/cdst.2381
Mots clés : intelligence artificielle, régulation, bioéthique
Extrait
Ce passage par la réflexion éthique, menée par les acteurs de la pratique eux-mêmes, est certainement une bonne chose en ce qu’il génère, comme toute auto-régulation, l’appropriation de la règle par ses destinataires, favorisant ainsi son respect. Il comporte toutefois un risque, au-delà d’une efficacité trop faible nuisant à la protection de la personne. Ce risque est celui de la rigidification de la norme tirée plus tard des conclusions de la réflexion. La biomédecine en fournit un exemple avec le don de gamètes. À propos de cette pratique en particulier, l’intervention législative a été très tardive. En effet, elle n’a pas bénéficié d’une loi ponctuelle comme cela a été le cas pour la transfusion sanguine ou le don d’organes, et elle n’a été encadrée qu’à partir de 1994, alors que le développement du don de sperme a eu lieu dans les années 1970. Les acteurs de la pratique : les CECOS, ont alors spontanément recherché des règles éthiques et mis en place une autorégulation. Il est apparu très difficile de les faire revenir sur les principes dégagés alors et consacrés ensuite par la loi, et précisément sur le principe d’anonymat du donneur à l’égard de la personne née du don. La levée de ce principe, aujourd’hui sans doute acquise, a connu des atermoiements. La crainte la plus souvent avancée était celle d’une chute du nombre de dons. Est ici perceptible la défense, par ceux qui la pratiquent, de la technique en cause qu’il faut faciliter, ou en tous cas ne pas entraver par un cadre normatif. L’éthique, au sens de la défense des droits fondamentaux, cède le pas face à la réalisation de la technique. Cette attitude est naturelle. En matière biomédicale, elle est celle de médecins qui recherchent avant tout le bien-être de leurs patients, et dont le serment, qu’ils ont prêté avant d’entamer leur exercice, les incite, avant tout, à ne pas nuire. Une telle attitude n’est-elle pas encore davantage à craindre de la part de ceux qui développent les techniques employant l’intelligence artificielle, et dont les préoccupations sont sans doute de rendre service à l’humanité, mais aussi de réaliser des profits ? Certaines pratiques biomédicales sont bien sûr soumises à des logiques de marché, mais un très grand nombre de techniques sont réalisées dans des établissements publics. Est-il sage de confier la recherche des règles éthiques, ayant nécessairement vocation à limiter l’utilisation des IA, puisque c’est l’objet de toute régulation, à ceux dont l’intérêt économique consiste au contraire à ne pas entraver cette utilisation ? Le conflit d’intérêts est patent. D’ailleurs, les firmes travaillent à la détermination d’un cadre éthique car elles recherchent avant tout la confiance du public, élément certainement nécessaire à une bonne commercialisation de leurs produits.