Le CESE n’est pas favorable à la création d’une personnalité juridique pour les robots ou l’IA

Décryptages
Outils
TAILLE DU TEXTE

Dans un avis publié le 31 mai 2017, le Conseil économique social et européen (CESE) se prononce contre la création d’une personnalité juridique pour les robots et plaide en faveur d’une approche "human-in-command" de l’intelligence artificielle (IA).

Presque personne ne conteste que l’intelligence artificielle (IA) peut présenter de nombreux avantages pour la société. Il suffit de penser aux applications destinées à obtenir une agriculture plus durable, une plus grande sécurité sur les routes, des processus de production moins polluants, des avancées médicales. Il se peut qu’elle contribue même à éradiquer la maladie et la pauvreté. Cependant, comme toutes les technologies de rupture, l’IA apporte son lot de risques en matière de sécurité et de contrôlabilité, d’aspects socio-économiques, d’éthique et de protection de la vie privée, de fiabilité….

Le CESE pointe actuellement onze domaines dans lesquels des réponses doivent être apportées : l’éthique ; la sécurité ; la vie privée ; la transparence et l’obligation de rendre des comptes ; le travail ; l’éducation et les compétences ; l’(in)égalité et l’inclusion ; la législation et la réglementation ; la gouvernance et la démocratie ; la guerre ; la superintelligence.

S’agissant de l’éthique, le développement de l’IA soulève de nombreuses questions. Quelle est l’influence de l’IA autonome sur notre intégrité personnelle, notre autonomie, notre dignité, notre indépendance, notre égalité, notre sécurité et notre liberté de choix ? Comment faire en sorte que nos normes fondamentales, nos valeurs et les droits de l’homme soient toujours respectés et garantis ?
Aussi, le CESE préconise l’instauration d’un code de déontologie pour le développement, le déploiement et l’utilisation de l’IA, afin que les systèmes d’IA demeurent, tout au long de leur processus d’exploitation, compatibles avec les principes de dignité humaine, d’intégrité, de liberté, de respect de la vie privée, de diversité culturelle et d’égalité entre hommes et femmes, ainsi qu’avec les droits fondamentaux.

Le CESE plaide en faveur d’une approche dite "human-in-command" de l’IA, dont les conditions seraient un développement responsable, sûr et utile de l’IA dans le cadre duquel les machines resteraient les machines, sous le contrôle permanent des humains.
"En matière d’IA, nous avons besoin d’une approche où l’homme reste aux commandes (human-in-command approach) et où les machines restent des machines que les hommes ne cessent jamais de contrôler", a déclaré la rapporteure, Catelijne Muller (Pays-Bas – groupe des travailleurs). Elle n’évoquait pas uniquement le contrôle technique : "Les hommes peuvent et doivent également continuer à décider si, quand et comment l’IA est utilisée dans notre vie quotidienne ; quelles tâches nous lui confions, quel est son degré de transparence, si l’on veut en faire un dispositif éthique. Après tout, c’est à nous qu’il appartient de décider si nous voulons que certains emplois soient confiés à l’IA, qu’elle soit chargée de donner des soins ou de prendre des décisions médicales, et si nous voulons accepter qu’elle mette en péril notre sécurité, notre vie privée ou notre autonomie", a expliqué Mme Muller.

Alors que le Parlement européen souhaite la création d'une personnalité juridique spéciale pour les robots, le CESE s’oppose à la mise en place d’une forme de personnalité juridique pour les robots ou l’IA. Il estime que les effets correctifs préventifs du droit de la responsabilité civile s’en trouveraient vidés de leur substance. De plus, cela créerait des possibilités d’abus de même qu’un risque moral au niveau tant du développement que de l’utilisation de l’IA.

Par ailleurs, le CESE préconise l’instauration d’un code de déontologie pour le développement, le déploiement et l’utilisation de l’IA, afin que les systèmes d’IA demeurent, tout au long de leur processus d’exploitation, compatibles avec les principes de dignité humaine, d’intégrité, de liberté, de respect de la vie privée, de diversité culturelle et d’égalité entre hommes et femmes, ainsi qu’avec les droits fondamentaux.

Il plaide également pour la mise en place d’un système de normalisation pour la vérification, la validation et le contrôle des systèmes d’IA, fondé sur un large éventail de normes en matière de sécurité, de transparence, d’intelligibilité, d’obligation de rendre des comptes et de valeurs éthiques.
"Nous avons besoin de normes paneuropéennes dans le domaine de l’IA, à l’instar de celles qui régissent aujourd’hui des secteurs tels que l’alimentation et les appareils ménagers. Nous avons besoin d’un code éthique paneuropéen garantissant que les systèmes d’IA restent compatibles avec les principes de dignité humaine, d’intégrité, de liberté, de diversité culturelle et d’égalité entre hommes et femmes, ainsi qu’avec les droits fondamentaux", a souligné Catelijne Muller, "et des stratégies dans le domaine de l’emploi sont nécessaires pour maintenir ou créer des emplois et veiller à ce que les travailleurs conservent de l’autonomie et du plaisir au travail".

Enfin, le CESE veut une infrastructure d’IA européenne, composée de cadres d’apprentissage libres (open source) et respectueux de la vie privée, d’environnements d’essai en situation réelle (real life) et de séries de données de haute qualité pour le développement et la formation de systèmes d’IA. Il attire l’attention sur l’avantage (concurrentiel) que peuvent procurer à l’UE, sur le marché mondial, le développement et la promotion de "systèmes d’IA homologués au niveau européen", dans lesquels cette dernière ferait l’objet d’une certification et d’un étiquetage européens.

Arnaud Dumourier (@adumourier)


Lex Inside du 18 avril 2024 :

Lex Inside du 15 avril 2024 :

Lex Inside du 5 avril 2024 :