Votre métier
icone de recherche
icone de recherche
logo
Accueil/ Actualités - La Quotidienne/ Affaires/ Divers

Intelligence artificielle : des experts se mobilisent contre la création d’une personnalité juridique pour les robots

Plus de 220 experts en intelligence artificielle, des juristes et des industriels, issus de différents pays de l'Union européenne, ont adressé une lettre ouverte à la Commission européenne pour solliciter la création de règles de droit européennes pour la robotique et l'intelligence artificielle « pour garantir un haut niveau de sécurité aux citoyens de l'Union européenne tout en favorisant l'innovation ». Le point avec Me Georgie Courtois, avocat associé au sein de la société d’avocats De Gaulle Fleurance & Associés et pilote du groupe juridique de l’association Hub FranceIA.


QUOTI-20180418-UNE-affaires2.jpg

La Quotidienne : Pouvez-vous nous exposer dans quel contexte s’inscrit cette lettre ouverte adressée à la Commission européenne et quelles sont les attentes des différents spécialistes en intelligence artificielle et robotique ?

Georgie Courtois : Cette lettre ouverte trouve son origine dans une résolution du Parlement européen sur les règles de droit civil sur la robotique adopté le 16 février 2017. Parmi les propositions portées par le Parlement européen, figure la recommandation 59 f) qui propose la création d’une « personnalité juridique spécifique aux robots ». Cette proposition a engendré un véritable tollé et de nombreuses inquiétudes parmi les experts, professionnels et juristes travaillant sur l’intelligence artificielle (IA).

La Quotidienne : Pourquoi cette recommandation est-elle contestée ?

G.C. : La lettre ouverte, dont je suis signataire, explique très clairement les raisons qui conduisent aujourd’hui les experts de cette question à réagir avant qu’une telle initiative porte ses fruits.

Depuis longtemps, des juristes se battent contre l’idée de doter les robots d’une personnalité juridique. Ce rejet a été exprimé, notamment, dans le rapport de synthèse France intelligence artificielle #FranceIA, fruit du travail du groupe que j’ai dirigé sur les enjeux juridique de l’IA.

D’abord, tous les experts qui travaillent concrètement sur l’IA savent que le concept d'IA « forte », tel qu’il est présenté, est aujourd’hui un mythe. L’IA forte renvoie à une machine qui aurait la capacité de produire un comportement intelligent et d'éprouver une conscience de soi, permettant à la machine de comprendre ce qu'elle fait. L’état des recherches actuelles dans ce domaine montre que nous sommes encore loin d’avoir développé une telle intelligence, certain pensent même qu’elle n’émergera jamais. Or, la recommandation du Parlement européen prend quasiment l’existence d’une IA « forte » comme acquise à court terme alors qu’elle a, pour l’heure, plus à voir avec la science-fiction qu’avec la réalité. Cette recommandation contribue donc à la création d’une perception fausse de l’IA par le public.

Ensuite, juridiquement, la création d’une personnalité juridique du robot est une aberration. L’idée serait de doter le robot d’une identité et d’un capital social (comme une entreprise) qui lui permettrait, notamment, de faire face à une action en responsabilité. Cela pose un problème s’agissant du patrimoine du robot qui lui serait attaché et qu’il faudrait donc abonder pour l’exécution de la dette de réparation. Par ailleurs, la création d’une telle personnalité est inappropriée car, pour l’essentiel, les règles de responsabilité actuelles fonctionnent avec le robot [1] en raison de ses capacités et de son autonomie actuelle. La responsabilité du fait des choses [2] s’applique en effet à l’utilisateur du robot, qui dispose de sa garde (l'usage, la direction et le contrôle de la chose [3]). L’évolution pratique a fait émerger le concept de garde « intellectuelle » dans la mesure où ce sont les ordres donnés par l’utilisateur qui la matérialisent. Si l’utilisateur ordonne volontairement à son robot de réaliser des actes potentiellement dommageables, il sera responsable. De même, l’utilisateur sera en tout état de cause censé maîtriser les caractéristiques du robot et anticiper les conséquences dommageables de son utilisation. A ce titre, le projet de réforme de la responsabilité civile présenté le 13 mars 2017par le garde des Sceaux, propose une refonte de l’article 1243 du Code civil relatif à la responsabilité du fait des choses. On peut considérer que ce projet valide la notion de garde « intellectuelle » en supprimant la responsabilité du fait des animaux (dont le propriétaire est responsable, même dans l’hypothèse où l’animal est égaré ou lui a échappé) qu’il intègre à cette responsabilité générale du fait des choses.

Au-delà de l’utilisateur, la responsabilité du fabricant du robot est également applicable avec les règles relatives aux produits défectueux. Le fabricant du robot engagera sa responsabilité en qualité de producteur en cas de défaut du produit [4] qui « n'offre pas la sécurité à laquelle on peut légitimement s'attendre […] » [5]. Dans l’hypothèse où le dommage est causé par un défaut inhérent au robot, non causé par l’utilisateur lui-même, le fabricant se verra appliquer ce régime de responsabilité.

Ces exemples montrent que la création d’une personnalité juridique du robot, ayant pour objet la responsabilité directe de cet objet de droit, aurait pour conséquence de déresponsabiliser les propriétaires et les fabricants de robots par la mise en place d’un écran juridique faisant obstacle à l’engagement de leurs responsabilités.

La Quotidienne : Comment règlementer l’intelligence artificielle ?

G.C. : C’est une question fondamentale à laquelle il ne faut pas répondre trop vite. Les débats relatifs à la personnalité juridique du robot illustrent le danger des postures prospectives visant à trop anticiper un état de fait par la mise en place d’une réglementation. La régulation de l’innovation doit se faire de façon pragmatique sur la base de la réalité concrète. Ce n’est que par le prisme de l’expérimentation que l’on peut parvenir à une législation efficace. Si les modifications des règles de responsabilité civile ne semblent pas nécessaires s’agissant des robots, il n’en est pas de même de la voiture autonome dont l’arrivée sur le réseau routier nécessite une adaptation à la marge. La parution récente du décret 2018-211 du 28 mars 2018 relatif à l'expérimentation de véhicules à délégation de conduite sur les voies publiques va dans le bon sens car elle s’appuie sur l’expérimentation et permet d’envisager, à court terme, une adaptation de la réglementation. Je défends cette démarche : l’expérimentation doit précéder la régulation afin que cette dernière ne devienne pas un frein à l’innovation.

Source : www.robotics-openletter.eu/

Propos recueillis parAudrey TABUTEAU

Me Georgie COURTOIS, avocat associé au sein de la société d’avocats De Gaulle Fleurance & Associés



[1] G. Courtois, « Robot et Responsabilité », in A. Bensamoun (dir.), Les Robots, Edition Mare & Martin, 2016, p. 129 s. ; G. Courtois, « Robots intelligents et responsabilités : quels régimes, quelles perspectives ? », Dalloz IP/IT 2016, p. 287.

[2] Article 1242 Code Civil.

[3] Définition issue de l’arrêt Franck (Cass. Ch. Réunies, 2 décembre 1941).

[4] Article 1245-8 Code civil.

[5] Article 1245-3 Code civil.

© Editions Francis Lefebvre - La Quotidienne