Les enjeux juridiques de l'intelligence artificielle - Trustt beauty

L’irruption de l’intelligence artificielle dans notre quotidien impacte tous les secteurs d’activité par  sa transversalité et son ancrage dans la digitalisation du commerce. L’appréhension juridique du système informatique intelligent est tout autant délicate en raison de sa récente émergence et de sa singularité. 

Quels sont les enjeux juridiques de l’intelligence artificielle ? 

Intelligence artificielle

Qu’est ce que l’intelligence artificielle ? 

 

L’intelligence artificielle (IA) désigne un ensemble de techniques permettant aux programmes informatiques de simuler certains traits de l’intelligence humaine. La norme ISO 2382-2015 relative aux technologies de l’information définit l’IA comme “une branche de l’informatique consacrée à l’élaboration de systèmes de traitement de données qui effectuent des fonctions normalement associées à l’intelligence humaine, telles que le raisonnement et l’apprentissage”. 

L’IA peut prendre différentes formes : 

  • IA faible désigne les machines intelligentes reproduisant des comportements programmés par l’humain, c’est actuellement la forme la plus répandue de l’intelligence artificielle. Elle utilise le traitement automatique du langage naturel comme Alexa,

 

  • Machine learning a une capacité d’apprentissage afin d’optimiser ses performances,

 

  • Deep Learning va encore plus loin, en apprenant sans modèle préalable,

 

  • IA forte désigne la capacité à reproduire, voire dépasser l’intelligence humaine dans tous ses composants avec une conscience et des sentiments. 

 

L’IA permet une prise de décision et la gestion de certains secteurs de manière plus efficiente,  notamment dans le secteur du marketing, management, service client… À titre d’illustration, la gestion de la relation client peut aujourd’hui se faire par un chatbot intelligent. 

IA

Sa convergence avec le Big data

 

Depuis quelques années, le domaine de l’IA ne cesse de s’accroître en raison des progrès technologiques et du phénomène du big data – moteur de l’intelligence artificielle. 

Le Big data se traduit généralement par les termes de “données massives” ou “mégadonnées”. En raison de l’explosion quantitative des données numériques, le big data a pris une place importante dans notre société. Il s’agit de la recherche, de l’analyse, du partage, du stockage et de la présentation des data. Le big data repose sur trois vecteurs dit les “3V” :

 

  • Volume de data considérable à traiter,
  • Variété d’informations provenant de divers sources,
  • Vélocité à atteindre et fréquence des données générées. 

 

Trustt beauty utilise la convergence entre l’intelligence artificielle et le big data au sein de son logiciel permettant d’améliorer le marketing digital des marques.

Trustbeauty est un outil 3 en 1

Avec Trustbeauty, développez vos ventes de cosmétiques online
et devenez une marque “Direct to Consumer”

Quel est le cadre juridique de l’IA ? 

 

L’encadrement juridique de l’IA n’est pas encore défini par le législateur par des normes juridiques impératives (hard law).

Toutefois, de nombreux textes de soft law ou droit souple, c’est-à-dire des normes juridiques non impératives et plus incitatives, font la promotion de règles éthiques inhérentes à l’IA. Il s’agit notamment de chartes, code de déontologie, guides de bonnes pratiques, lignes directrices… La plus connue est la norme ISO 2382-2015 relative aux technologies de l’information. 

En France, le débat public sur les enjeux numériques a été ouvert en vue de formuler des propositions d’encadrement de l’IA. La loi n°2016-1321 du 7 octobre 2016 pour une République numérique a confié à la CNIL la mission de conduire une “réflexion sur les problèmes éthiques et les questions de sociétés soulevés par l’évolution des technologies numériques”. 

Le Rapport Villani de 2018 établit des pistes quant à l’encadrement éthique du développement de l’Intelligence Artificielle. Ce rapport recommande notamment : 

  • Améliorer la transparence et l’auditabilité des systèmes autonomes,
  • Adapter la protection des droits et libertés au regard des abus potentiels liés à l’utilisation des machine learning,
  • S’assurer du système de responsabilité en cas de dommage lié à l’Intelligence Artificielle,
  • Créer une véritable instance de débat, plurielle et ouverte sur la société afin de déterminer la gouvernance démocratique de l’IA. 

Cette instance participative sera peut être consacrée par la “Chambre du futur” reformant le Conseil économique, social et environnemental (CESE) afin de catalyser les projets sociétaux comme l’IA. 

En outre, le Parlement souhaite favoriser la transparence de l’Intelligence Artificielle (Rapport pour une Intelligence Artificielle maîtrisée, utile et démystifiée, de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST)). 

IA et justice

Quelles sont les protections de l’IA par le droit ? 

L’Intelligence Artificielle est composée d’éléments divers et variés en passant par le logiciel, les bases de données ou encore l’algorithme. Certains de ces composants sont protégeables par la propriété intellectuelle. 

Le droit d’auteur 

Le logiciel et l’interface graphique sont généralement protégés par le droit d’auteur (article L. 112-2 du Code de propriété intellectuelle).

Cependant, l’algorithme et les bases de données sont des éléments essentiels au fonctionnement de ces systèmes intelligents. Dès lors, pour qu’une entreprise exploite licitement l’IA dans son intégralité elle devra s’assurer que l’algorithme et les bases de données aient été dûment acquis, en sus des droits de propriété intellectuelle.

L’algorithme est un ensemble de règles opératoires dont l’application permet de résoudre un problème énoncé au moyen d’un nombre fini d’opérations. L’appropriation des algorithmes est exclu par le droit d’auteur :

 

  • La fonctionnalité d’un programme d’ordinateur puisse être protégée par le droit d’auteur reviendrait à offrir la possibilité de monopoliser les idées, au détriment du progrès technique et du développement industriel” (CJUE 2 mai 2012, C-406/10) ;
  • Les fonctionnalités d’un logiciel, définies comme la mise en œuvre de la capacité de celui-ci à effectuer une tâche précise ou à obtenir un résultat déterminé, ne bénéficient pas, en tant que telles, de la protection du droit d’auteur, dès lors qu’elles ne correspondent qu’à une idée” (Cass. civ 1re, 13 décembre 2005 n°03.21.154) ;
  • Les idées et les principes qui sont à la base des différents éléments d’un programme, y compris ceux qui sont à la base de ses interfaces, ne sont pas protégés par le droit d’auteur”(la directive 2009/24/CE du Parlement européen et du Conseil du 23 avril 2009 concernant la protection juridique des programmes d’ordinateur). 

Le brevet 

Par principe, l’appropriation des algorithmes par le brevet est exclue au sens de l’article L. 611-10 du Code de la propriété intellectuelle et de l’article 52 de la Convention sur le brevet européen (CBE). 

Toutefois, il semble que l’appropriation indirecte des algorithmes par le brevet puisse être possible lorsque l’algorithme est mobilisé dans le cadre d’une application concrète ou qu’il est inclus dans un procédé technique à part entière. 

Droit sui generis des bases de données

La base de données peut faire l’objet d’un droit privatif, à condition que celle-ci constitue un investissement financier, matériel ou humain substantiel (article L. 341-1 du Code de la propriété intellectuelle). 

 

IA droit d'auteur - brevet des bases de donnees- droit sui generis

Les obstacles juridiques à l’IA ?

L’Intelligence Artificielle s’est progressivement intégrée à notre quotidien en passant par l’optimisation de nos déplacements, à la personnalisation de nos fils d’actualité sur les réseaux sociaux ou encore à la création de playlist “intelligente”. Par exemple, grâce à l’IA, les morceaux de musique enregistrés par l’utilisateur sont analysés afin de créer une nouvelle playlist personnalisée et composée de morceaux et d’inspirations similaires. Malgré ses atouts indéniables, l’Intelligence Artificielle se heurte à certains obstacles comme l’éthique, le respect du Règlement général sur la protection des données (RGPD), la sécurité, la santé, la justice…

La régulation des données personnelles et l’IA ?

L’IA va naturellement augmenter de façon exponentielle le domaine des données personnelles. Dès lors, l’intérêt des utilisateurs doit primer sur le développement de l’IA afin de protéger les libertés individuelles de chacun. 

Quelle éthique de l’IA ?

L’actualité juridique révèle des difficultés inédites entre l’Intelligence Artificielle et l’éthique et plus particulièrement sur les propos injurieux. La loi du 29 juillet 1881 relative à la liberté de la presse, l’injure et la diffamation sanctionne les propos injurieux à condition de rapporter un élément matériel, c’est-à-dire la teneur des propos et un élément intentionnel, c’est-à-dire la volonté de l’auteur de tenir de tels propos. 

L’exploitant des machines “intelligentes” doit-il être responsable des propos injurieux rapportés par l’affichage de mots clés de cette dernière. C’est la question que la Cour de cassation s’est posée. Elle consacre fermement l’affirmation de la liberté de choix de l’algorithme en rejetant la responsabilité de l’exploitant (Cass. civ. 1, 19 juin 2013, n°12-17.591).

Cette problématique suscite en outre, un positionnement juridique sur la cybersécurité. Cette dernière désigne la capacité de protéger les personnes et l’État de toute menace informatique comme les cyberattaques. 

obstacles à l'IA

Quelles responsabilités pour les robots ? 

L’émergence de l’Intelligence Artificielle suscite quelques interrogations quant à l’indemnisation des préjudices causés par les robots. Pour ce faire, l’ancien Premier ministre Edouard Philippe a engagé une stratégie nationale pour l’Intelligence Artificielle devant l’Assemblée nationale en 2017. À l’échelle européenne, le Parlement a voté un rapport le 16 février 2017 posant les principes d’une responsabilité civile pour les dommages causés par les robots. 

En matière civile, la détermination de la personne responsable en cas de dommage causé par un robot est essentielle. Dans le cadre juridique actuel, un robot ne peut être tenu responsable des actes ou inactions lors de dommages causés à des tiers. Au sens des articles 1245 à 1245-17 du Code civil, la responsabilité du fait des produits défectueux pourrait s’appliquer aux dommages causés par un robot. Toutefois, dès lors que l’Intelligence Artificielle prendrait des décisions de façon autonome, le responsable ne pourrait plus être dissocié et le régime de la responsabilité des produits défectueux ne pourrait s’appliquer. 

Le cadre juridique actuel en matière de responsabilité civile de l’Intelligence Artificielle est inadapté en raison de son autonomie et de son imprévisibilité pour son exploitant. Le droit devra s’adapter aux avancées technologiques afin de les encadrer juridiquement et de mutualiser les risques. 

IA

Vers un nouveau statut juridique : la personnalité robotique ?

Par analogie à la création de la personnalité morale, la personnalité des robots pourrait être instaurée avec son enregistrement administratif par un numéro d’identification dans le but de recenser les robots et d’y rattacher la personne physique ou morale responsable. Cependant, le législateur ne s’est pas encore prononcé sur la mise en place d’une personnalité spécifique à l’Intelligence Artificielle. 

Pour conclure 

Le droit et l’Intelligence Artificielle sont à deux vitesses. En effet, le droit n’évolue pas aussi vite que se développe l’IA. Aujourd’hui, ce sont 80 ETI et PME et plus de 270 start-ups qui sont spécialisées dans l’IA. La France consacre 400 millions d’euros par an au financement public pour la recherche dans l’IA. L’IA est indéniablement une opportunité business d’avenir pour les entreprises de demain. Il ne reste plus qu’à attendre que le législateur se positionne sur les droits et obligations liés à l’IA afin de mieux appréhender ses contours juridiques. 

Dans le sens inverse, l’IA s’est mise au service du droit avec la justice prédictive.


Léa Bouchand

Juriste