• Parutions -fr 

Parutions

« Protéger les indications géographiques par le droit d’alerte ». MaPreuve. 28/07/2017

Lire l’article

Les enjeux juridiques de l’Intelligence Artificielle.

En Janvier 2017, le barreau de Lille a annoncé son intérêt pour la justice prédictive et compte bien être l’un des premiers barreaux Français à tester ce dispositif[1].

Les algorithmes et l’Intelligence Artificielle en général, soulèvent de plus en plus de questionnements juridiques à une époque où cette dernière est capable de vaincre un champion du jeu de Go[2].

Pour John McCarthy, l’Intelligence Artificielle (ou « IA ») est une « construction de programmes informatiques qui s’adonnent à des taches qui sont, pour l’instant, accomplies de façon plus  satisfaisantes par des êtres humains car elles demandent des processus mentaux de haut niveau tels que l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».

Depuis le siècle dernier, l’Intelligence Artificielle nourrit les fantasmes les plus imaginatifs. Elle peut être vue comme un progrès pour l’humanité, facilitant la vie de l’homme et l’accompagnant dans son quotidien afin de l’aider à prendre des décisions ou à réaliser des tâches.

Mais l’Intelligence Artificielle nourrit aussi de grandes peurs, comme le reflète la littérature et le cinéma de science fiction. On peut citer l’exemple de H.A.L dans « 2001 L’odyssée de l’Espace » ou le robot Elvex dans la Nouvelle « Le Robot qui rêvait » d’Isaac Asimov, robot doté d’un véritable subconscient, capable de rêver et se positionnant comme l’équivalent des humains.

Malgré tout, l’Intelligence Artificielle est aujourd’hui une réalité, qui fait émerger un véritable débat dans le monde juridique.

Dans cette optique, le Parlement Européen a récemment publié une résolution contenant « des recommandations à la Commission concernant les règles de droit civil sur la robotique. »[3]

Les questions susceptibles d’être soulevées à propos de l’Intelligence Artificielle et la robotique concernent la transparence, la propriété intellectuelle, le régime de la responsabilité ou encore la protection des données personnelles.

La transparence nécessaire 

Pour que les individus placent leur confiance dans une Intelligence Artificielle, il est nécessaire d’instaurer une totale transparence et une loyauté dans le traitement algorithmique qui l’anime.

Dans cette logique de transparence, Elon Musk, CEO de Tesla et SpaceX, a lancé des recherches sur l’Intelligence Artificielle, dont les résultats sont consultables à tout moment et mises à jour régulièrement.[4]

Dans le droit positif, des avancées ont été faites en faveur de la transparence.

On peut citer, à titre d’exemple, la loi pour une République Numérique[5] qui impose à l’Administration d’être totalement transparente lorsqu’elle exécute des traitements algorithmiques.

La nouvelle législation européenne (GDPR) en matière de protection des données personnelles imposera à l’avenir une transparence si le traitement aboutit à un profilage des individus[6].

Le texte prévoit, en effet, que le responsable d’un traitement devra informer la personne concernée « de l’existence d’une prise de décision automatisée, y compris de profilage ».

Une fois la personne informée, elle sera en mesure d’exercer, ou non, son droit d’opposition.

Cette obligation d’information doit permettre aux personnes concernées de comprendre le fonctionnement d’une IA et de montrer que celle-ci est respectueuse des principes de protection de la vie privée des individus.

D’autres principes du règlement GDPR vont impacter le développement de l’Intelligence Artificielle.

Tous les programmes développés vont devoir se plier aux exigences de la « Privacy By Design », c’est à dire qu’ils vont devoir intégrer la protection des données dés la conception.

La future Intelligence Artificielle devra aussi appliquer le nouveau principe de minimisation dans la collecte de données personnelles.

Malgré tout, cet appel à la transparence va à contre-courant de la tendance actuelle des entreprises.

Développer et mettre en œuvre une Intelligence Artificielle peut être protégé par le secret professionnel / secret de fabrique  et une entreprise peut se montrer réticente à l’idée de dévoiler « sa recette » de l’Intelligence Artificielle avec le risque de voir ses concurrents proposer une meilleure solution.

Le régime de responsabilité 

La question est ici de savoir quel fondement juridique appliquer si un litige survient à cause d’une Intelligence Artificielle.

La responsabilité civile de l’article 1240 du Code Civil (anciennement 1382) s’applique lorsqu’une personne commet une faute qui cause un dommage à une autre personne. L’idée qui sous-tend la responsabilité civile c’est que chaque individu doit répondre de ses actes.

L’autre principe fondateur du Code civil réside dans le fait que chaque individu qui s’oblige, engage ses biens présents et à venir (article 2284 du Code Civil).

Ainsi, l’auteur d’une faute, condamné à réparer  le dommage, utilisera les biens de son patrimoine (argent) pour exécuter son obligation.

L’Intelligence Artificielle n’ayant pas la personnalité juridique, elle ne dispose pas non plus d’un patrimoine au sens du droit français. Il semble donc difficile d’appliquer le régime général de la responsabilité civile de  l’article 1240 du Code Civil (anciennement 1382) à l’IA car elle ne sera pas en mesure de réparer le préjudice.

Il convient donc de regarder vers le régime de responsabilité du fait des choses.

Le gardien d’une chose (son propriétaire) peut voir sa responsabilité engagée si la chose  qui est sous sa garde crée un dommage à autrui. Le gardien peut toutefois s’exonérer s’il arrive à prouver qu’aucune faute n’a été commise.

À titre d’exemple, si un robot cause un dommage à autrui, comme une blessure, c’est la responsabilité de son propriétaire qui sera engagée et qui, le cas échéant, indemnisera la victime.

La responsabilité du fait des produits défectueux de l’article 1245 du Code Civil (anciennement 1386-1) pourrait aussi s’appliquer dans ce cas de figure.

La responsabilité d’un fabricant peut être engagée si le produit qu’il a fabriqué cause un dommage à un individu car il est défectueux. Appliqué à l’Intelligence Artificielle, ces règles pourraient conduire à imaginer qu’un robot cause un dommage à autrui en raison d’un défaut de fabrication ou d’une anomalie dans le logiciel le faisant fonctionner.

Dans ce cas précis, la responsabilité du fabricant ou du développeur du logiciel pourra être engagée et il sera tenu de réparer le dommage.

Il n’y a, de notre point de vue, pas urgence à consacrer un régime de responsabilité propre à l’IA, la pratique étant susceptible d’adapter ces responsabilités historiques à l’Intelligence Artificielle. Cependant, des difficultés peuvent surgir : peut-on réellement engager la responsabilité du développeur si le dommage vient du résultat d’un calcul effectué par un algorithme ?

Dans ses recommandations pour la création d’un droit civil des robots, le Parlement Européen propose plusieurs solutions au titre de la responsabilité de l’Intelligence Artificielle.

On retrouve :

  • La mise en place d’une assurance obligatoire ;
  • La création d’un fonds de compensation afin d’indemniser les accidents provoqués par une Intelligence Artificielle (comme l’ONIAM pour les accidents médicaux) ;
  • La création d’un numéro d’immatriculation pour faciliter l’identification des robots en leur attribuant un numéro propre ;
  • La consécration d’une personnalité juridique propre aux robots afin de créer des règles spéciales pour la mise en œuvre de leur responsabilité.

L’Intelligence Artificielle  est avant tout un logiciel,  protégé par le droit d’auteur à condition qu’il soit original.

Ce critère d’originalité n’est pas défini dans le Code de la propriété intellectuelle.

À travers une œuvre, l’auteur exprime, sa personnalité. L’œuvre porte l’empreinte de la personnalité de son auteur. L’originalité d’une œuvre émane donc de la personnalité de son auteur.

C’est différent pour un logiciel car l’originalité s’apprécie en fonction des choix opérés par son développeur. Selon la jurisprudence, « l’organigramme, la composition du logiciel, et les instructions rédigées, quelle qu’en soit la forme de fixation constituent la forme d’expression du logiciel »[7]

D’autres titres de propriété industrielle peuvent venir renforcer la protection de l’IA, on peut notamment déposer un brevet sur les éléments techniques utilisés par le logiciel, enregistrer une marque (déposer comme marque le nom d’un robot) ou protéger les plans de conception du robot en les enregistrant auprès de l’INPI comme dessins et modèles.

Sur l’année 2016, Microsoft a déposé 103 brevets concernant l’Intelligence Artificielle.

L’Intelligence Artificielle  peut aussi aider une personne humaine à créer une œuvre de l’esprit.

La jurisprudence a déjà eu l’occasion de se prononcer sur la création d’une œuvre, assistée par ordinateur.  Selon elle, l’œuvre « peut être protégée par le droit d’auteur à condition qu’apparaisse l’originalité voulue par le concepteur »[8]

C’est donc l’Homme  derrière l’ordinateur qui serait titulaire des droits d’auteur. Cette jurisprudence peut être appliquée sans difficultés si l’œuvre a été crée avec l’assistance d’une Intelligence Artificielle car l’œuvre créée reflète la personnalité de l’Homme.

À l’inverse, l’IA peut être amenée à créer, elle-même, une œuvre originale.

Dans ce contexte, il est difficile de lui accorder des droits d’auteur car il faudra faire ressortir de cette œuvre le critère d’originalité. Or, il apparaît hasardeux de reconnaître à une IA qu’elle exprime sa personnalité dans une œuvre de l’esprit.

Il y a donc un lien entre Humanité et création originale.  Le droit d’auteur est subjectif et n’est pas adapté pour les créations réalisées par une Intelligence Artificielle.

Afin qu’une telle protection puisse être accordée, il faudrait bouleverser le paradigme de la propriété littéraire et artistique et en faire un droit objectif, s’appliquant à n’importe quelle création, sans condition d’originalité, telle qu’elle est entendue aujourd’hui par les juridictions françaises.

[1]http://www.lavoixdunord.fr/106005/article/2017-01-20/pionniers-en-europe-les-avocats-lillois-testent-la-justice-predictive

[2] http://www.futura-sciences.com/tech/actualites/technologie-alphago-apres-avoir-battu-n-1-mondial-jeu-go-ia-prend-retraite-61409/

[3] http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2017-0051+0+DOC+PDF+V0//FR

[4] Https://openai.com/about/

[5]https://www.legifrance.gouv.fr/affichLoiPubliee.do?idDocument=JORFDOLE000031589829&type=general&legislature=14

[6] Article 22 du GDPR

[7] Ccass. Ass. Plèn, 7 mars 1986, Pachot, n° 83-10.477

[8] Cour d’appel de Paris, 3 mai 2006, RG 05/03736

« Les nouvelles obligations des plateformes de mise en relation issues du décret du 4 mai 2017 ».

A été publié au JORF du 6 mai 2017, le décret n° 2017-774 du 4 mai 2017  relatif à la responsabilité sociale des plateformes de mise en relation par voie électronique. Il a pour but de fixer les conditions d’application de la responsabilité sociale des plateformes collaboratives. Il entrera en vigueur le 1er janvier 2018.

La « plateforme en ligne » est un terme qui a déjà attiré l’attention du législateur, en la définissant à l’article L111-7 du Code de la consommation  comme «  toute personne physique ou morale proposant à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur :

  • le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers
  • Ou la mise en relation de plusieurs parties en vue de la vente de bien, de la fourniture d’un service, ou de l’échange ou du partage d’un contenu, d’un bien ou d’un service. »

En plus de définir la plateforme en ligne, le législateur vient aussi lui créer un régime comprenant notamment des obligations fiscales, visibles à l’article 242 bis du code Général des Impôts, qui peuvent se résumer en une transparence envers ses utilisateurs. Ce régime contient aussi des obligations qui ont été créées par la loi n°2016-1088 relative au travail, à la modernisation du dialogue social et à la sécurisation des parcours professionnels (ou loi El Khomri).

Depuis cette « loi travail », lorsqu’une plateforme de mise en relation par voie électronique détermine les caractéristiques de la prestation de service fournie ou du bien vendu et fixe son prix, elle a une responsabilité sociale à l’égard des travailleurs indépendants qui y recourent.

Le décret vient préciser les modalités et l’étendue de cette garantie en complétant le Titre IV du code du travail intitulé « Travailleurs utilisant une plateforme de mise en relation par voie électronique », qui comporte deux chapitres :

  • Chapitre 1 : Champ d’application
  • Chapitre 2 : Responsabilité sociale des plateformes

Lorsque le travailleur indépendant a souscrit à une assurance couvrant le risque d’accidents du travail ou adhère à l’assurance volontaire en matière d’accidents du travail, les frais sont pris en charge par la plateforme si le travailleur indépendant a réalisé, par celle-ci, un chiffre d’affaire supérieur ou égal à 13% du plafond annuel de la sécurité sociale (soit 5 099,64€ pour l’année 2017).

La contribution à la formation professionnelle, ainsi que les frais d’accompagnement pour la validation des acquis d’expérience sont aussi pris en charge par la plateforme à hauteur de ce plafond.

La cotisation due par la plateforme est égale à la cotisation due au titre de l’assurance volontaire des accidents du travail et des maladies professionnelles, évaluée par le biais d’un salaire annuel inférieur à un minimum déterminé au 1er avril de chaque année calculé sur la base de l’évolution de la moyenne annuelle des prix à la consommation, hors tabac, calculée sur les douze derniers indices mensuels de ces prix publiés par l’Institut national de la statistique et des études économiques l’avant-dernier mois qui précède la date de revalorisation des prestations concernées.

Lorsque le travailleur indépendant travaille pour plusieurs plateformes collaboratives, les frais évoqués ci-dessus sont remboursés par chacune d’entre elles au prorata du chiffre d’affaires que le travailleur indépendant a réalisé par son intermédiaire, rapporté au chiffre d’affaires total qu’il a réalisé par l’intermédiaire des plateformes.

Enfin, le décret précise que le travailleur qui souhaite le remboursement de ces frais, doit en faire la demande auprès de la plateforme en les justifiant et doit indiquer le chiffre d’affaire réalisé. Cette demande peut être faite en ligne et gratuitement. La plateforme devant informer ses travailleurs de l’existence de telles modalités de remboursement.

Lien du décret : https://www.legifrance.gouv.fr/eli/decret/2017/5/4/ETST1710240D/jo

 

 

 

 

Nouvelles règles pour l’hébergement de données de santé.

L’ordonnance n°2017-27 du 12 janvier 2017 portant sur l’hébergement de données de santé à caractère personnel est venue modifier la procédure d’agrément des hébergeurs de données de santé (article 1111-8 du Code de la santé publique) en mettant en place un mécanisme de certification moins contraignant. Toutefois, pour pouvoir conserver les données de santé sur support papier ou sur support numérique dans le cadre d’un service d’archivage électronique, l’hébergeur devra être agréé.

L’ ordonnance doit encore être ratifiée par le Parlement et entrera en vigueur à une date fixée par décret et, au plus tard, au 1er janvier 2019.

Seuls les organismes n’hébergeant pas de données de santé à caractère personnel sont   concerné par cette nouvelle disposition.

A défaut,le non-recours à un hébergeur agréé est sanctionné sur le fondement des articles 1115-1 et 1115-2 du Code de la santé publique (3 ans d’emprisonnement et 45 000 euros d’amende pour les personnes physiques et 225 000 euros d’amende pour les personnes morales).

Peut-on imposer un prix de revente à son distributeur ?

Conformément à l’article L 442-5 du Code de commerce et au règlement 330/2010 de la Commission Européenne du 20/04/2010, il est interdit d’imposer un prix fixe ou un prix minimum au distributeur. En effet, le distributeur doit être libre de fixer le prix de revente des produits ou service qu’il distribue.

Ainsi, l’article L 442-5 du Code de commerce dispose : « Est puni d’une amende de 15 000 euros le fait par toute personne d’imposer, directement ou indirectement, un caractère minimal au prix de revente d’un produit ou d’un bien, au prix d’une prestation de service ou à une marge commerciale ». 

Toutefois, l’article 4 du Règlement UE 330/2010 du 20 avril 2010 dispose : « l’exemption prévue à l’article 2 ne s’applique pas aux accords verticaux qui, directement ou indirectement, isolément ou cumulés avec d’autres facteurs sur lesquels les parties peuvent influer, ont pour objet (…) de restreindre la capacité de l’acheteur de déterminer son prix de vente, sans préjudice de la possibilité pour le fournisseur d’imposer un prix de vente maximal ou de recommander un prix de vente, à condition que ces derniers n’équivalent pas à un prix de vente fixe ou minimal sous l’effet de pressions exercées ou d’incitations par l’une des parties ».

En conséquence, le fournisseur peut imposer un prix maximal de revente à son distributeur (prix plafond), à condition que ce prix n’équivaille pas un prix fixe ou minimal et qu’il ne soit pas trop bas (en effet sinon le distributeur serait contraint de revendre à perte, ne pourrait pas faire de réduction aux utilisateurs, ne pourrait pas réaliser de marge…).

Ce prix maximum ne doit pas être un prix fixe déguisé.

« Protection pour un nom par la dénomination sociale ». MaPreuve. 24 janvier 2017

Lire l’article

« Pokémon Uranium, AM2R, Dragon Ball vs Street Fighter … la dure vie des jeux de fans »

Retrouvez cet article intéressant dans le journal Le Monde, pour lequel j’avais été sollicitée : http://www.lemonde.fr/pixels/article/2016/08/24/pokemon-uranium-ar2m-dragon-ball-vs-street-fighter-la-dure-vie-des-jeux-de-fans_4987144_4408996.html#dVwKbgJyOWX4IkrR.99

?>