L’essor de l’intelligence artificielle (IA), et précisément des modèles génératifs, a bouleversé le paysage numérique et culturel. Cependant, l’utilisation massive de contenus protégés pour entrainer ces modèles soulève des enjeux cruciaux pour les titulaires de droits . L’article 53 du RIA crée une obligation de transparence qui impose aux fournisseurs d’IA à usage général, y compris lorsque les modèles sont publiés dans le cadre d’une licence libre et ouverte, de mettre en place une politique visant à se conformer à la législation de l’Union en matière de droit d’auteur et de droits voisins et de mettre à la disposition du public un résumé suffisamment détaillé. Le 11 décembre, le rapport de la mission relative à la mise en œuvre des obligations de transparence sur les données d’entrainement prévues par le règlement sur l’intelligence artificielle a été publié. Ce rapport s’intéresse particulièrement à l’article 53 du RIA. La première mission visait à établir une liste des informations qui doivent être nécessairement communiqués afin de permettre à leurs auteurs d’exercer leurs droits. La seconde mission avait pour but d’examiner les mécanismes juridiques envisageables pour garantir la juste rémunération des ayants droit et l’effectivité de leurs droits. De tout ce qui précède, il ressort le problème suivant : l’obligation de transparence sur les données d’entrainement du règlement sur l’intelligence artificielle protège-t-elle efficacement les droits des auteurs ?
Pour répondre à ce problème, notre réflexion portera sur le rôle déterminant que joue l’obligation de transparence dans la protection des droits des auteurs (I), un rôle parfois limité (II).

I- L’OBLIGATION DE TRANSPARENCE, INSTRUMENT DE PROTECTION DES DROITS DES AUTEURS

L’obligation de transparence apparait comme un levier de protection des droits moraux (A) et des droits patrimoniaux des auteurs (B).

A- Une protection fondée sur la reconnaissance des droits moraux des auteurs

Les droits moraux protègent l’intégrité de l’œuvre et l’attribution à l’auteur. L’application de l’obligation de transparence au sujet des droits des auteurs se fait par l’entremise de l’explicabilité qui est définie comme la capacité à mettre en relation et de rendre compréhensible les éléments pris en compte par le système d’IA pour la production d’un résultat . Cela va permettre aux utilisateurs de comprendre son fonctionnement afin de mieux cerner le domaine d’application du système et favoriser une bonne exploitation des résultats produits par l’IA. En principe, toute personne concernée doit pouvoir saisir non seulement les résultats mais aussi les systèmes qui l’intelligence artificielle. Toutefois, il appert de certaines études que l’explicabilité ne constitue pas un facteur systématique de confiance et qu’elle peut même engendrer de la méfiance.

A ce propos si l’explicabilité est bien prise en compte et qu’elle respecte les informations qui doivent être communiquées, elle pourrait devenir un moyen de protection des droits des auteurs. Car c’est quand l’auteur est suffisamment éclairé qu’il peut faire valoir ses droits. C’est pourquoi le règlement met l’accent sur la nécessité de faire en sorte que l’utilisation de ces informations soit transparente. Pour atteindre cet objectif, il faut que les informations soient données de façon claire et précise. Elles doivent être mises à la disposition des utilisateurs. La lisibilité et la clarté seront des atouts incontournables pour assurer une bonne compréhension.

En France il se pose le problème de l’originalité de l’œuvre parce que c’est l’œuvre émanant de la création humaine qui est considérée. Or, avec l’essor et l’intégration de l’intelligence artificielle dans le domaine des œuvres intellectuelles et artistiques on ne sait plus à qui reconnaitre la « paternité » de l’œuvre. Dans ce contexte on pourrait dire qu’on reconnait une paternité partagée. C’est-à-dire qu’on reconnait que l’œuvre appartient d’une part à l’auteur et à l’intelligence artificielle qui a modifié l’œuvre et l’a terminée. Le 27 septembre 2024, une décision a été rendue en Allemagne en faveur d’une société développant un système d’IA pour l’exploitation protégée. Dans une autre affaire opposant OpenAI et le New York Times, le gérant de l’IA est accusé d’exploiter ses articles sans autorisation.

B- Une protection fondée sur la reconnaissance des droits patrimoniaux des auteurs

La rémunération des titulaires de droits d’auteur et droits voisins pour l’utilisation de leurs œuvres par des modèles d’intelligence artificielle permettra aux créateurs d’être justement récompensés pour leur créativité . Lors d’une commission ouverte des avocats « IA et droit d’auteur : comment construire un marché éthique et compétitif » le 16 janvier 2025, Monsieur Alexandre Lasch, Directeur général du SEEP, exposait que, à l’occasion des adaptations relatives au streaming des deux opérateurs en présence, Radoblog et Blogmusik, c’est bien celui qui avait négocié avec les titulaires de droits d’auteur qui existe encore (devenu Deezer) et non celui qui avait refusé . De plus, la directive la directive relative au droit d’auteur et aux droits voisins dans le marché unique numérique a introduit une exception au droit d’auteur pour « la fouille de textes et de données », qui permet aux fournisseurs d’IA de constituer leurs bases de données, dès lors qu’un contenu est accessible en ligne, toutefois les ayants droit peuvent s’opposer à cette fouille de textes et de données par la clause dite « opt out ».

Selon le rapport sur les tendances Zendesk CX 2024 « être transparent sur les données qui pilotent les modèles d’IA et leurs décisions sera un élément déterminant pour établir et maintenir la confiance avec les clients ». Ce rapport indique que 75% des entreprises estiment qu’un manque de transparence pourrait entrainer une augmentation du taux de désabonnement des clients à l’avenir. En fait, l’établissement d’une relation de confiance solide découle d’une honnêteté de la part des développeurs de l’IA en ce sens où pour prévenir des conflits il faut admettre le travail des auteurs en les récompensant. La transparence c’est aussi le fait de donner à chacun ce qu’il doit avoir. De cette manière, une très bonne relation de confiance peut être installée.

II- LES LIMITES DE L’OBLIGATION DE TRANSPARENCE

Certains éléments comme le secret des affaires (A) ou encore les cyberattaques (B) constituent des limites à l’efficacité de l’obligation de transparence.

A- Une obligation limitée par le secret des affaires

Malgré les bonnes initiatives du législateur de protéger les auteurs des œuvres, l’obligation de transparence se heurte à des obstacles. Entre autre, le secret des affaires constitue une limite dans la délivrance des informations aux utilisateurs. En effet, certaines informations ne sont pas accessibles par ces auteurs. Cependant, comment peut-on protéger et respecter les personnes qui ne disposent pas de toutes les informatives relatives à leurs données personnelles et l’utilisation de leurs œuvres qui ont été modifié par des systèmes d’IA ? Cette question choque plus d’un. On assiste à une utilisation non consenties des œuvres. Les auteurs voient leurs droits s’amenuiser avec la prépondérance de l’IA.

Ainsi, de nombreux artistes et auteurs dénoncent l’absorption massive de leurs créations par des IA sans autorisation ni compensation. C’est une situation sérieuse qui mérite d’être mise en lumière. Ils ne pourront pas vivre à long terme avec leurs créations s’ils n’arrivent pas à y tirer leur subsistance. L’influence de l’IA échappe à leur contrôle de telle sorte que la plupart des modèles d’IA sont formés sur des corpus de données collectés sans que les créateurs initiaux ne soient informés ni rémunérés.

B- Une obligation limitée par les cyberattaques

La mainmise de l’obligation de transparence se rétrécit face aux cyberattaques. Ces dernières années il y eu une floraison de cyberattaques. Les systèmes d’IA peuvent être vulnérables aux cyberattaques, ce qui met en danger les données sensibles et la vie privée des utilisateurs. Par exemple la manipulation des modèles d’IA en introduisant des données malveillantes pour fausser les résultats. D’ailleurs, les modèles d’IA, en particulier ceux basés sur des réseaux neuronaux profonds, sont souvent considérés comme des « boites noires » en raison de leur manque de transparence. Effectivement, un modèle d’apprentissage automatique imite la façon dont le cerveau humain traite les informations. Tout cela a pour corollaire le manque de clarté et d’homogénéité. Ce type de mécanisme a pour but de tromper la vigilance des auteurs.

Les textes essaient tant bien que mal d’instituer le respect de la transparence mais plus un système d’IA est sophistiqué, plus il devient difficile d’expliquer son fonctionnement, ce qui peut nuire à l’intégrité de ses résultats. On dénote une caducité des contenus des informations, une inadaptation de celles-ci à la croissance de l’IA. Alors, une mise à jour régulière du contenu des informations doit être faite dans l’optique de toujours fournir des informations correctes. Il est parfois difficile pour les titulaires de droits d’apporter la preuve de l’accès illicite, du contenu utilisé. Ce point est pertinent et devrait être pris en compte par les textes. Compte tenu du fait que les auteurs ne disposent pas de moyens attestant l’illicéité de l’accès de leurs œuvres le législateur doit davantage renforcer leur protection.

BIBLIOGRAPHIE
Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle

Directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et aux droits voisins dans le marché unique numérique

https://www.acbm-avocats.com/intelligence-artificielle-propriete-intellectuelle-rapport-europeen-opt-out-ria-rgpd/

https://www.cnil.fr/fr/definition/explicabiliteia#:~:text=Dans%20le%20domaine%20de%20l,la%20production%20d'un%20r%C3%A9sultat

https://hellofuture.orange.com/fr/explicabilite-des-systemes-dintelligence-artificielle-quels-besoins-et-quelles-limites/

https://www.squairlaw.com/fr/blog/ia-et-droit-dauteur-les-donnees-du-probleme

https://www.fruggr.io/fr/propri%C3%A9t%C3%A9-intellectuelle-donn%C3%A9es-personnelles-et-transparence-d%C3%A9fis-face-%C3%A0-l-ia