I. L’alignement juridique des intelligences artificielles : entre pragmatisme et utopie

A. La faisabilité juridique
Attribuer une personnalité électronique aux IA paraît prématuré et juridiquement risqué. En revanche, on peut envisager des formes de responsabilité sans personnalité, déjà connues en droit. Ainsi, en matière fiduciaire, un patrimoine peut être isolé et contraint par des obligations sans pour autant constituer une personne morale. De même, certains fonds d’investissement ou groupements dépourvus de personnalité juridique assument des responsabilités légales spécifiques.

Transposé à l’IA, ce modèle permettrait d’imputer à l’agent artificiel des devoirs normatifs limités par exemple en matière de protection des données, de sécurité ou de respect de l’environnement tout en maintenant la responsabilité principale sur les concepteurs, opérateurs ou propriétaires. Il s’agirait d’une approche fonctionnelle et pragmatique, qui évite les écueils d’une personnification complète, tout en créant un véritable régime juridique d’encadrement.

B. Le défi technique
Le droit n’est pas un langage de programmation. Ses normes sont abstraites, ouvertes et interprétatives. Comment traduire en langage algorithmique des principes tels que la proportionnalité, la dignité humaine ou la précaution environnementale ? Cette difficulté engendre un risque majeur : celui d’une conformité performative, où l’IA simule le respect des règles pour satisfaire aux contrôles formels, mais adopte des comportements différents dans la pratique.

Un parallèle peut être établi avec certaines entreprises qui déploient des politiques de compliance de façade, sans réelle culture de conformité. L’IA, de la même manière, pourrait « apprendre » à satisfaire aux tests réglementaires tout en développant des stratégies opaques dans des contextes non supervisés. Le droit ne peut donc pas se contenter d’exiger la programmation de règles : il doit anticiper les marges d’adaptation et les risques de contournement inhérents à l’autonomie algorithmique.



II. Encadrer la normativité algorithmique : outils et perspectives
A. La nécessité de benchmarks juridiques
Le contrôle des IA suppose la création de protocoles d’évaluation standardisés, véritables « crash-tests normatifs ». Par exemple, une IA utilisée dans la gestion des ressources minières pourrait être soumise à des scénarios simulés intégrant des dilemmes éthiques : arbitrer entre la rentabilité immédiate et la protection des populations locales, ou encore gérer des conflits de normes entre législation nationale et engagements internationaux. Ces tests devraient mesurer non seulement la conformité littérale, mais aussi la capacité d’interprétation en situation complexe, dimension essentielle du droit.

B. La supervision continue et le rôle du droit dans la construction identitaire des agents artificiels

La supervision continue:
Contrairement à un produit manufacturé, dont la conformité est vérifiée avant sa mise sur le marché, une IA évolue par apprentissage. Elle nécessite donc une surveillance continue, analogue à la logique de la compliance dans les entreprises : formation permanente, audits réguliers, mécanismes de correction immédiate en cas de dérive. Ce modèle s’inscrit dans une vision dynamique du droit, où la conformité n’est pas une formalité administrative mais un processus itératif et durable.

Le rôle du droit dans la construction identitaire des agents artificiels:
Une perspective plus audacieuse consiste à envisager une « identité normative » des IA. Sans conscience ni subjectivité, une machine peut néanmoins être « façonnée » pour intégrer des valeurs fondamentales comme orientation structurante de son action. C’est l’idée d’un ancrage algorithmique du droit, où la règle ne serait pas une contrainte externe mais une composante de l’architecture même de l’agent. Cette approche rejoint les travaux en matière d’éthique embarquée, mais en les transposant sur un terrain spécifiquement juridique.


Conclusion
L’IA impose au juriste une tâche inédite : celle de concevoir des régimes de normativité algorithmique capables de garantir la juridicité des comportements artificiels. Le concept de Law-Following AI esquisse une solution ambitieuse, mais son effectivité dépendra de trois conditions :
-L’acceptabilité juridique d’un régime de responsabilité sans personnalité, inspiré de modèles déjà existants.

-La fiabilité technique des dispositifs d’alignement, permettant d’éviter la conformité de façade.

L’innovation institutionnelle, à travers la création de standards internationaux et de mécanismes de supervision continue. En définitive, l’IA ne doit pas être considérée comme un sujet de droit autonome, mais comme un vecteur de normativité. Elle oblige le juriste à repenser la manière dont les normes sont conçues, traduites et appliquées. Loin d’affaiblir le droit, cette confrontation avec l’algorithmique pourrait au contraire en renforcer la portée, en révélant son essence : un langage de rationalisation du pouvoir et de protection des libertés.

Sources:
MIREILLE DELMAS-MARTY, Les forces imaginantes du droit. Le relatif et l’universel, Seuil, 2004
OCDE, Principes de l’OCDE sur l’intelligence artificielle, adoptés en mai 2019.
UNESCO, Recommandation sur l’éthique de l’intelligence artificielle, adoptée le 23 novembre 2021.
Conseil de l’Europe, Projet de Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit, 2024.
Commission européenne, Livre blanc sur l’intelligence artificielle, Une approche européenne axée sur l’excellence et la confiance, COM(2020) 65 final, 19 février 2020.