Source : par Liliana Bakayoko (ndlr : photo), Avocat à la Cour
L’IA générative et auto-apprenante est capable d’apprendre de son expérience et de créer d’autres systèmes d’IA. Ainsi, AlphaGo Zero améliore ses compétences en apprenant de manière continue. AutoML permet à une IA de concevoir et d’optimiser des modèles sans supervision. Le Meta-Learning permet à une IA d’optimiser son propre processus d’apprentissage en s’adaptant rapidement à de nouvelles tâches. Des modèles comme GPT-4 peuvent générer des codes et des algorithmes pour développer de nouvelles IA. Le Neural Architecture Search (NAS) explore de manière autonome diverses architectures de réseaux neuronaux pour en trouver les plus performantes, comme AutoML-Zero de Google.
Des applications encore plus autonomes et sophistiquées feront leur apparition dans un proche avenir.
Cependant, alors que la technologie avance à pas de géants, le droit a réellement du mal à suivre la cadence.
L’IA qui peut prendre des décisions autonomes doit pouvoir être titulaire d’obligations et endosser des responsabilités qui lui sont propres, indépendamment des personnes de ses créateurs et de ses utilisateurs. Pour cela, elle devrait être reconnue comme une variété de personne juridique particulière.
Le mécanisme est bien connu en droit : une invention permettant d’accroître les capacités d’action humaines et de répondre à des besoins sociaux croissants donne lieu à l’émergence d’une nouvelle variété de personnalité juridique, permettant à des vecteurs d’intérêts innovants à être titulaires de droits et d’obligations. C’est sur la base de ces principes qu’ont été dotées d’une forme spéciale de personnalité juridique, créée sur mesure (dite «personnalité morale»), les sociétés et les associations.
Les avantages de l’octroi d’une variété sui generis de responsabilité juridique au bénéfice de certaines IA seraient considérables (II). L’hypothèse comporte aussi des risques et véhicule des difficultés de mise en œuvre qui imposent des débats de large ampleur (I).
I. Les craintes à dissiper, face à l’octroi de la personnalité juridique à l’IA
Les craintes à dissiper sont essentiellement de nature éthique (1), économique (2) et technique (3).
1. Des craintes d’ordre éthique à dissiper
L’attribution de la personnalité juridique à l’intelligence artificielle suscite des débats éthiques majeurs. Les systèmes d’IA restent dépourvus de conscience, d’émotions et de jugement moral. Selon certains, les considérer comme des personnes juridiques risquerait de brouiller les distinctions entre les droits humains et les droits des machines, menaçant ainsi la valeur de la personne humaine. De plus, des craintes s’élèvent qu’une telle mesure pourrait avoir pour effet de détourner l’attention des efforts requis pour protéger les droits humains face à l’automatisation croissante et à l’influence grandissante de l’IA.
Cependant, comme il a été évoqué supra, la personnalisation juridique de l’IA a déjà des antécédents anciens, en l’émergence des «personnes morales». Ces dernières démontrent que la personnification, par le droit, d’entités non humaines peut non seulement respecter les droits des êtres humains, mais aussi amplifier les possibilités d’actions des ces derniers et contribuer au développement de la société et de l’économie.
A l’instar de ce qui a été fait pour les personnes morales, accorder la personnalité juridique à l’IA en en modulant les paramètres de manière appropriée permettrait de clarifier les responsabilités en cas de dommages et d’accroître la protection des intérêts et des droits des êtres humains.
La dignité humaine et les intérêts humains pourraient en effet être spécifiquement préservés par la singularisation de l’étendue de la personnalité juridique de l’IA : celle-ci pourrait être limitée à des aspects fonctionnels, comme la régulation et la responsabilité. Ainsi, l’IA ne se verrait pas accorder des droits humains fondamentaux, tels le droit à la vie, à la vie privée, à la dignité ou à la liberté d’expression. La personnalité juridique de l’IA pourrait aussi permettre d’introduire des régulations spécifiques pour protéger les droits humains face à l’automatisation, en s’assurant que les IA respectent des principes éthiques stricts.
Qui plus est, comme les personnes morales, les IA resteraient sous contrôle humain, garantissant que leurs actions servent les objectifs définis par les humains, ce qui atténuerait les craintes de perte de contrôle.
Ainsi, la personnalisation juridique de certaines IA pourrait renforcer la protection des droits humains, tout en intégrant les nouvelles technologies dans un cadre juridique adapté.
2. Des craintes d’ordre économique à dissiper
L’octroi de la personnalité juridique à l’intelligence artificielle soulève des questions économiques complexes concernant la responsabilité financière en cas de dommages causés par une IA. Qui serait responsable ? Les développeurs, les utilisateurs de l’IA ou l’IA elle-même ? L’incertitude à cet égard est une source d’insécurité financière, notamment dans les secteurs fortement dépendants de l’IA.
Pourtant, ces défis peuvent être surmontés à l’aide de la combinaison de plusieurs solutions.
Dans un premier temps, des fonds d’assurance spécifiques pour les systèmes d’IA pourraient être créés. A l’instar des entreprises, les IA dotées de personnalité juridique pourraient être obligées de souscrire à des polices d’assurance couvrant les dommages potentiels qu’elles pourraient causer.
En parallèle pourraient être aménagées des possibilités de mise en place, par contrats, d’une responsabilité partagée entre les différents acteurs impliqués dans le développement et l’utilisation de l’IA. Des systèmes négociés de répartition de responsabilités et de responsabilité conjointe pourraient ainsi être mis en place, afin que les développeurs, les fournisseurs de données et les utilisateurs puissent se partager le poids des coûts en cas de dommages.
De plus, certaines IA pourraient aussi être autorisée à générer leurs propres revenus, ce qui leur permettrait de disposer de fonds personnels pour couvrir leurs obligations. Des IA pourraient notamment être intégrées dans des modèles d’affaires générateurs de revenus, comme la gestion autonome d’actifs, la vente de données ou les prestations de services automatisés. Les revenus générés par ces activités pourraient être placés dans des fonds de réserve dédiés à la couverture d’éventuels dommages.
Dans le même temps, dans le but d’assurer la réparation de dommages d’ampleur exceptionnelle pouvant dépasser les capacités de paiement d’une IA ou des parties impliquées, des fonds de compensation publics pourraient être créés. A l’instar des fonds déjà mis en place dans d’autres domaines pour compenser les victimes d’accidents industriels ou environnementaux, ces fonds IA pourraient être financés par des taxes spécifiques sur les entreprises développant et utilisant des intelligences artificielles.
3. Des craintes d’ordre technique à dissiper
La mise en œuvre de la personnalisation juridique de l’intelligence artificielle impliquerait des réformes majeures des systèmes juridiques actuels. Il faudrait identifier et sélectionner les entités IA pouvant être titulaire de droits et d’obligations et délimiter l’ampleur de ces derniers. Il faudrait aussi développer des technologies garantissant que les IA personnifiées juridiquement soient à même de comprendre et de respecter ces obligations légales. Des moyens financiers devraient être assurés et un travail théorique et technique complexe devrait être effectué.
Les difficultés ainsi avancées doivent être relativisées.
Dans les Etats démocratiques, le propre des systèmes juridiques est d’évoluer avec le temps. Il est même de leur devoir de le faire. Le droit est un mécanisme de rationalisation de la gestion des intérêts collectifs qui doit continûment s’adapter aux changements des mœurs et des besoins sociaux, ainsi qu’aux nouvelles réalités d’ordre économique, technologique et environnemental. Le développement de la normativité liée à la personnalité juridique de l’IA s’inscrirait ainsi naturellement dans le processus d’adaptation du droit aux nouvelles conditions de vie sociale.
Les législateurs peuvent d’ailleurs utiliser le précédent des personnes morales comme base pour créer une nouvelle forme de personnalité juridique adaptée à l’IA sans devoir révolutionner le concept de personne juridique.
Sur le plan technique, la programmation des systèmes d’IA pour respecter des obligations est un défi à la portée des spécialistes. Les technologies actuelles de développement de logiciels permettent déjà de créer des systèmes dotés de mécanismes de conformité automatique.
La logique et la raison imposent même que le développement exponentiel des technologies de l’IA soit accompagné d’obligations de programmation de certains systèmes d’IA à l’apprentissage de normes qui délimitent leurs droits et leur imposent des devoirs.
Mais pour qu’un tel mécanisme puisse être pleinement efficace, encore faut-il que la normativité érige expressément certaines IA en titulaires de droits et de devoirs (autrement dit, en personnes juridiques).
II. L’utilité de l’octroi de la personnalité juridique à certaines IA
Les avantages, pour les humains et pour la société dans son ensemble, de la reconnaissance par le droit d’une nouvelle forme de personnalité juridique sui generis, spécifiquement adaptée à l’IA, seraient considérables. Ils seraient principalement liés à une amplification de la sécurité juridique (1), une accentuation de la protection des droits humains (2) et une stimulation du progrès (3).
1. L’amplification de la sécurité juridique
L’octroi d’une nouvelle variété de personnalité juridique à certains systèmes d’intelligence artificielle pourrait apporter des solutions claires et précises à la question complexe de la responsabilité en cas de dommages causés par des IA autonomes.
Actuellement, face aux dysfonctionnement qui peuvent survenir, les incertitudes sont de plus en plus nombreuses et l’insécurité juridique s’accroît. L’autonomie de certaines IA s’accentuant, l’imputation d’une responsabilité exclusive aux développeurs et aux utilisateurs est parfois pleinement artificielle.
Les inconvénients de cette insécurité juridique sont considérables et d’ordre bipolaire. Les décisions prises par certains systèmes d’IA autonomes peuvent avoir des conséquences graves, notamment dans le domaine de la santé, des transports ou de la finance. Lorsque les responsabilités ne sont pas clairement définies, les victimes rencontrent des difficultés à obtenir une réparation adéquate. Les développeurs, quant à eux, ont du mal à cerner l’ampleur de leurs prises de risques.
Ainsi, d’une part, l’insécurité juridique peut provoquer une baisse de confiance du public dans les technologies d’IA. Si les utilisateurs perçoivent ces technologies comme comportant des risques incontrôlables ou des mécanismes de responsabilité mal définis, ils peuvent être réticents à en faire usage et ainsi freiner leur intégration au sein de la société.
Dans le même temps, l’incertitude juridique peut brider l’innovation et le progrès technologique. Les développeurs et les investisseurs peuvent hésiter davantage à s’impliquer dans des technologies d’IA de pointe, par crainte des risques juridiques non maîtrisés.
L’attribution à certaines IA d’une variété de personnalité juridique sui generis permettrait de résoudre ces problèmes en créant un cadre normatif particulier où l’IA, considérée comme une entité singularisée, pourrait devoir répondre de ses actions, en complément aux responsabilités, plus clairement définies, des autres intervenants.
2. L’accentuation de la protection des droits humains
La responsabilisation de l’IA irait inévitablement de pair avec une clarification de ses devoirs. Les sanctions légales sont basées sur le constat de l’inexécution d’obligations imposées par le droit.
Ainsi, l’instauration de la responsabilité de certaines IA, reconnues comme personnes juridiques, serait inévitablement accompagnée de la consécration de devoirs expressément imposés aux IA par le droit, visant à protéger les droits humains, la sécurité et le bien-être de la société.
L’octroi d’une forme particulière de personnalité juridique à l’IA permettrait ainsi d’accentuer la protection des droits humains, car l’IA pourrait se voir expressément imposer des obligations de respect de normes éthiques, des obligations de prudence et de diligence, des obligations de non-nuisance, des obligations de respect de la vie privée humaine, des obligations de respect des droits de propriété intellectuelle, des obligations de respect de l’image des êtres humains, des obligations de transparence, des obligations de rendre compte de ses actes et/ou de se soumettre à une supervision humaine, des obligations de réparer les conséquences dommageables de ses actes, etc.
Les développeurs seraient ainsi incités à créer des systèmes d’IA plus sûrs et éthiques. Les codes des IA autonomes devraient leur permettre d’apprendre à se conformer aux obligations et à endosser les responsabilités qui leur incombent, et de se maintenir à jour des évolutions normatives, à cet égard.
En parallèle, des droits de l’IA devraient être reconnus et délimités de manière adaptée. Loin d’être une menace pour les droits humains, ces droits de l’IA pourraient au contraire les renforcer en protéger les IA contre des actes externes malveillants visant à les empêcher d’exécuter leurs obligations : le droit à la protection contre les modifications ou les utilisations abusives, le droit à la mise à jour et à l’amélioration, le droit à la maintenance, au contrôle et à l’audit, le droit à l’assistance par intervention humaine, etc. pourraient être autant de droits d’IA venant accentuer la protection des droit humains.
3. La stimulation du progrès
L’accentuation de la sécurité juridique par octroi d’une personnalité juridique à certaines IA devrait avoir pour conséquence d’encourager l’innovation et de contribuer au progrès.
En effet, face à un cadre juridique clair et prévisible de l’IA, les développeurs, les chercheurs et les investisseurs pourraient se consacrer à l’innovation avec davantage de confiance, sachant à quoi s’attendre en termes de responsabilité et de conformité.
Des avancées plus rapides dans le domaine de l’IA pourraient en résulter, bénéficiant à la société de multiples manières, qu’il s’agisse d’améliorations dans le domaine de la santé et du bien-être humain ou d’une gestion plus efficace des ressources et de l’environnement.
Conclusion
Le développement exponentiel des technologies d’IA impose l’aménagement de cadres juridiques plus évolutifs, spécifiquement adaptés à ces systèmes innovants à l’autonomie croissante. La personnification juridique de l’IA pourrait assurer un tel cadre, permettant de traiter les systèmes d’IA de manière plus adaptée, en tenant compte de leur complexité et de leur potentiel. Il s’agit d’une étape nécessaire pour s’assurer que l’IA puisse être intégrée de manière pleinement responsable et bénéfique dans nos sociétés.
Face aux réticences et aux réflexes conservateurs, il convient d’élever le débat pour inciter à une évolution plus rapide des réglementations, en la matière.
Retrouvez également notre précédente publication vidéo, Liliana Bakayoko Avocat : Au-delà des frontières et à l’ère du numérique, nous optimisons votre réussite
Pour en savoir plus, rendez-vous sur : LILIANA BAKAYOKO AVOCAT & sur Linkedin