Consultation publique – Responsabilité des préjudices causés par l’IA en vertu du droit privé de l’Angleterre et du pays de Galles
La consultation : que se passe-t-il ?
Le Master of the Rolls, Sir Geoffrey Vos – le deuxième juge le plus haut placé en Angleterre et au pays de Galles – mène une initiative majeure pour clarifier qui est responsable lorsque l’IA cause un préjudice.
La question est simple : si vous utilisez un outil d’IA, un chatbot ou un LLM pour rédiger un contrat et que quelque chose tourne mal, qui est responsable ? Est-ce vous, l’entreprise d’IA, ou quelqu’un d’autre ?
Le UK Jurisdiction Taskforce (UKJT) a publié un projet de déclaration juridique qui guidera la manière dont les tribunaux aborderont ces affaires pendant des années. Ils ont invité le public à donner son avis, et nous étions ravis d’y contribuer.
Pourquoi cette consultation est importante
La déclaration juridique du UKJT est conçue pour guider les juges, les avocats et les décideurs politiques alors qu’ils explorent un territoire nouveau. C’est un peu comme une déclaration de consensus médical : ce n’est pas la loi en soi, mais un point de référence fiable pour toute personne amenée à prendre des décisions sur l’IA et la responsabilité.
Lorsqu’une affaire impliquant un chatbot d’IA ou un LLM sera portée devant un tribunal, le juge consultera presque certainement cette déclaration. Même si elle ne sera pas une loi du Parlement, elle influencera les résultats pendant des années – peut-être des décennies. C’est pourquoi il était si important pour nous d’y contribuer.
Notre position : les utilisateurs sont les décideurs
Chez Unwildered, nous considérons l’IA comme un outil destiné à soutenir — et non à remplacer — le jugement humain. Tout comme une calculatrice ne vous rend pas nul en maths, un assistant de rédaction basé sur l’IA ne vous décharge pas de votre responsabilité.
Notre argument central : lorsque vous utilisez Caira pour rédiger un document, c’est vous l’auteur. Vous le relisez, vous le modifiez, vous le signez. L’IA assiste ; vous décidez.
Cela reflète le fonctionnement du droit fiscal. En vertu de l’annexe 24 du Finance Act 2007, les contribuables sont responsables des erreurs « négligentes » dans leurs déclarations fiscales — même s’ils se sont fiés à un conseil erroné d’un comptable. La controverse sur le droit de timbre impliquant Angela Rayner en 2025 l’a illustré en pratique : le simple fait de se fier à un conseil ne suffisait pas. Il a été estimé qu’elle n’avait pas satisfait aux normes les plus élevées parce qu’elle n’avait pas vérifié le conseil qu’elle avait reçu.
La même logique devrait s’appliquer à l’IA. Si vous signez un contrat sans le lire, vous ne pouvez pas blâmer l’IA. L’IA est votre assistant de rédaction, pas votre avocat.
Comprendre l’« humain dans la boucle »
Vous avez peut-être entendu l’expression « humain dans la boucle » dans les discussions sur la sécurité de l’IA. Cela signifie que, même lorsqu’on utilise l’IA, une personne reste toujours responsable de la décision finale.
Il ne s’agit pas de laisser l’IA agir sans contrôle – il s’agit de permettre aux utilisateurs de faire des choix éclairés, comme ils le feraient avec n’importe quel autre outil. Lorsque vous utilisez Caira :
Vous fournissez les faits et le contexte
Vous examinez la réponse de l’IA
Vous décidez s’il faut agir en conséquence
Vous assumez la responsabilité de votre décision
C’est exactement ainsi que cela fonctionne aussi avec les solicitors. Votre avocat rédige un document ; vous le signez. Vous n’êtes pas déchargé de votre responsabilité simplement parce qu’un professionnel vous a aidé.
Pour les outils d’IA grand public comme Caira, l’utilisateur est l’humain dans la boucle. Exiger qu’un avocat relise chaque résultat de l’IA n’est pas réaliste – il y a 150 000 solicitors en Angleterre et au pays de Galles et 67 millions de personnes.
Pourquoi cela compte pour les consommateurs
La réalité est que 31 % des adultes britanniques ont des besoins juridiques non satisfaits. Beaucoup ne peuvent pas s’offrir les services d’un solicitor, peinent à obtenir un rendez-vous et doivent se débrouiller seuls.
Des outils d’IA comme Caira changent cela. Pour 15 £ par mois, vous obtenez des réponses juridiques et la rédaction de documents 24 h/24, 7 j/7, 365 jours par an – y compris le soir et le week-end, quand vos inquiétudes sont les plus fortes et que les solicitors ne sont pas disponibles.
Si le droit impose au même niveau de responsabilité un outil d’IA à 15 £/mois qu’un solicitor à 500 £/heure, ces options abordables disparaîtront. Pour les consommateurs, le choix n’est pas entre « l’IA » et « un solicitor ». C’est entre « l’IA » et « rien du tout ».
Nous avons exhorté le Taskforce à reconnaître cette réalité.
La différence entre les outils d’IA et les professionnels réglementés
Certains pourraient demander : l’IA ne devrait-elle pas être tenue aux mêmes standards que les solicitors ?
Les solicitors sont réglementés, assurés et soumis à des normes professionnelles strictes. Ils se forment pendant des années, sont couverts par une assurance indemnité obligatoire et peuvent être radiés pour manquement.
Les outils d’IA, en revanche, sont des produits logiciels – disponibles instantanément, à une fraction du coût, et sans le même cadre réglementaire. Ils sont régis par le droit de la protection des consommateurs (comme le Consumer Rights Act 2015), et non par des règles de conduite professionnelle.
Si le droit les traite de la même manière, il risque de rendre les outils d’IA abordables non viables, laissant beaucoup de personnes sans aide du tout.
Cela ne signifie pas que l’IA doive être livrée à elle-même. Chez Unwildered, nous nous engageons en faveur d’une innovation responsable :
Nous utilisons des avertissements clairs indiquant que notre contenu est informatif, et non un conseil juridique
Nous demandons une confirmation de l’utilisateur avant les actions importantes
Nous suivons les meilleures pratiques en matière de sécurité des données
Nous pensons que l’IA doit renforcer, et non remplacer, le jugement humain
Mais le cadre de responsabilité doit reconnaître qu’un outil à 15 £/mois destiné à des millions de personnes est fondamentalement différent d’une relation sur mesure avec un solicitor à 500 £/heure.
Un message aux avocats et aux parties prenantes
Pour les avocats qui lisent ceci : il ne s’agit pas de remplacer votre expertise. Il s’agit de rendre l’aide juridique plus largement accessible.
L’IA peut prendre en charge la rédaction de routine et la recherche, ce qui permet aux solicitors de se concentrer sur les dossiers complexes, à forte valeur ajoutée, qui exigent réellement un jugement professionnel. Les 31 % de personnes ayant des besoins juridiques non satisfaits ne sont pas vos clients actuels – ils n’ont tout simplement pas les moyens de le devenir. L’IA sert un marché que les services juridiques traditionnels ne peuvent tout simplement pas atteindre.
Pour les régulateurs, il s’agit de trouver le bon équilibre : protéger les consommateurs sans étouffer l’innovation. Le Consumer Rights Act 2015 offre déjà une protection solide pour le contenu numérique. Inutile de réinventer la roue – il faut appliquer avec discernement les principes existants.
Le risque d’une surréglementation
Si le Royaume-Uni rend trop risqué le fait de proposer des outils juridiques fondés sur l’IA, les consommateurs ne pourront pas soudainement s’offrir un solicitor. Ils se tourneront vers ChatGPT – un produit américain qui n’est pas conçu pour l’Angleterre et le pays de Galles, qui n’est pas entraîné spécifiquement sur le droit britannique et qui n’est pas soumis à la supervision britannique.
Si la réglementation est trop stricte, les consommateurs britanniques pourraient finir par se reposer sur des outils d’IA étrangers qui ne comprennent pas notre système juridique, ne peuvent pas offrir de protections locales et ne rendent pas de comptes selon les standards britanniques. C’est un risque pour tout le monde – consommateurs, avocats et système de justice.
La surréglementation ne protège pas les consommateurs. Elle les pousse vers des alternatives moins sûres.
Comme Sir Geoffrey Vos l’a lui-même indiqué dans le document de consultation :
« Toute incertitude, réelle ou perçue, risque de freiner l’adoption d’outils d’IA bénéfiques, en particulier au sein des secteurs professionnels les plus averses au risque... »
Et plus loin :
« Le droit anglais, en tant que système de common law souple et bien développé, a la capacité d’offrir certitude et prévisibilité dans le contexte de l’innovation technologique. Dans les domaines d’une véritable nouveauté, la certitude et la prévisibilité émergent avec le temps lorsque les tribunaux raisonnent à partir des principes premiers et font évoluer les règles existantes pour traiter la nouveauté en question. »
Nous sommes d’accord. Le droit doit permettre une innovation responsable, et non l’étouffer.
Au-delà du droit : une perspective plus large
Les mêmes défis existent dans la santé, la santé mentale et le conseil financier. Il n’y aura jamais assez de médecins, de thérapeutes ou de conseillers financiers pour répondre à la demande quotidienne. Les listes d’attente s’allongent. Les coûts augmentent. Les inégalités s’accentuent.
L’IA est le seul moyen réaliste de garantir à chacun un soutien rapide et abordable – en améliorant le niveau de vie et en réduisant les inégalités. Ce que nous défendons pour les services juridiques s’applique tout autant à ces secteurs : responsabilité contextuelle, responsabilité de l’utilisateur et réglementation proportionnée.
Si nous faisons les choses correctement dans le droit, cela créera un précédent sur la manière dont le Royaume-Uni réglemente l’IA dans l’ensemble des services aux consommateurs.
Ce que nous avons recommandé
Notre réponse a mis en avant quatre points clés :
1. La responsabilité doit évoluer selon la fonction
Une IA qui rédige un document (que vous relisez et signez) est différente d’une IA qui dépose une demande en justice sans vous le demander. La première devrait engager la responsabilité de l’utilisateur ; la seconde devrait engager la responsabilité du fournisseur.
2. Le standard de diligence doit être contextuel
Un outil à 15 £/mois n’est pas un solicitor à 500 £/heure. Le devoir de diligence – tel qu’établi dans des affaires comme Bolam et Montgomery – a toujours été contextuel. Cela ne devrait pas changer pour l’IA.
3. Les utilisateurs sont l’« humain dans la boucle »
L’utilisateur relit, décide et agit. C’est ainsi que la responsabilité devrait être répartie pour les outils d’IA informatifs.
4. Les fournisseurs sont responsables de la qualité du produit
Si Caira subit une violation de données, contient un logiciel malveillant ou produit un résultat qui contredit sa description, c’est notre responsabilité. Le Consumer Rights Act 2015 couvre déjà cela. En revanche, nous ne pouvons pas garantir que vous ferez des choix avisés avec ce que nous fournissons. Cela, c’est à vous qu’il appartient.
Et maintenant ?
Le UKJT examinera toutes les contributions et publiera plus tard cette année une déclaration juridique finale (probablement à la mi-2026). Ce ne sera pas une loi du Parlement – ce ne sera pas « la loi » au sens formel – mais ce sera extrêmement influent.
Lorsqu’une affaire relative à la responsabilité de l’IA sera portée devant un tribunal, les juges se tourneront presque certainement vers la déclaration du UKJT pour s’orienter. Voyez cela comme une déclaration de consensus d’un médecin senior : ce n’est pas juridiquement contraignant, mais c’est en pratique décisif.
Nous sommes fiers d’avoir contribué à cette conversation. L’IA est là, elle aide des millions de personnes, et le droit doit rattraper son retard – avec réflexion, équité et sans compromettre l’innovation qui rend l’aide juridique accessible pour la première fois de l’histoire.
Nous serions ravis d’avoir votre avis
Pensez-vous que l’IA devrait être tenue aux mêmes standards que les solicitors ? Qu’est-ce qui vous inquiète le plus dans l’utilisation de l’IA pour obtenir une aide juridique ? Quelles opportunités vous enthousiasment ?
Contactez-nous – nous serions ravis de lire vos réflexions. Écrivez-nous à hello@unwildered.co.uk ou contactez-nous sur LinkedIn.
Qu’est-ce que le UKJT ?
Le UK Jurisdiction Taskforce (UKJT) est un organisme juridique de premier plan créé pour apporter clarté et confiance dans le droit tel qu’il s’applique aux technologies émergentes. Présidé par le Master of the Rolls, Sir Geoffrey Vos, le UKJT réunit des experts juridiques, des juges et des acteurs du secteur afin de traiter les incertitudes juridiques dans des domaines en évolution rapide tels que les actifs numériques, les contrats intelligents et l’intelligence artificielle.
Depuis sa création en 2019, le UKJT a publié des déclarations juridiques influentes sur le statut des cryptoactifs, des contrats intelligents et des titres numériques en droit anglais. Ces déclarations ont aidé les tribunaux, les entreprises et les consommateurs à comprendre comment le droit anglais s’applique aux nouvelles technologies, et ont été citées à l’échelle internationale comme des orientations faisant autorité.
Le travail du UKJT ne se limite pas aux actifs numériques. Il a également élaboré des Digital Dispute Resolution Rules afin de favoriser une résolution rapide et menée par des experts des litiges dans l’économie numérique, et a contribué à l’élaboration de textes législatifs tels que le Electronic Trade Documents Act 2023, qui permet aux documents numériques d’avoir la même force juridique que les documents papier.
Plus récemment, le UKJT s’est penché sur la question de la responsabilité pour les préjudices causés par l’IA. Avec l’adoption rapide de l’IA dans les services juridiques, financiers et aux consommateurs, l’incertitude grandit quant à savoir qui est responsable lorsque les choses tournent mal. La déclaration juridique du UKJT sur la responsabilité liée à l’IA vise à apporter de la clarté aux tribunaux, aux régulateurs et au public, en veillant à ce que le droit anglais demeure adapté à sa finalité et continue de soutenir une innovation responsable.
Le travail du UKJT est suivi de près par d’autres juridictions et donne souvent le ton des évolutions juridiques internationales. En traitant l’incertitude juridique, le UKJT contribue à renforcer la confiance du marché et soutient l’adoption sûre et généralisée des nouvelles technologies au Royaume-Uni et au-delà.
