Konsultacje publiczne – odpowiedzialność za szkody wyrządzone przez AI w ramach prawa prywatnego Anglii i Walii

Konsultacje: Co się dzieje?

Mistrz Rejestrów, sir Geoffrey Vos – drugi najwyższy rangą sędzia w Anglii i Walii – przewodzi dużej inicjatywie mającej doprecyzować kto ponosi odpowiedzialność, gdy AI wyrządza szkodę.

Pytanie jest proste: jeśli używasz narzędzia AI, chatbota lub LLM do sporządzenia umowy i coś pójdzie nie tak, kto odpowiada? Ty, firma AI, czy ktoś inny?

Zespół ds. Jurysdykcji Wielkiej Brytanii (UKJT) opublikował projekt oświadczenia prawnego, które będzie wskazywać sądom, jak podchodzić do takich spraw przez wiele kolejnych lat. Zaproszono do zgłaszania uwag społecznych, a my chętnie chcieliśmy się w to włączyć.

Dlaczego ta konsultacja ma znaczenie

Oświadczenie prawne UKJT ma pomagać sędziom, prawnikom i decydentom, gdy poruszają się po nowym obszarze. To podobne do medycznego oświadczenia konsensusowego: samo w sobie nie jest prawem, ale stanowi zaufany punkt odniesienia dla każdego, kto podejmuje decyzje dotyczące AI i odpowiedzialności.

Gdy sprawa dotycząca chatbota AI lub LLM trafi do sądu, sędzia niemal na pewno sięgnie po to oświadczenie. Choć nie będzie ono aktem parlamentu, przez lata – a może i dekady – będzie kształtować rozstrzygnięcia. Właśnie dlatego tak ważne było dla nas wniesienie swojego wkładu.

Nasze stanowisko: użytkownicy podejmują decyzje

W Unwildered postrzegamy AI jako narzędzie wspierające, a nie zastępujące ludzką ocenę. Tak jak kalkulator nie sprawia, że jesteś słaby z matematyki, tak asystent AI do sporządzania dokumentów nie zwalnia cię z odpowiedzialności.

Nasz główny argument: gdy używasz Caira do sporządzenia dokumentu, ty jesteś autorem. To ty go przeglądasz, edytujesz i podpisujesz. AI pomaga; ty decydujesz.

To odzwierciedla sposób, w jaki działa już prawo podatkowe. Na podstawie Schedule 24 Finance Act 2007 podatnicy ponoszą odpowiedzialność za „niedbałe” błędy w swoich zeznaniach – nawet jeśli opierali się na błędnej poradzie księgowego. Kontrowersja wokół podatku od czynności cywilnoprawnych Angeli Rayner w 2025 roku pokazała to w praktyce: samo poleganie na poradzie nie wystarczyło. Uznano, że nie spełniła najwyższych standardów, ponieważ nie zweryfikowała otrzymanej porady.

Taka sama logika powinna dotyczyć AI. Jeśli podpisujesz umowę bez jej przeczytania, nie możesz winić AI. AI jest twoim asystentem redakcyjnym, nie twoim prawnikiem.

Zrozumienie „człowieka w pętli”

Być może słyszałeś frazę „człowiek w pętli” w dyskusjach o bezpieczeństwie AI. Oznacza ona, że nawet przy korzystaniu z AI człowiek zawsze odpowiada za ostateczną decyzję.

Nie chodzi o puszczenie AI samopas – chodzi o umożliwienie użytkownikom podejmowania świadomych decyzji, tak jak w przypadku każdego innego narzędzia. Gdy używasz Caira:

  • Dostarczasz fakty i kontekst

  • Sprawdzasz wynik AI

  • Decydujesz, czy na jego podstawie działać

  • Bierzesz odpowiedzialność za swoją decyzję

Dokładnie tak samo działa to również z solicitorami. Twój prawnik sporządza dokument; ty go podpisujesz. Nie jesteś zwolniony z odpowiedzialności tylko dlatego, że pomógł ci profesjonalista.

W przypadku konsumenckich narzędzi AI, takich jak Caira, użytkownik jest człowiekiem w pętli. Wymaganie, by prawnik sprawdzał każdy wynik AI, nie jest realne – w Anglii i Walii jest 150 000 solicitorów i 67 milionów ludzi.

Dlaczego ma to znaczenie dla konsumentów

Rzeczywistość jest taka, że 31% dorosłych w Wielkiej Brytanii ma niezaspokojone potrzeby prawne. Wielu nie stać na solicitorów, trudno im umówić wizytę i zostają zmuszeni do samodzielnego radzenia sobie.

Narzędzia AI, takie jak Caira, to zmieniają. Za 15 funtów miesięcznie otrzymujesz odpowiedzi prawne i sporządzanie dokumentów 24/7, 365 dni w roku – także wieczorami i w weekendy, kiedy myśli są najgłośniejsze, a solicitorzy są niedostępni.

Jeśli prawo narzuci takie same standardy odpowiedzialności na narzędzie AI za 15 funtów miesięcznie jak na solicityora za 500 funtów za godzinę, te przystępne cenowo opcje znikną. Dla konsumentów wybór nie jest między „AI” a „solicitoriem”. To wybór między „AI” a „niczym”.

Wezwaliśmy Taskforce do uznania tej rzeczywistości.

Różnica między narzędziami AI a regulowanymi profesjonalistami

Niektórzy mogą zapytać: czy AI nie powinno być oceniane według tych samych standardów co solicitorzy?

Solicitorzy są regulowani, ubezpieczeni i podlegają surowym standardom zawodowym. Szkolą się przez lata, posiadają obowiązkowe ubezpieczenie od odpowiedzialności zawodowej i mogą zostać skreśleni za nadużycia.

Narzędzia AI natomiast są produktami programowymi – dostępnymi natychmiast, za ułamek kosztu i bez takiego samego otoczenia regulacyjnego. Podlegają prawu ochrony konsumentów (jak Consumer Rights Act 2015), a nie zasadom etyki zawodowej.

Jeśli prawo traktuje je tak samo, grozi to uczynieniem przystępnych cenowo narzędzi AI nieopłacalnymi, pozostawiając wielu ludzi całkowicie bez pomocy.

To nie znaczy, że AI ma być wolną amerykanką. W Unwildered zobowiązujemy się do odpowiedzialnej innowacji:

  • Stosujemy jasne zastrzeżenia, że nasz wynik ma charakter informacyjny, a nie stanowi porady prawnej

  • Wymagamy potwierdzenia użytkownika przed ważnymi działaniami

  • Przestrzegamy najlepszych praktyk w zakresie bezpieczeństwa danych

  • Wierzymy, że AI powinna wspierać, a nie zastępować ludzką ocenę

Ale ramy odpowiedzialności muszą uwzględniać, że narzędzie za 15 funtów miesięcznie obsługujące miliony ludzi zasadniczo różni się od szytej na miarę relacji z solicitoriem za 500 funtów za godzinę.

Przesłanie do prawników i interesariuszy

Do prawników czytających ten tekst: nie chodzi o zastępowanie waszej wiedzy. Chodzi o to, by wsparcie prawne było szerzej dostępne.

AI może przejąć rutynowe sporządzanie dokumentów i badania, odciążając solicitorów, by mogli skupić się na złożonej, wysoko wartościowej pracy, która rzeczywiście wymaga profesjonalnej oceny. Te 31% z niezaspokojonymi potrzebami prawnymi nie są waszymi obecnymi klientami – nie stać ich na to. AI obsługuje rynek, do którego tradycyjne usługi prawne po prostu nie docierają.

Dla regulatorów chodzi o znalezienie właściwej równowagi: ochronę konsumentów bez tłumienia innowacji. Consumer Rights Act 2015 już zapewnia solidną ochronę w odniesieniu do treści cyfrowych. Nie musimy wymyślać koła na nowo – musimy rozsądnie stosować istniejące zasady.

Ryzyko nadmiernej regulacji

Jeśli w Wielkiej Brytanii świadczenie narzędzi AI do spraw prawnych stanie się zbyt ryzykowne, konsumenci nie zaczną nagle być w stanie opłacić solicitorów. Sięgną po ChatGPT – amerykański produkt, nieprzeznaczony dla Anglii i Walii, nieprzeszkolony konkretnie w zakresie prawa brytyjskiego i niepodlegający brytyjskiemu nadzorowi.

Jeśli regulacje będą zbyt restrykcyjne, brytyjscy konsumenci mogą w efekcie polegać na zagranicznych narzędziach AI, które nie rozumieją naszego systemu prawnego, nie oferują lokalnych zabezpieczeń i nie odpowiadają wobec brytyjskich standardów. To ryzyko dla wszystkich – konsumentów, prawników i systemu sprawiedliwości.

Nadmierna regulacja nie chroni konsumentów. Popycha ich ku mniej bezpiecznym alternatywom.

Jak sam sir Geoffrey Vos zauważył w dokumencie konsultacyjnym:

„Każda niepewność, rzeczywista lub postrzegana, grozi hamowaniem wdrażania korzystnych narzędzi AI, zwłaszcza w sektorach zawodowych niechętnych ryzyku...”

I dalej:

„Prawo angielskie, jako dobrze rozwinięty i elastyczny system common law, ma zdolność zapewniania pewności i przewidywalności w kontekście innowacji technologicznych. W obszarach prawdziwej nowości pewność i przewidywalność pojawiają się z czasem, gdy sądy rozumują od pierwszych zasad i rozwijają istniejące reguły, aby odnieść się do danej nowości.”

Zgadzamy się. Prawo musi umożliwiać odpowiedzialną innowację, a nie ją tłumić.

Poza prawem: szerszy obraz

Te same wyzwania występują w ochronie zdrowia, zdrowiu psychicznym i doradztwie finansowym. Nigdy nie będzie wystarczająco wielu lekarzy, terapeutów ani doradców finansowych, by sprostać codziennemu popytowi. Listy oczekujących rosną. Koszty rosną. Nierówności się pogłębiają.

AI to jedyny realistyczny sposób, by zapewnić wszystkim terminowe, przystępne wsparcie – podnosząc standard życia i zmniejszając nierówności. To, o co zabiegamy w usługach prawnych, odnosi się równie dobrze do tych sektorów: odpowiedzialność zależna od kontekstu, odpowiedzialność użytkownika i proporcjonalna regulacja.

Jeśli dobrze uregulujemy to w prawie, wyznaczy to precedens dla tego, jak Wielka Brytania reguluje AI we wszystkich usługach konsumenckich.

Co zaleciliśmy

W naszej odpowiedzi wskazaliśmy cztery kluczowe kwestie:

1. Odpowiedzialność powinna zależeć od funkcji

AI, która sporządza dokument (gdzie ty go sprawdzasz i podpisujesz), różni się od AI, która składa pozew do sądu bez pytania cię o zgodę. W pierwszym przypadku odpowiedzialność powinna spoczywać na użytkowniku; w drugim – na dostawcy.

2. Standard staranności musi być kontekstowy

Narzędzie za 15 funtów miesięcznie to nie solicitor za 500 funtów za godzinę. Obowiązek staranności – jak ustalono w sprawach takich jak Bolam i Montgomery – zawsze zależał od kontekstu. W przypadku AI nie powinno być inaczej.

3. Użytkownicy są „człowiekiem w pętli”

Użytkownik sprawdza, decyduje i działa. Tak powinna być przypisywana odpowiedzialność za informacyjne narzędzia AI.

4. Dostawcy odpowiadają za jakość produktu

Jeśli Caira ma wyciek danych, zawiera złośliwe oprogramowanie albo generuje wynik sprzeczny ze swoim opisem, to jest nasza odpowiedzialność. Consumer Rights Act 2015 już to obejmuje. Nie możemy jednak zagwarantować, że podejmiesz rozsądne decyzje na podstawie tego, co dostarczamy. To po twojej stronie.

Co dalej?

UKJT przeanalizuje wszystkie zgłoszenia i opublikuje ostateczne oświadczenie prawne jeszcze w tym roku (prawdopodobnie w połowie 2026 r.). Nie będzie to akt parlamentu – nie będzie „prawem” w formalnym sensie – ale będzie niezwykle wpływowe.

Gdy sprawa dotycząca odpowiedzialności za AI trafi do sądu, sędziowie niemal na pewno będą sięgać po stanowisko UKJT jako wskazówkę. Traktuj to jak oświadczenie konsensusowe starszego lekarza: nie jest prawnie wiążące, ale w praktyce rozstrzygające.

Jesteśmy dumni, że mogliśmy wnieść swój wkład do tej rozmowy. AI już jest, pomaga milionom ludzi, a prawo musi za tym nadążyć – rozważnie, uczciwie i bez podważania innowacji, która po raz pierwszy w historii czyni pomoc prawną dostępną.

Chętnie usłyszymy, co myślisz

Czy uważasz, że AI powinna być oceniana według tych samych standardów co solicitorzy? Co najbardziej niepokoi cię w korzystaniu z AI do pomocy prawnej? Jakie możliwości cię ekscytują?

Skontaktuj się z nami – chętnie poznamy twoją opinię. Napisz do nas na hello@unwildered.co.uk lub połącz się z nami na LinkedIn.

Czym jest UKJT?

Zespół ds. Jurysdykcji Wielkiej Brytanii (UKJT) to wiodący organ prawny powołany, aby zapewniać jasność i pewność prawa w zakresie nowych technologii. Przewodniczy mu Mistrz Rejestrów, sir Geoffrey Vos, a UKJT łączy ekspertów prawnych, sędziów i interesariuszy branżowych, by rozwiązywać niejasności prawne w dynamicznie rozwijających się obszarach, takich jak aktywa cyfrowe, smart kontrakty i sztuczna inteligencja.

Od momentu powstania w 2019 roku UKJT opublikował wpływowe oświadczenia prawne dotyczące statusu kryptoaktywów, smart kontraktów i papierów wartościowych w formie cyfrowej w świetle prawa angielskiego. Oświadczenia te pomogły sądom, firmom i konsumentom zrozumieć, jak prawo angielskie odnosi się do nowych technologii, a na arenie międzynarodowej były cytowane jako autorytatywne wytyczne.

Działalność UKJT nie ogranicza się do aktywów cyfrowych. Zespół opracował również Digital Dispute Resolution Rules, aby wspierać szybkie, prowadzone przez ekspertów rozstrzyganie sporów w gospodarce cyfrowej, a także przyczynił się do stworzenia przepisów takich jak Electronic Trade Documents Act 2023, który pozwala traktować dokumenty cyfrowe z takim samym skutkiem prawnym jak papierowe.

Najnowszym obszarem zainteresowania UKJT jest kwestia odpowiedzialności za szkody wyrządzone przez AI. Wraz z szybkim upowszechnianiem się AI w usługach prawnych, finansowych i konsumenckich rośnie niepewność co do tego, kto odpowiada, gdy coś pójdzie nie tak. Oświadczenie prawne UKJT dotyczące odpowiedzialności za AI ma na celu zapewnienie jasności sądom, regulatorom i opinii publicznej, tak aby prawo angielskie pozostawało adekwatne do celu i nadal wspierało odpowiedzialną innowację.

Prace UKJT są uważnie obserwowane przez inne jurysdykcje i często wyznaczają ton dla międzynarodowego rozwoju prawa. Zajmując się niepewnością prawną, UKJT pomaga budować zaufanie rynku i wspiera bezpieczne, powszechne wdrażanie nowych technologii w Wielkiej Brytanii i poza nią.

Zadawaj pytania lub otrzymuj szkice

24/7 z Caira

Zadawaj pytania lub otrzymuj szkice

24/7 z Caira

1 000 godzin czytania

Oszczędź nawet

500 000 £ w kosztach prawnych

1 000 godzin czytania

Oszczędź nawet

500 000 £ w kosztach prawnych

Karta kredytowa nie jest wymagana

Sztuczna inteligencja dla prawa w Wielkiej Brytanii: rodzinnego, karnego, nieruchomości, EHCP, handlowego, najmu, wynajmującego, spadków, testamentów i sądu spadkowego – zdezorientowany, dezorientujący