Offentligt samråd – Ansvar för AI-skador enligt den privata rätten i England och Wales
Samrådet: Vad händer?
Master of the Rolls, Sir Geoffrey Vos – den näst högst uppsatte domaren i England och Wales – leder ett stort initiativ för att klargöra vem som bär ansvaret när AI orsakar skada.
Frågan är enkel: om du använder ett AI-verktyg, en chatbot eller en LLM för att utforma ett avtal och något går fel, vem ansvarar då? Är det du, AI-bolaget eller någon annan?
Den UK Jurisdiction Taskforce (UKJT) har publicerat ett utkast till Legal Statement som ska vägleda hur domstolarna närmar sig dessa fall under många år framöver. De bjöd in allmänheten att lämna synpunkter, och vi ville gärna bidra.
Varför detta samråd spelar roll
UKJT:s Legal Statement är utformat för att vägleda domare, jurister och beslutsfattare när de navigerar i nytt territorium. Det liknar ett medicinskt konsensusuttalande: inte lag i sig, men en pålitlig referenspunkt för alla som fattar beslut om AI och ansvar.
När ett mål som rör en AI-chatbot eller LLM kommer inför domstol kommer domaren nästan säkert att rådfråga detta uttalande. Även om det inte blir en lag eller parlamentsakt kommer det att forma utfallen i många år – kanske decennier. Därför var det så viktigt för oss att bidra.
Vår ståndpunkt: Användarna är beslutsfattarna
På Unwildered ser vi AI som ett verktyg som ska stödja – inte ersätta – mänskligt omdöme. Precis som en miniräknare inte gör dig dålig på matte, fritar inte en AI-assistent för dokumentutkast dig från ansvar.
Vårt kärnargument: När du använder Caira för att utforma ett dokument är du författaren. Du granskar det, du redigerar det, du skriver under det. AI:n hjälper till; du bestämmer.
Det här speglar hur skatterätten redan fungerar. Enligt Schedule 24 i Finance Act 2007 kan skattebetalare hållas ansvariga för ”oaktsamma” misstag i sina deklarationer – även om de förlitat sig på felaktiga råd från en redovisningskonsult. Kontroversen kring stämpelskatt för Angela Rayner 2025 visade detta i praktiken: att enbart förlita sig på råd räckte inte. Hon ansågs inte ha uppnått de högsta standarderna eftersom hon underlät att verifiera de råd hon fått.
Samma logik bör gälla för AI. Om du skriver under ett avtal utan att läsa det kan du inte skylla på AI:n. AI:n är din utkastspartner, inte din jurist.
Att förstå ”human in the loop”
Du kanske har hört uttrycket ”human in the loop” i diskussioner om AI-säkerhet. Det betyder att även när AI används är en person alltid ansvarig för det slutliga beslutet.
Det handlar inte om att låta AI:n härja fritt – det handlar om att ge användarna möjlighet att fatta välgrundade beslut, precis som de skulle göra med vilket annat verktyg som helst. När du använder Caira:
Du tillhandahåller fakta och sammanhang
Du granskar AI:ns resultat
Du avgör om du ska agera utifrån det
Du tar ansvar för ditt beslut
Det är exakt så det fungerar även med solicitorer. Din jurist utformar ett dokument; du skriver under det. Du fritas inte från ansvar bara för att en yrkesperson hjälpte dig.
För konsumentnära AI-verktyg som Caira är användaren den mänskliga faktorn i loopen. Att kräva att en jurist granskar varje AI-resultat är inte praktiskt genomförbart – det finns 150 000 solicitorer i England & Wales och 67 miljoner människor.
Varför detta spelar roll för konsumenter
Verkligheten är att 31 % av vuxna i Storbritannien har oadresserade juridiska behov. Många har inte råd med solicitorer, har svårt att få tider och lämnas att reda ut saker på egen hand.
AI-verktyg som Caira förändrar detta. För £15 i månaden får du juridiska svar och dokumentutkastning dygnet runt, 365 dagar om året – inklusive kvällar och helger när tankarna går på högvarv och solicitorer inte är tillgängliga.
Om lagen lägger samma ansvarsnivå på ett AI-verktyg för £15 i månaden som på en solicitor för £500 i timmen, kommer de prisvärda alternativen att försvinna. Valet för konsumenter är inte mellan ”AI” och ”en solicitor.” Det är mellan ”AI” och ”ingenting alls.”
Vi uppmanade Taskforce att erkänna denna verklighet.
Skillnaden mellan AI-verktyg och reglerade yrkespersoner
Vissa kanske frågar: borde inte AI hållas till samma standard som solicitorer?
Solicitorer är reglerade, försäkrade och föremål för strikta yrkesstandarder. De utbildar sig i åratal, har obligatorisk ansvarsförsäkring och kan bli avregistrerade för tjänstefel.
AI-verktyg är däremot mjukvaruprodukter – tillgängliga omedelbart, till en bråkdel av kostnaden och utan samma regulatoriska ramverk. De styrs av konsumentskyddslagstiftning (som Consumer Rights Act 2015), inte av yrkesetiska regler.
Om lagen behandlar båda på samma sätt riskerar den att göra prisvärda AI-verktyg ohållbara, vilket lämnar många utan hjälp alls.
Detta betyder inte att AI ska vara ett fritt fram för allt. På Unwildered är vi fast beslutna att driva ansvarsfull innovation:
Vi använder tydliga friskrivningar om att vårt innehåll är informativt, inte juridisk rådgivning
Vi kräver att användaren bekräftar innan viktiga åtgärder
Vi följer bästa praxis för datasäkerhet
Vi anser att AI ska stärka, inte ersätta, mänskligt omdöme
Men ansvarssystemet måste erkänna att ett verktyg för £15 i månaden som används av miljontals människor är fundamentalt annorlunda än en skräddarsydd solicitorrelation för £500 i timmen.
Ett budskap till jurister och intressenter
För jurister som läser detta: det här handlar inte om att ersätta er expertis. Det handlar om att göra juridiskt stöd mer allmänt tillgängligt.
AI kan hantera rutinmässigt utkastarbete och research, vilket frigör solicitorer att fokusera på komplext arbete med högt värde som verkligen kräver professionellt omdöme. De 31 % med oadresserade juridiska behov är inte era nuvarande klienter – de har inte råd att vara det. AI betjänar en marknad som traditionella juridiska tjänster helt enkelt inte kan nå.
För regulatorer handlar det om att hitta rätt balans: att skydda konsumenter utan att kväva innovation. Consumer Rights Act 2015 ger redan starkt skydd för digitalt innehåll. Vi behöver inte uppfinna hjulet på nytt – vi behöver tillämpa befintliga principer på ett förnuftigt sätt.
Risken med överreglering
Om Storbritannien gör det för riskabelt att erbjuda AI-verktyg för juridik kommer konsumenterna inte plötsligt att ha råd med solicitorer. De kommer att vända sig till ChatGPT – en amerikansk produkt som inte är utformad för England & Wales, inte specifikt tränad på brittisk lag och inte underställd brittisk tillsyn.
Om regleringen blir för strikt kan brittiska konsumenter sluta med att förlita sig på utländska AI-verktyg som inte förstår vårt rättssystem, inte kan erbjuda lokala skydd och inte är ansvariga inför brittiska standarder. Det är en risk för alla – konsumenter, jurister och rättssystemet.
Överreglering skyddar inte konsumenterna. Den driver dem mot mindre säkra alternativ.
Som Sir Geoffrey Vos själv noterade i samrådspromemorian:
”All osäkerhet, verklig eller upplevd, riskerar att hämma användningen av gynnsamma AI-verktyg, särskilt bland riskaverta yrkesgrupper...”
Och vidare:
”Engelsk rätt, som ett välutvecklat och flexibelt common law-system, har förmågan att skapa klarhet och förutsägbarhet i samband med teknisk innovation. På områden som verkligen är nya uppstår klarhet och förutsägbarhet över tid när domstolar resonerar från första principer och utvecklar befintliga regler för att hantera den aktuella nyheten.”
Vi håller med. Lagen måste möjliggöra ansvarsfull innovation, inte kväva den.
Bortom juridiken: den större bilden
Samma utmaningar finns inom sjukvård, psykisk hälsa och finansiell rådgivning. Det kommer aldrig att finnas tillräckligt med läkare, terapeuter eller finansiella rådgivare för att möta den dagliga efterfrågan. Köerna växer. Kostnaderna stiger. Ojämlikheten fördjupas.
AI är den enda realistiska vägen för att säkerställa att alla får stöd i tid och till överkomlig kostnad – vilket höjer levnadsstandarden och minskar ojämlikheten. Det vi argumenterar för inom juridiska tjänster gäller lika mycket inom dessa sektorer: kontextuellt ansvar, användaransvar och proportionerlig reglering.
Om vi gör detta rätt inom juridiken sätter det ett prejudikat för hur Storbritannien reglerar AI inom alla konsumenttjänster.
Vad vi rekommenderade
Vårt svar lyfte fram fyra huvudpunkter:
1. Ansvar bör skala med funktionen
En AI som utformar ett dokument (där du granskar och skriver under) är annorlunda än en AI som lämnar in en ansökan till domstol utan att fråga dig. Den första bör innebära användaransvar; den andra bör innebära leverantörsansvar.
2. Omsorgsplikten måste vara kontextuell
Ett verktyg för £15 i månaden är inte en solicitor för £500 i timmen. Omsorgsplikten – sådan den fastställts i fall som Bolam och Montgomery – har alltid varit kontextuell. Det borde inte förändras för AI.
3. Användarna är ”human in the loop”
Användaren granskar, beslutar och agerar. Så bör ansvar fördelas för informativa AI-verktyg.
4. Leverantörer ansvarar för produktkvaliteten
Om Caira får ett dataintrång, innehåller skadlig kod eller producerar innehåll som motsäger dess beskrivning, är det vårt ansvar. Consumer Rights Act 2015 täcker redan detta. Men vi kan inte garantera att du kommer att fatta kloka beslut med det vi tillhandahåller. Det är ditt ansvar.
Vad händer härnäst?
UKJT kommer att granska alla inlämningar och publicera ett slutgiltigt Legal Statement senare i år (troligen i mitten av 2026). Detta blir ingen parlamentsakt – det kommer inte att vara ”lagen” i formell mening – men det kommer att vara mycket inflytelserikt.
När ett mål om AI-ansvar kommer till domstol kommer domare nästan säkert att se till UKJT:s uttalande för vägledning. Tänk på det som en seniorläkares konsensusuttalande: inte juridiskt bindande, men i praktiken avgörande.
Vi är stolta över att ha bidragit till denna diskussion. AI är här, den hjälper miljontals människor, och lagen behöver hinna ikapp – genomtänkt, rättvist och utan att underminera den innovation som gör juridisk hjälp tillgänglig för första gången i historien.
Vi vill gärna höra från dig
Tycker du att AI bör hållas till samma standard som solicitorer? Vad oroar dig mest med att använda AI för juridisk hjälp? Vilka möjligheter lockar dig?
Hör av dig – vi vill gärna höra dina tankar. Mejla oss på hello@unwildered.co.uk eller hör av dig till oss på LinkedIn.
Vad är UKJT?
UK Jurisdiction Taskforce (UKJT) är ett ledande juridiskt organ som inrättats för att skapa klarhet och förtroende i lagen när den tillämpas på framväxande teknologier. Under ledning av Master of the Rolls, Sir Geoffrey Vos, samlar UKJT juridiska experter, domare och branschintressenter för att hantera rättsliga oklarheter inom snabbföränderliga områden såsom digitala tillgångar, smarta kontrakt och artificiell intelligens.
Sedan bildandet 2019 har UKJT publicerat inflytelserika juridiska uttalanden om statusen för kryptotillgångar, smarta kontrakt och digitala värdepapper enligt engelsk rätt. Dessa uttalanden har hjälpt domstolar, företag och konsumenter att förstå hur engelsk rätt tillämpas på ny teknik, och har citerats internationellt som auktoritativ vägledning.
UKJT:s arbete är inte begränsat till digitala tillgångar. Det har också utvecklat Digital Dispute Resolution Rules för att stödja snabb, expertledd lösning av tvister i den digitala ekonomin, och har bidragit till utvecklingen av lagstiftning såsom Electronic Trade Documents Act 2023, som gör att digitala dokument kan behandlas med samma rättsverkan som pappersdokument.
På senare tid har UKJT riktat sitt fokus mot frågan om ansvar för skador orsakade av AI. Med den snabba spridningen av AI inom juridiska, finansiella och konsumentnära tjänster växer osäkerheten kring vem som ansvarar när något går fel. UKJT:s Legal Statement om AI-ansvar syftar till att ge klarhet för domstolar, tillsynsmyndigheter och allmänheten, och säkerställa att engelsk rätt förblir ändamålsenlig och fortsätter att stödja ansvarsfull innovation.
UKJT:s arbete bevakas noga av andra jurisdiktioner och sätter ofta tonen för internationella rättsutvecklingar. Genom att hantera rättslig osäkerhet hjälper UKJT till att bygga marknadens förtroende och stödjer en säker, bred användning av ny teknik i Storbritannien och utanför.
