المسؤولية عن أضرار الذكاء الاصطناعي في المملكة المتحدة: ردّنا على UKJT والحكومة البريطانية

المسؤولية عن أضرار الذكاء الاصطناعي في المملكة المتحدة: ردّنا على UKJT والحكومة البريطانية

مشاورة عامة – المسؤولية عن الأضرار الناجمة عن الذكاء الاصطناعي بموجب القانون الخاص لإنجلترا وويلز

المشاورة: ما الذي يحدث؟

يقود رئيس محكمة الاستئناف، السير جيفري فووس – ثاني أرفع قاضٍ في إنجلترا وويلز – مبادرة كبرى لتوضيح من يتحمل المسؤولية عندما يسبب الذكاء الاصطناعي ضرراً.

السؤال واضح: إذا استخدمت أداة ذكاء اصطناعي، أو روبوت محادثة، أو نموذجاً لغوياً كبيراً (LLM) لصياغة عقد، ثم حدث خطأ ما، فمن المسؤول؟ هل أنت، أم شركة الذكاء الاصطناعي، أم شخص آخر؟

لقد نشرت فريق الاختصاص القضائي في المملكة المتحدة (UKJT) مسودة بيان قانوني سترشد كيفية تعامل المحاكم مع هذه الحالات لسنوات قادمة. وقد دعوا الجمهور إلى إبداء الرأي، وكنا حريصين على المساهمة.

لماذا تكتسب هذه المشاورة أهمية

صُمم البيان القانوني لـ UKJT لتوجيه القضاة والمحامين وصناع السياسات وهم يَخوضون أرضاً جديدة. وهو يشبه بيان توافق طبي: ليس قانوناً بحد ذاته، لكنه نقطة مرجعية موثوقة لأي شخص يتخذ قرارات بشأن الذكاء الاصطناعي والمسؤولية.

عندما تصل قضية تتعلق بروبوت محادثة يعمل بالذكاء الاصطناعي أو نموذج لغوي كبير إلى المحكمة، فمن شبه المؤكد أن القاضي سيطلع على هذا البيان. ورغم أنه لن يكون قانوناً صادراً عن البرلمان، فإنه سيؤثر في النتائج لسنوات – وربما لعقود. ولهذا كان من المهم جداً بالنسبة لنا أن نساهم.

موقفنا: المستخدمون هم متخذو القرار

في Unwildered، نرى الذكاء الاصطناعي أداةً تدعم الحكم البشري — لا تستبدله. فكما أن الآلة الحاسبة لا تجعلك سيئاً في الرياضيات، فإن مساعد الصياغة المعتمد على الذكاء الاصطناعي لا يعفيك من المسؤولية.

حجتنا الأساسية: عندما تستخدم Caira لصياغة مستند، فإن أنت المؤلف. أنت تراجعه، وتعدله، وتوقّعه. الذكاء الاصطناعي يساعد؛ وأنت تقرر.

وهذا ينسجم مع طريقة عمل قانون الضرائب بالفعل. فبموجب الجدول 24 من قانون المالية لعام 2007، يكون دافعو الضرائب مسؤولين عن الأخطاء «المهملة» في إقراراتهم الضريبية — حتى لو اعتمدوا على مشورة خاطئة من محاسب. وقد أظهر الجدل حول ضريبة الدمغة الخاصة بأنجيلا راينر في 2025 هذا عملياً: فالاعتماد على المشورة وحده لم يكن كافياً. وقد تبيّن أنها لم تستوفِ أعلى المعايير لأنها أخفقت في التحقق من المشورة التي تلقتها.

وينبغي أن ينطبق المنطق نفسه على الذكاء الاصطناعي. فإذا وقّعت عقداً من دون قراءته، فلا يمكنك إلقاء اللوم على الذكاء الاصطناعي. فالذكاء الاصطناعي هو مساعدك في الصياغة، وليس محاميك.

فهم مفهوم "الإنسان في الحلقة"

ربما سمعت عبارة "الإنسان في الحلقة" في النقاشات حول سلامة الذكاء الاصطناعي. وهي تعني أنه، حتى عند استخدام الذكاء الاصطناعي، يبقى شخص ما مسؤولاً دائماً عن القرار النهائي.

الأمر لا يتعلق بترك الذكاء الاصطناعي يعمل بلا ضوابط – بل بتمكين المستخدمين من اتخاذ قرارات مستنيرة، كما يفعلون مع أي أداة أخرى. عندما تستخدم Caira:

  • أنت تزودها بالوقائع والسياق

  • أنت تراجع مخرجات الذكاء الاصطناعي

  • أنت تقرر ما إذا كنت ستتصرف بناءً عليها

  • أنت تتحمل مسؤولية قرارك

وهذا تماماً ما يحدث مع المحامين أيضاً. محاميك يضع مسودة وثيقة؛ وأنت توقّعها. لا تُعفى من المسؤولية لمجرد أن محترفاً ساعدك.

أما بالنسبة لأدوات الذكاء الاصطناعي الموجهة للمستهلكين مثل Caira، فالمستخدم هو الإنسان في الحلقة. واشتراط أن يراجع محامٍ كل مخرج من مخرجات الذكاء الاصطناعي ليس عملياً – فهناك 150,000 محامٍ في إنجلترا & ويلز و67 مليون شخص.

لماذا يهم هذا المستهلكين

الواقع هو أن 31% من البالغين في المملكة المتحدة لديهم احتياجات قانونية غير ملباة. كثيرون لا يستطيعون تحمّل أتعاب المحامين، أو يجدون صعوبة في الحصول على مواعيد، ويتركون ليحاولوا حل الأمور بأنفسهم.

تغيّر أدوات الذكاء الاصطناعي مثل Caira هذا الواقع. مقابل 15 جنيهاً إسترلينياً شهرياً، تحصل على إجابات قانونية وصياغة مستندات على مدار الساعة، طوال أيام السنة – بما في ذلك الأمسيات وعطلات نهاية الأسبوع عندما تكون أفكارك أكثر إلحاحاً ولا يكون المحامون متاحين.

إذا فرض القانون معايير المسؤولية نفسها على أداة ذكاء اصطناعي تكلف 15 جنيهاً شهرياً كما يفرضها على محامٍ يتقاضى 500 جنيه إسترليني في الساعة، فستختفي هذه الخيارات الميسورة. فخيـار المستهلكين ليس بين "الذكاء الاصطناعي" و"محامٍ". بل هو بين "الذكاء الاصطناعي" و"لا شيء على الإطلاق".

وقد حثثنا فريق العمل على الاعتراف بهذه الحقيقة.

الفرق بين أدوات الذكاء الاصطناعي والمهنيين المنظمين

قد يسأل البعض: ألا ينبغي تحميل الذكاء الاصطناعي المعايير نفسها المفروضة على المحامين؟

المحامون منظمون، ومؤمَّن عليهم، ويخضعون لمعايير مهنية صارمة. وهم يتدربون لسنوات، ويحملون تأمين تعويض إلزامي، ويمكن شطبهم من السجل بسبب سوء السلوك.

أما أدوات الذكاء الاصطناعي، فهي على النقيض من ذلك منتجات برمجية – متاحة فوراً، وبجزء بسيط من التكلفة، ومن دون الإطار التنظيمي نفسه. وهي تخضع لقانون حماية المستهلك (مثل قانون حقوق المستهلك لعام 2015)، وليس لقواعد السلوك المهني.

إذا عاملها القانون بالطريقة نفسها، فإنه يخاطر بجعل أدوات الذكاء الاصطناعي الميسورة غير قابلة للاستمرار، ويترك كثيرين من دون أي مساعدة على الإطلاق.

ولا يعني هذا أن الذكاء الاصطناعي ينبغي أن يكون بلا ضوابط. ففي Unwildered، نحن ملتزمون بالابتكار المسؤول:

  • نستخدم إخلاءات مسؤولية واضحة تفيد بأن مخرجاتنا معلوماتية وليست مشورة قانونية

  • نطلب تأكيد المستخدم قبل الإجراءات المهمة

  • نتبع أفضل الممارسات في أمن البيانات

  • نؤمن بأن الذكاء الاصطناعي يجب أن يمكّن الحكم البشري، لا أن يستبدله

لكن إطار المسؤولية يجب أن يعترف بأن أداةً تكلف 15 جنيهاً شهرياً وتخدم الملايين تختلف جذرياً عن علاقة محامٍ خاص يتقاضى 500 جنيه إسترليني في الساعة.

رسالة إلى المحامين وأصحاب المصلحة

إلى المحامين الذين يقرؤون هذا: الأمر ليس متعلقاً باستبدال خبرتكم. بل يتعلق بإتاحة الدعم القانوني على نطاق أوسع.

يمكن للذكاء الاصطناعي أن يتولى الصياغة والبحث الروتينيين، ما يتيح للمحامين التركيز على الأعمال المعقدة وعالية القيمة التي تتطلب فعلاً حكماً مهنياً. إن نسبة 31% ممن لديهم احتياجات قانونية غير ملباة ليسوا عملاءكم الحاليين – فهم ببساطة لا يستطيعون تحمل الكلفة. فالذكاء الاصطناعي يخدم سوقاً لا تستطيع الخدمات القانونية التقليدية الوصول إليه.

أما بالنسبة للجهات التنظيمية، فالأمر يتعلق بإيجاد التوازن الصحيح: حماية المستهلكين من دون خنق الابتكار. فقانون حقوق المستهلك لعام 2015 يوفر بالفعل حماية قوية للمحتوى الرقمي. لا نحتاج إلى اختراع العجلة من جديد – بل نحتاج إلى تطبيق المبادئ القائمة بشكل سليم.

خطر الإفراط في التنظيم

إذا جعلت المملكة المتحدة تقديم أدوات قانونية قائمة على الذكاء الاصطناعي شديد الخطورة، فلن يصبح بمقدور المستهلكين فجأة تحمل أتعاب المحامين. بل سيتجهون إلى ChatGPT – وهو منتج أمريكي لم يُصمم لإنجلترا & ويلز، ولم يُدرَّب تحديداً على قانون المملكة المتحدة، ولا يخضع لإشراف بريطاني.

إذا كانت اللوائح صارمة أكثر من اللازم، فقد ينتهي الأمر بمستهلكي المملكة المتحدة إلى الاعتماد على أدوات ذكاء اصطناعي خارجية لا تفهم نظامنا القانوني، ولا تستطيع تقديم حماية محلية، ولا تخضع للمساءلة وفق المعايير البريطانية. وهذا خطر على الجميع – المستهلكين والمحامين ونظام العدالة.

الإفراط في التنظيم لا يحمي المستهلكين. بل يدفعهم نحو بدائل أقل أماناً.

وكما أشار السير جيفري فووس نفسه في ورقة المشاورة:

"أي حالة من عدم اليقين، سواء كانت حقيقية أم متصورة، تنطوي على خطر إعاقة تبني أدوات الذكاء الاصطناعي المفيدة، ولا سيما بين القطاعات المهنية شديدة التحفظ على المخاطر..."

وأضاف أيضاً:

"إن القانون الإنجليزي، بوصفه نظاماً قانونياً عاماً مرناً ومتطوراً، لديه القدرة على توفير اليقين والقابلية للتنبؤ في سياق الابتكار التكنولوجي. وفي مجالات الحداثة الحقيقية، ينشأ اليقين والقابلية للتنبؤ مع مرور الوقت، حين تستند المحاكم إلى المبادئ الأولى وتطوّر القواعد القائمة لمعالجة الحداثة المطروحة."

ونحن نتفق مع ذلك. يجب أن يمكّن القانون الابتكار المسؤول، لا أن يخنقه.

ما وراء القانون: الصورة الأوسع

توجد التحديات نفسها في الرعاية الصحية والصحة النفسية والمشورة المالية. لن يكون هناك أبداً ما يكفي من الأطباء أو المعالجين أو المستشارين الماليين لتلبية الطلب اليومي. قوائم الانتظار تطول. التكاليف ترتفع. وتزداد الفجوة في المساواة عمقاً.

الذكاء الاصطناعي هو الطريقة الواقعية الوحيدة لضمان حصول الجميع على دعم في الوقت المناسب وبكلفة معقولة – بما يرفع مستوى المعيشة ويقلل عدم المساواة. وما ندعو إليه في الخدمات القانونية ينطبق بالمثل على هذه القطاعات: المسؤولية السياقية، ومسؤولية المستخدم، والتنظيم المتناسب.

إذا نجحنا في ذلك في القانون، فسيضع سابقة لكيفية تنظيم المملكة المتحدة للذكاء الاصطناعي عبر جميع الخدمات الاستهلاكية.

ما أوصينا به

تضمن ردنا أربع نقاط رئيسية:

1. ينبغي أن تتناسب المسؤولية مع الوظيفة

فالذكاء الاصطناعي الذي يُعدّ وثيقةً مسودةً (حيث تراجعها وتوقّعها) يختلف عن الذكاء الاصطناعي الذي يقدّم دعوى أمام المحكمة من دون أن يسألك. ينبغي أن يتحمل الأول مسؤولية المستخدم؛ بينما ينبغي أن يتحمل الثاني مسؤولية المورّد.

2. يجب أن يكون معيار العناية سياقياً

أداة تكلف 15 جنيهاً شهرياً ليست محامياً يتقاضى 500 جنيه إسترليني في الساعة. فواجب العناية – كما استقر في قضايا مثل Bolam وMontgomery – كان دائماً سياقياً. ولا ينبغي أن يتغير ذلك بالنسبة للذكاء الاصطناعي.

3. المستخدمون هم "الإنسان في الحلقة"

المستخدم يراجع ويقرر ويتصرف. هكذا ينبغي توزيع المسؤولية على أدوات الذكاء الاصطناعي المعلوماتية.

4. المورّدون مسؤولون عن جودة المنتج

إذا تعرضت Caira لاختراق بيانات، أو احتوت على برمجيات خبيثة، أو أصدرت مخرجات تتعارض مع وصفها، فهذه مسؤوليتنا. فقانون حقوق المستهلك لعام 2015 يغطي هذا بالفعل. لكننا لا نستطيع أن نضمن أنك ستتخذ قرارات حكيمة بناءً على ما نقدمه. فذلك يعود إليك.

ماذا سيحدث بعد ذلك؟

سيقوم UKJT بمراجعة جميع المساهمات ونشر البيان القانوني النهائي في وقت لاحق من هذا العام (على الأرجح في منتصف 2026). ولن يكون هذا قانوناً صادراً عن البرلمان – ولن يكون "القانون" بالمعنى الرسمي – لكنه سيكون ذا تأثير كبير للغاية.

عندما تصل قضية تتعلق بمسؤولية الذكاء الاصطناعي إلى المحكمة، فمن شبه المؤكد أن القضاة سيلجؤون إلى بيان UKJT طلباً للإرشاد. فكّر فيه كأنه بيان توافق صادر عن طبيب كبير: غير ملزم قانونياً، لكنه حاسم عملياً.

نحن فخورون بمساهمتنا في هذه المناقشة. فالذكاء الاصطناعي موجود، وهو يساعد ملايين الأشخاص، وعلى القانون أن يواكب ذلك – بعناية، وبإنصاف، ومن دون تقويض الابتكار الذي يجعل المساعدة القانونية متاحة لأول مرة في التاريخ.

نود أن نسمع منك

هل تعتقد أن الذكاء الاصطناعي ينبغي أن يُحاسَب بالمعايير نفسها المفروضة على المحامين؟ ما أكثر ما يقلقك عند استخدام الذكاء الاصطناعي للحصول على مساعدة قانونية؟ وما الفرص التي تثير حماسك؟

تواصل معنا – نود أن نسمع آراءك. راسلنا عبر البريد الإلكتروني hello@unwildered.co.uk أو تواصل معنا على LinkedIn.

ما هو UKJT؟

فريق الاختصاص القضائي في المملكة المتحدة (UKJT) هو هيئة قانونية رائدة أُنشئت لتوفير الوضوح والثقة في القانون كما ينطبق على التقنيات الناشئة. ويرأسه رئيس محكمة الاستئناف، السير جيفري فووس، ويجمع بين خبراء قانونيين وقضاة وأصحاب مصلحة من القطاع للتصدي لحالات الغموض القانوني في المجالات سريعة التطور مثل الأصول الرقمية والعقود الذكية والذكاء الاصطناعي.

منذ تأسيسه في 2019، نشر UKJT بيانات قانونية مؤثرة بشأن الوضع القانوني للعملات المشفّرة والعقود الذكية والأوراق المالية الرقمية بموجب القانون الإنجليزي. وقد ساعدت هذه البيانات المحاكم والشركات والمستهلكين على فهم كيفية تطبيق القانون الإنجليزي على التقنيات الجديدة، كما استُشهد بها دولياً باعتبارها إرشاداً ذا سلطة.

ولا يقتصر عمل UKJT على الأصول الرقمية. فقد طوّر أيضاً قواعد تسوية المنازعات الرقمية لدعم الحل السريع للمنازعات بقيادة خبراء في الاقتصاد الرقمي، وساهم في تطوير تشريعات مثل قانون مستندات التجارة الإلكترونية لعام 2023، الذي يسمح بمعاملة المستندات الرقمية بالأثر القانوني نفسه للمستندات الورقية.

وفي الآونة الأخيرة، وجّه UKJT اهتمامه إلى مسألة المسؤولية عن الأضرار التي يسببها الذكاء الاصطناعي. ومع التبني السريع للذكاء الاصطناعي في الخدمات القانونية والمالية وخدمات المستهلكين، يزداد الغموض حول الجهة المسؤولة عندما تسوء الأمور. ويهدف البيان القانوني لـ UKJT بشأن مسؤولية الذكاء الاصطناعي إلى توفير الوضوح للمحاكم والجهات التنظيمية والجمهور، بما يضمن بقاء القانون الإنجليزي صالحاً للغرض واستمراره في دعم الابتكار المسؤول.

وتحظى أعمال UKJT بمتابعة دقيقة من ولايات قضائية أخرى، وغالباً ما تحدد نغمة التطورات القانونية الدولية. ومن خلال معالجة الغموض القانوني، يساعد UKJT على بناء ثقة السوق ويدعم التبني الآمن والرئيسي للتقنيات الجديدة في المملكة المتحدة وخارجها.

اطرح الأسئلة أو احصل على مسودات

24/7 مع Caira

اطرح الأسئلة أو احصل على مسودات

24/7 مع Caira

1,000 ساعة من القراءة

وفّر حتى

£500,000 في الرسوم القانونية

1,000 ساعة من القراءة

وفّر حتى

£500,000 في الرسوم القانونية

لا حاجة إلى بطاقة ائتمان

الذكاء الاصطناعي للقانون في المملكة المتحدة: الأسرة، الجنائي، العقار، EHCP، التجاري، الإيجار، المالك، الميراث، الوصايا ومحكمة الوصايا والإثبات - مُحيِّر، مُربِك