सार्वजनिक परामर्श – इंग्लैंड और वेल्स के निजी क़ानून के तहत AI से होने वाले नुक़सानों के लिए दायित्व
यह परामर्श: क्या हो रहा है?
मास्टर ऑफ़ द रोल्स, सर Geoffrey Vos – इंग्लैंड और वेल्स के दूसरे सबसे वरिष्ठ न्यायाधीश – यह स्पष्ट करने के लिए एक बड़े पहल का नेतृत्व कर रहे हैं कि जब AI नुकसान पहुँचाता है तो कौन उत्तरदायी होता है।
सवाल सीधा है: अगर आप किसी अनुबंध का मसौदा तैयार करने के लिए AI टूल, चैटबॉट, या LLM का उपयोग करते हैं और कुछ गलत हो जाता है, तो ज़िम्मेदार कौन है? क्या आप, AI कंपनी, या कोई और?
The UK Jurisdiction Taskforce (UKJT) ने एक मसौदा Legal Statement प्रकाशित किया है, जो आने वाले वर्षों में यह तय करने में अदालतों का मार्गदर्शन करेगा कि वे इन मामलों को कैसे देखें। उन्होंने सार्वजनिक प्रतिक्रिया आमंत्रित की, और हम योगदान देने के लिए उत्सुक थे।
यह परामर्श क्यों महत्वपूर्ण है
UKJT का Legal Statement न्यायाधीशों, वकीलों, और नीति-निर्माताओं को नई ज़मीन पर आगे बढ़ते समय मार्गदर्शन देने के लिए बनाया गया है। यह एक चिकित्सकीय सहमति-प्रस्ताव जैसा है: अपने आप में क़ानून नहीं, लेकिन AI और दायित्व से जुड़े फैसले लेने वाले किसी भी व्यक्ति के लिए एक भरोसेमंद संदर्भ बिंदु।
जब AI चैटबॉट या LLM से जुड़ा कोई मामला अदालत में आएगा, तो न्यायाधीश लगभग निश्चित रूप से इस वक्तव्य को देखेंगे। भले ही यह संसद का अधिनियम नहीं होगा, फिर भी यह वर्षों – शायद दशकों – तक नतीजों को आकार देगा। इसलिए हमारे लिए इसमें योगदान देना इतना महत्वपूर्ण था।
हमारा रुख: उपयोगकर्ता ही निर्णयकर्ता हैं
Unwildered में, हम AI को मानव निर्णय का समर्थन करने वाला एक उपकरण मानते हैं—उसका विकल्प नहीं। जैसे कैलकुलेटर आपको गणित में कमज़ोर नहीं बनाता, वैसे ही AI ड्राफ़्टिंग सहायक आपकी ज़िम्मेदारी से आपको मुक्त नहीं करता।
हमारा मूल तर्क: जब आप Caira का उपयोग करके कोई दस्तावेज़ तैयार करते हैं, तो आप ही लेखक होते हैं। आप उसे देखते हैं, आप उसे संपादित करते हैं, आप उस पर हस्ताक्षर करते हैं। AI सहायता करता है; निर्णय आप लेते हैं।
यह उसी तरह है जैसा कर-क़ानून पहले से काम करता है। Finance Act 2007 के Schedule 24 के तहत, करदाताओं पर अपने टैक्स रिटर्न में की गई “लापरवाह” गलतियों के लिए दायित्व होता है—यहाँ तक कि अगर उन्होंने किसी एकाउंटेंट की गलत सलाह पर भरोसा किया हो। 2025 में एंजेला रेनर के स्टाम्प ड्यूटी विवाद ने इसे व्यवहार में दिखाया: सिर्फ़ सलाह पर निर्भर रहना पर्याप्त नहीं था। यह पाया गया कि उन्होंने प्राप्त सलाह की पुष्टि करने में विफल रहकर सबसे ऊँचे मानकों को पूरा नहीं किया।
यही तर्क AI पर भी लागू होना चाहिए। अगर आप कोई अनुबंध पढ़े बिना हस्ताक्षर कर देते हैं, तो आप AI को दोष नहीं दे सकते। AI आपका ड्राफ़्टिंग सहायक है, आपका वकील नहीं।
“मानव-इन-द-लूप” को समझना
आपने AI सुरक्षा पर चर्चाओं में “मानव-इन-द-लूप” वाक्यांश सुना होगा। इसका मतलब है कि, AI का उपयोग करते हुए भी, अंतिम निर्णय के लिए हमेशा एक व्यक्ति ज़िम्मेदार होता है।
इसका मतलब AI को मनमर्जी से चलने देना नहीं है – इसका मतलब है उपयोगकर्ताओं को सूचित विकल्प लेने में सक्षम बनाना, ठीक वैसे ही जैसे वे किसी भी दूसरे उपकरण के साथ करते हैं। जब आप Caira का उपयोग करते हैं:
आप तथ्य और संदर्भ प्रदान करते हैं
आप AI के आउटपुट की समीक्षा करते हैं
आप तय करते हैं कि उस पर कार्रवाई करनी है या नहीं
आप अपने निर्णय की ज़िम्मेदारी लेते हैं
वकीलों के साथ भी यह बिल्कुल इसी तरह काम करता है। आपका सॉलिसिटर एक दस्तावेज़ का मसौदा तैयार करता है; आप उस पर हस्ताक्षर करते हैं। सिर्फ़ इसलिए कि किसी पेशेवर ने मदद की, आपकी ज़िम्मेदारी समाप्त नहीं हो जाती।
Caira जैसे उपभोक्ता AI टूल्स के लिए, उपयोगकर्ता ही “मानव-इन-द-लूप” है। हर AI आउटपुट की समीक्षा के लिए किसी वकील को अनिवार्य करना व्यावहारिक नहीं है – इंग्लैंड & वेल्स में 150,000 सॉलिसिटर हैं और 67 मिलियन लोग।
यह उपभोक्ताओं के लिए क्यों मायने रखता है
हकीकत यह है कि यूके के 31% वयस्कों की कानूनी ज़रूरतें पूरी नहीं हो पातीं। बहुत से लोग सॉलिसिटर का खर्च नहीं उठा सकते, अपॉइंटमेंट पाने में जूझते हैं, और चीज़ों को अकेले समझने के लिए छोड़ दिए जाते हैं।
Caira जैसे AI टूल्स इसे बदलते हैं। £15 प्रति माह में, आपको कानूनी जवाब और दस्तावेज़ तैयार करने की सुविधा 24/7, साल के 365 दिन मिलती है – जिसमें शामें और सप्ताहांत भी शामिल हैं, जब आपके विचार सबसे ज़्यादा तेज़ होते हैं और सॉलिसिटर उपलब्ध नहीं होते।
अगर क़ानून £15/माह के AI टूल पर वही दायित्व मानक लागू कर दे जो £500/घंटा सॉलिसिटर पर लागू होता है, तो ऐसे किफ़ायती विकल्प गायब हो जाएंगे। उपभोक्ताओं के लिए चुनाव “AI” और “एक सॉलिसिटर” के बीच नहीं है। यह “AI” और “बिल्कुल कुछ नहीं” के बीच है।
हमने टास्कफोर्स से इस वास्तविकता को स्वीकार करने का आग्रह किया।
AI टूल्स और विनियमित पेशेवरों के बीच अंतर
कुछ लोग पूछ सकते हैं: क्या AI को सॉलिसिटर के समान मानकों पर नहीं रखा जाना चाहिए?
सॉलिसिटर विनियमित होते हैं, बीमित होते हैं, और सख्त पेशेवर मानकों के अधीन होते हैं। वे वर्षों तक प्रशिक्षण लेते हैं, अनिवार्य क्षतिपूर्ति बीमा रखते हैं, और misconduct पर हटाए जा सकते हैं।
इसके विपरीत, AI टूल्स सॉफ़्टवेयर उत्पाद हैं – तुरंत उपलब्ध, लागत के एक अंश पर, और उसी नियामक ढाँचे के बिना। उन पर उपभोक्ता संरक्षण क़ानून (जैसे Consumer Rights Act 2015) लागू होता है, पेशेवर आचरण के नियम नहीं।
अगर क़ानून दोनों को एक जैसा मानता है, तो जोखिम है कि किफ़ायती AI टूल्स अव्यावहारिक हो जाएँगे, और बहुत से लोगों के पास कोई मदद ही नहीं बचेगी।
इसका मतलब यह नहीं कि AI के लिए पूरी छूट होनी चाहिए। Unwildered में, हम ज़िम्मेदार नवाचार के लिए प्रतिबद्ध हैं:
हम स्पष्ट अस्वीकरण का उपयोग करते हैं कि हमारा आउटपुट सूचनात्मक है, कानूनी सलाह नहीं
महत्वपूर्ण कार्रवाइयों से पहले हम उपयोगकर्ता की पुष्टि माँगते हैं
हम डेटा सुरक्षा के सर्वोत्तम तरीकों का पालन करते हैं
हम मानते हैं कि AI को मानव निर्णय को सशक्त करना चाहिए, उसका विकल्प नहीं बनना चाहिए
लेकिन दायित्व ढाँचे को यह पहचानना होगा कि लाखों लोगों की सेवा करने वाला £15/माह का टूल, एक कस्टम £500/घंटा सॉलिसिटर संबंध से मौलिक रूप से अलग है।
वकीलों और हितधारकों के लिए संदेश
इसे पढ़ रहे वकीलों के लिए: यह आपकी विशेषज्ञता को बदलने के बारे में नहीं है। यह कानूनी सहायता को अधिक व्यापक रूप से उपलब्ध कराने के बारे में है।
AI नियमित ड्राफ़्टिंग और शोध संभाल सकता है, जिससे सॉलिसिटर जटिल, उच्च-मूल्य वाले काम पर ध्यान दे सकें जिनके लिए वास्तव में पेशेवर निर्णय की आवश्यकता होती है। 31% जिनकी कानूनी ज़रूरतें पूरी नहीं हो रही हैं, वे आपके मौजूदा ग्राहक नहीं हैं – वे बनने की क्षमता ही नहीं रखते। AI ऐसे बाज़ार की सेवा करता है जहाँ पारंपरिक कानूनी सेवाएँ पहुँच ही नहीं पातीं।
नियामकों के लिए, यह सही संतुलन बनाने के बारे में है: नवाचार को दबाए बिना उपभोक्ताओं की रक्षा करना। Consumer Rights Act 2015 पहले से ही डिजिटल सामग्री के लिए मज़बूत सुरक्षा प्रदान करता है। हमें पहिया फिर से बनाने की ज़रूरत नहीं है – हमें मौजूदा सिद्धांतों को समझदारी से लागू करने की ज़रूरत है।
अत्यधिक नियमन का जोखिम
अगर UK में AI कानूनी टूल्स देना बहुत जोखिमभरा हो जाए, तो उपभोक्ता अचानक सॉलिसिटर नहीं खरीद पाएँगे। वे ChatGPT की ओर मुड़ेंगे – एक अमेरिकी उत्पाद जो इंग्लैंड & वेल्स के लिए नहीं बनाया गया, UK क़ानून पर विशेष रूप से प्रशिक्षित नहीं है, और UK निगरानी के अधीन नहीं है।
अगर नियमन बहुत सख़्त हो गया, तो UK के उपभोक्ता ऐसे विदेशी AI टूल्स पर निर्भर हो सकते हैं जो हमारी कानूनी व्यवस्था को नहीं समझते, स्थानीय सुरक्षा नहीं दे सकते, और UK मानकों के प्रति जवाबदेह नहीं हैं। यह सबके लिए जोखिम है – उपभोक्ताओं, वकीलों, और न्याय व्यवस्था के लिए।
अत्यधिक नियमन उपभोक्ताओं की रक्षा नहीं करता। यह उन्हें कम सुरक्षित विकल्पों की ओर धकेल देता है।
जैसा कि सर Geoffrey Vos ने स्वयं परामर्श पत्र में कहा:
“किसी भी प्रकार की अनिश्चितता, चाहे वास्तविक हो या महसूस की गई, लाभकारी AI टूल्स को अपनाने में बाधा डालने का जोखिम रखती है, विशेष रूप से जोखिम से बचने वाले पेशेवर क्षेत्रों में...”
और आगे:
“English law, एक सुविकसित और लचीली common law प्रणाली के रूप में, तकनीकी नवाचार के संदर्भ में निश्चितता और पूर्वानुमेयता प्रदान करने की क्षमता रखती है। सच्चे नवीन क्षेत्रों में, निश्चितता और पूर्वानुमेयता समय के साथ उभरती हैं, क्योंकि अदालतें प्रथम सिद्धांतों से तर्क करती हैं और मौजूदा नियमों को उस नवीनता को संबोधित करने के लिए विकसित करती हैं।”
हम सहमत हैं। क़ानून को ज़िम्मेदार नवाचार को सक्षम करना चाहिए, उसे दबाना नहीं चाहिए।
क़ानून से आगे: बड़ी तस्वीर
ऐसी ही चुनौतियाँ स्वास्थ्य सेवा, मानसिक स्वास्थ्य, और वित्तीय सलाह में भी मौजूद हैं। दैनिक मांग को पूरा करने के लिए कभी भी पर्याप्त डॉक्टर, थेरेपिस्ट, या वित्तीय सलाहकार नहीं होंगे। प्रतीक्षा-सूचियाँ बढ़ती हैं। लागतें बढ़ती हैं। असमानता गहराती है।
AI ही एकमात्र व्यावहारिक तरीका है जिससे यह सुनिश्चित किया जा सके कि हर किसी को समय पर, किफ़ायती सहायता मिले – जीवन-स्तर बढ़ाते हुए और असमानता कम करते हुए। कानूनी सेवाओं में जिस बात की हम वकालत कर रहे हैं, वह इन क्षेत्रों पर भी समान रूप से लागू होती है: संदर्भ-आधारित दायित्व, उपयोगकर्ता की ज़िम्मेदारी, और अनुपातिक नियमन।
अगर हम इसे क़ानून में सही कर लेते हैं, तो यह इस बात का उदाहरण बनता है कि UK सभी उपभोक्ता सेवाओं में AI को कैसे विनियमित करता है।
हमने क्या सिफ़ारिश की
हमारी प्रतिक्रिया में चार मुख्य बिंदु थे:
1. दायित्व को कार्य के साथ बढ़ना चाहिए
ऐसा AI जो किसी दस्तावेज़ का मसौदा तैयार करता है (जहाँ आप समीक्षा करके हस्ताक्षर करते हैं) उस AI से अलग है जो आपसे पूछे बिना अदालत में दावा दायर करता है। पहले पर उपयोगकर्ता की ज़िम्मेदारी आनी चाहिए; दूसरे पर विक्रेता की ज़िम्मेदारी।
2. देखभाल का मानक संदर्भ-आधारित होना चाहिए
£15/माह का टूल £500/घंटा सॉलिसिटर नहीं है। देखभाल का दायित्व – जैसा कि Bolam और Montgomery जैसे मामलों में स्थापित हुआ – हमेशा संदर्भ-आधारित रहा है। AI के लिए यह नहीं बदलना चाहिए।
3. उपयोगकर्ता ही “मानव-इन-द-लूप” हैं
उपयोगकर्ता समीक्षा करता है, निर्णय लेता है, और कार्रवाई करता है। सूचनात्मक AI टूल्स के लिए ज़िम्मेदारी इसी तरह बाँटी जानी चाहिए।
4. विक्रेता उत्पाद की गुणवत्ता के लिए ज़िम्मेदार हैं
अगर Caira में डेटा उल्लंघन हो, उसमें malware हो, या ऐसा आउटपुट दे जो उसके विवरण से मेल न खाता हो, तो उसकी ज़िम्मेदारी हमारी है। Consumer Rights Act 2015 पहले से ही इसे कवर करता है। लेकिन हम यह गारंटी नहीं दे सकते कि आप हमारी दी गई चीज़ों के साथ समझदारी भरे निर्णय लेंगे। वह आपकी ज़िम्मेदारी है।
आगे क्या होगा?
UKJT सभी प्रस्तुतियों की समीक्षा करेगा और इस वर्ष के अंत में – संभवतः मध्य-2026 में – एक अंतिम Legal Statement प्रकाशित करेगा। यह संसद का अधिनियम नहीं होगा – औपचारिक अर्थ में यह “क़ानून” नहीं होगा – लेकिन यह अत्यंत प्रभावशाली होगा।
जब AI दायित्व से जुड़ा कोई मामला अदालत में आएगा, तो न्यायाधीश लगभग निश्चित रूप से मार्गदर्शन के लिए UKJT के वक्तव्य को देखेंगे। इसे वरिष्ठ डॉक्टर की सहमति-उक्ति की तरह समझें: कानूनी रूप से बाध्यकारी नहीं, लेकिन व्यवहार में निर्णायक।
हमें इस बातचीत में योगदान देने पर गर्व है। AI यहाँ है, यह लाखों लोगों की मदद कर रहा है, और क़ानून को उसके साथ कदम मिलाना होगा – सोच-समझकर, निष्पक्ष रूप से, और उस नवाचार को कमज़ोर किए बिना जो इतिहास में पहली बार कानूनी मदद को सुलभ बना रहा है।
हम आपसे सुनना चाहेंगे
क्या आपको लगता है कि AI को सॉलिसिटर के समान मानकों पर रखा जाना चाहिए? कानूनी मदद के लिए AI का उपयोग करने में आपको सबसे ज़्यादा किस बात की चिंता है? कौन-से अवसर आपको उत्साहित करते हैं?
हमसे संपर्क करें – हमें आपके विचार सुनकर खुशी होगी। हमें hello@unwildered.co.uk पर ईमेल करें या LinkedIn पर हमसे जुड़ें।
UKJT क्या है?
UK Jurisdiction Taskforce (UKJT) एक प्रमुख कानूनी निकाय है, जिसकी स्थापना उभरती तकनीकों पर लागू क़ानून में स्पष्टता और भरोसा प्रदान करने के लिए की गई है। मास्टर ऑफ़ द रोल्स, सर Geoffrey Vos की अध्यक्षता में, UKJT कानूनी विशेषज्ञों, न्यायाधीशों, और उद्योग हितधारकों को एक साथ लाता है ताकि डिजिटल संपत्तियों, स्मार्ट कॉन्ट्रैक्ट्स, और कृत्रिम बुद्धिमत्ता जैसे तेज़ी से बदलते क्षेत्रों में कानूनी अनिश्चितताओं का समाधान किया जा सके।
2019 में अपनी स्थापना के बाद से, UKJT ने English law के तहत cryptoassets, smart contracts, और digital securities की स्थिति पर प्रभावशाली कानूनी वक्तव्य प्रकाशित किए हैं। इन वक्तव्यों ने अदालतों, व्यवसायों, और उपभोक्ताओं को यह समझने में मदद की है कि English law नई तकनीकों पर कैसे लागू होता है, और इन्हें अंतरराष्ट्रीय स्तर पर प्रामाणिक मार्गदर्शन के रूप में उद्धृत किया गया है।
UKJT का काम केवल डिजिटल संपत्तियों तक सीमित नहीं है। उसने डिजिटल अर्थव्यवस्था में विवादों के त्वरित, विशेषज्ञ-नेतृत्व वाले समाधान का समर्थन करने के लिए Digital Dispute Resolution Rules भी विकसित किए हैं, और Electronic Trade Documents Act 2023 जैसी विधायी विकास प्रक्रियाओं में योगदान दिया है, जो डिजिटल दस्तावेज़ों को काग़ज़ी दस्तावेज़ों के समान कानूनी प्रभाव के साथ माना जाने की अनुमति देता है।
हाल ही में, UKJT ने अपना ध्यान AI द्वारा होने वाले नुक़सानों के लिए दायित्व के प्रश्न पर केंद्रित किया है। कानूनी, वित्तीय, और उपभोक्ता सेवाओं में AI को तेज़ी से अपनाए जाने के साथ, यह अनिश्चितता बढ़ रही है कि जब कुछ गलत होता है, तो कौन ज़िम्मेदार है। AI दायित्व पर UKJT का Legal Statement अदालतों, नियामकों, और जनता के लिए स्पष्टता प्रदान करने का लक्ष्य रखता है, यह सुनिश्चित करते हुए कि English law उद्देश्य के अनुरूप बना रहे और ज़िम्मेदार नवाचार का समर्थन करता रहे।
UKJT के काम पर अन्य क्षेत्रों की कड़ी नज़र रहती है और यह अक्सर अंतरराष्ट्रीय कानूनी विकास की दिशा तय करता है। कानूनी अनिश्चितता को संबोधित करके, UKJT बाज़ार का विश्वास बनाने में मदद करता है और UK तथा उससे आगे नई तकनीकों को सुरक्षित, मुख्यधारा में अपनाने का समर्थन करता है।
