ابزارهایی مثل ChatGPT جایگزین تحقیق حقوقی معتبر نیستند
دادگاه عالی انگلستان و ولز (High Court of England and Wales) اعلام کرده که وکلا باید اقدامات جدیتری برای جلوگیری از سوءاستفاده از هوش مصنوعی (Artificial Intelligence) در تحقیقات حقوقی خود انجام دهند.
قاضی «ویکتوریا شارپ» (Victoria Sharp) در رأی جدیدی گفته است که ابزارهای تولید متن مانند چتجیپیتی (ChatGPT) «قادر به انجام تحقیقات حقوقی قابل اعتماد نیستند» و ممکن است پاسخهایی منسجم ولی نادرست ارائه دهند.
او تأکید کرد:
«این ابزارها ممکن است ادعاهایی کاملاً اشتباه را با اعتماد به نفس بالا بیان کنند و این برای یک روند حقوقی بسیار خطرناک است.»
وظیفه حرفهای وکلا در بررسی منابع
قاضی شارپ گفته است که وکلا میتوانند از هوش مصنوعی استفاده کنند، اما موظفاند نتایج آن را با منابع معتبر بررسی کنند. به گفته او، تکرار موارد استفاده از اطلاعات جعلی نشان میدهد که «راهنماییها رعایت نمیشوند» و نهادهای حرفهای مانند شورای کانون وکلا (Bar Council) و انجمن حقوقی (Law Society) باید بیشتر دخالت کنند.
نمونههایی از تخلفات واقعی
مورد | شرح تخلف |
پرونده اول | وکیلی دادخواستی با ۴۵ ارجاع ارائه داد که ۱۸ مورد آن ساختگی بودند. بسیاری دیگر هم اشتباه نقل شده بودند یا به موضوع پرونده ربطی نداشتند. |
پرونده دوم | وکیلی برای موکلی که از خانهاش در لندن اخراج شده بود، دادخواستی با ۵ ارجاع غیرواقعی تنظیم کرد. او استفاده از AI را رد کرد اما گفت شاید این ارجاعات از خلاصههای اینترنتی آمده باشند. |
مجازاتهای احتمالی برای تخلف
قاضی شارپ گفت: «اگرچه در این موارد خاص تصمیم گرفتیم پیگرد قضایی آغاز نکنیم، اما این یک رویه دائمی نیست.»
به گفته او:
وکلایی که از وظایف حرفهای خود تخطی کنند، ممکن است با مجازاتهایی مانند توبیخ عمومی، الزام به پرداخت هزینه دادرسی، پیگرد قانونی یا حتی ارجاع به پلیس مواجه شوند.
جمعبندی
این هشدار بهوضوح نشان میدهد که **هوش مصنوعی نباید بدون بررسی دقیق در امور حقوقی مورد استفاده قرار گیرد**. حفظ اعتبار منابع و صحت ارجاعات، مسئولیتی است که وکلا باید در هر شرایطی به آن پایبند باشند.
نظرات کاربران