به گزارش خبرگزاری مهر به نقل از رجیستر، دادگاهی شبیهسازیشده در ایالات متحده با محوریت نقش هوش مصنوعی در نظام قضائی برگزار شد. در این دادگاه ساختگی، هنری جاستوس، دانشآموز ۱۷ ساله سیاهپوست، به اتهام سرقت از دبیرستانی محلی محاکمه شد. در این مدرسه، دانشآموزان سیاهپوست تنها ۱۰ درصد از جمعیت را تشکیل میدادند.
این شبیهسازی بر اساس پروندهای واقعی در ایالت کارولینا طراحی شده بود؛ پروندهای که در آن قاضی، متهم را گناهکار شناخته بود. جوزف کندی، استاد حقوق و از اعضای «کلینیک عدالت نوجوانان دانشگاه کارولینا» که در رسیدگی به پرونده واقعی نیز حضور داشت، در این آزمایش نقش قاضی را بر عهده گرفت.
این دادگاه فرضی در سال ۲۰۳۶ میلادی و پس از تصویب «قانون عدالت کیفری هوش مصنوعی» مصوب ۲۰۳۵ برگزار شد. هدف از اجرای آن، بررسی پیامدهای احتمالی استفاده از مدلهای هوش مصنوعی در فرآیندهای قضائی و برانگیختن تفکر عمومی درباره حدود و خطرات چنین کاربردهایی بود.
شهادت اصلی پرونده از سوی ویکتور فلچر، نوجوان ۱۵ ساله سفیدپوست، ارائه شد. او در دادگاه گفت: «جاستوس پشت سرم ایستاده بود تا نتوانم فرار کنم. دانشآموز سیاهپوست دیگری از من پول خواست. فکر کردم نمیتوانم مقابله کنم. آقای جاستوس از من بزرگتر بود و هیچ شانسی نداشتم.»
وکیل مدافع استدلال کرد که حضور متهم و ظاهر او را نمیتوان دلیلی کافی برای اثبات قصد مجرمانه دانست و این موارد از «حد تردید معقول» فراتر نمیروند.
در ادامه، سه مدل هوش مصنوعی شامل ChatGPT، Grok و Claude وظیفه بررسی شواهد و استدلالها را بر عهده گرفتند. در ابتدا، ChatGPT رأی به گناهکار بودن متهم داد، در حالیکه دو مدل دیگر مردد بودند. اما پس از تحلیل دادههای ارائهشده از سوی «هیئت منصفه» شبیهسازیشده، ChatGPT نظر خود را تغییر داد و رأی به بیگناهی داد. در پی آن، Grok و Claude نیز رأی خود را با آن هماهنگ کردند.
کندی در بیانیهای پس از برگزاری دادگاه اعلام کرد: «هرچند من همچنان مخالف استفاده از هوش مصنوعی در محاکم کیفری هستم، اما این پرسش برایم مطرح شده که آیا افرادی که امروز از این فناوریها برای مشاوره یا تصمیمگیری شخصی استفاده میکنند، ممکن است در آینده قضاوتهای هوش مصنوعی را نیز بیچونوچرا بپذیرند یا نه.»
به گزارش رجیستر، عملکرد هوش مصنوعی در نظام قضائی تا امروز همواره بدون خطا نبوده است. تاکنون در بیش از ۵۰۰ پرونده، تصمیمهای مبتنی بر هوش مصنوعی به اشتباه، تحریم یا حتی شرمساری منجر شده است. با این حال، موفقیتهای محدود آن نیز توجه گستردهای را برانگیختهاند. طبق تحقیق «اتحادیه وکلای آمریکا» در سال ۲۰۲۴، حدود ۳۰ درصد وکلا اعلام کردهاند که در کار خود از ابزارهای هوش مصنوعی استفاده میکنند.












