الشرطة والمحاكم تتجهان إلى الذكاء الاصطناعي. هل النظام جاهز لذلك؟

US-TRANSPORT-POLICE-ROBOT

(SeaPRwire) –   هل يمكن استخدام الذكاء الاصطناعي لجعل نظام العدالة الجنائية أكثر عدلاً وكفاءة، أم أنه سيعزز التحيزات الضارة فقط؟ يقول الخبراء إنه تم نشره حتى الآن بطرق مقلقة – ولكن هناك إمكانات لإحداث تأثير إيجابي.

اليوم، وصلت تقنية الذكاء الاصطناعي إلى كل جانب تقريبًا من نظام العدالة الجنائية. يتم استخدامه في أنظمة التعرف على الوجه لتحديد المشتبه بهم؛ وفي استراتيجيات “الشرطة التنبؤية” لصياغة طرق الدوريات؛ وفي قاعات المحاكم للمساعدة في إدارة القضايا؛ ومن قبل المدافعين العامين لغربلة الأدلة. ولكن في حين يشير المدافعون إلى زيادة في الكفاءة والعدالة، يثير النقاد أسئلة جدية حول الخصوصية والمساءلة.

في الشهر الماضي، أطلق المجلس المعني بالعدالة الجنائية (Council on Criminal Justice) فرقة عمل غير حزبية بشأن الذكاء الاصطناعي، لدراسة كيف يمكن استخدام الذكاء الاصطناعي في نظام العدالة الجنائية بأمان وأخلاقية. سيتم دعم عمل المجموعة من قبل باحثين في RAND، وسوف يأخذون في النهاية نتائجهم ويقدمون توصيات لصناع السياسات وجهات إنفاذ القانون.

يقول ناثان هيشت، رئيس فرقة العمل ورئيس المحكمة العليا السابق في تكساس: “ليس هناك شك في أن الذكاء الاصطناعي يمكن أن يسفر عن نتائج غير عادلة”. “تريد فرقة العمل هذه أن تجمع بين خبراء التكنولوجيا، وخبراء العدالة الجنائية، وأفراد المجتمع، والخبراء في مختلف المجالات، والجلوس حقًا لمعرفة كيف يمكننا استخدامه لجعل النظام أفضل وعدم التسبب في الضرر الذي هو قادر عليه.”

مخاطر الذكاء الاصطناعي في تطبيق القانون

يقول هيشت إن العديد من المحاكم وإدارات الشرطة تستخدم بالفعل الذكاء الاصطناعي. “إنه مجزأ للغاية: أشخاص فضوليون يقولون،” واو، يوجد هذا الذكاء الاصطناعي هنا، يمكننا استخدامه في المحكمة الجنائية “.”

ولكن نظرًا لوجود عدد قليل من المعايير لكيفية نشر الذكاء الاصطناعي، فقد تزايد قلق مراقبي الحقوق المدنية من أن وكالات إنفاذ القانون تستخدمه بطرق خطيرة. اعتمدت آلاف الوكالات على تقنية التعرف على الوجه التي تبيعها شركات مثل Clearview، التي تستضيف قاعدة بيانات تضم مليارات الصور المأخوذة من الإنترنت. في العديد من قواعد البيانات، يتم تمثيل السود بشكل مفرط، ويرجع ذلك جزئيًا إلى أنهم يعيشون في مجتمعات تخضع لرقابة الشرطة بشكل مفرط. كما أن تقنية الذكاء الاصطناعي أقل دقة في تمييز الاختلافات في وجوه السود، مما قد يؤدي إلى ارتفاع معدلات التعريف الخاطئ.

في العام الماضي، أفاد مشروع البراءة (Innocence Project)، وهي منظمة قانونية غير ربحية، أنه كان هناك ما لا يقل عن سبعة اعتقالات خاطئة بسبب تقنية التعرف على الوجه، ستة منها تورط فيها أشخاص سود اتهموا خطأً. يقول والتر كاتز، مدير السياسة في المنظمة، إن الشرطة تقوم أحيانًا بإجراء اعتقالات بناءً على نتائج التعرف على الوجه بالذكاء الاصطناعي بدلاً من جعل الذكاء الاصطناعي بمثابة نقطة انطلاق لتحقيق أوسع. ويقول: “هناك اعتماد مفرط على مخرجات الذكاء الاصطناعي”.

يقول كاتز إنه عندما ذهب إلى مؤتمر للشرطة في الخريف الماضي، “كان الذكاء الاصطناعي في كل مكان”. كان الباعة يسوقون بقوة أدوات تكنولوجية تدعي أنها تحل مشاكل حقيقية في أقسام الشرطة. ويقول: “ولكن في تقديم هذا العرض، لم يكن هناك سوى القليل من الاهتمام بأي مقايضات أو مخاطر”. على سبيل المثال، يخشى النقاد من أن العديد من أدوات الذكاء الاصطناعي هذه ستزيد من مراقبة الأماكن العامة، بما في ذلك مراقبة المتظاهرين السلميين – أو أن ما يسمى بالبقع الساخنة التنبؤية ستكثف حملات إنفاذ القانون على المناطق الخاضعة للرقابة المفرطة.

أين يمكن أن يساعد الذكاء الاصطناعي

ومع ذلك، يقر كاتز بأن الذكاء الاصطناعي له مكان في نظام العدالة الجنائية. ويقول: “سيكون من الصعب للغاية التمني في زوال الذكاء الاصطناعي – وهناك أماكن يمكن أن يكون فيها الذكاء الاصطناعي مفيدًا”. ولهذا السبب، انضم إلى فرقة عمل الذكاء الاصطناعي التابعة للمجلس المعني بالعدالة الجنائية. “الأولوية الأولى هي فهم مدى سرعة التبني. وإذا كان الجميع ينطلقون من فهم أن عدم وجود سياسة على الإطلاق هو على الأرجح المكان الخطأ، فإننا نبني من هناك.”

يرى هيشت، رئيس فرقة العمل، عدة مجالات يمكن أن يكون فيها الذكاء الاصطناعي مفيدًا في قاعة المحكمة، على سبيل المثال، بما في ذلك تحسين عملية استقبال الأشخاص الذين تم القبض عليهم، أو المساعدة في تحديد من هو مؤهل لبرامج التحويل، التي تسمح للمخالفين بتجنب الإدانات. ويأمل أيضًا أن تقدم فرقة العمل توصيات بشأن أنواع استخدام الذكاء الاصطناعي التي لا ينبغي الموافقة عليها صراحةً في العدالة الجنائية، وخطوات للحفاظ على خصوصية الجمهور. ويقول: “نريد أن نحاول جمع الخبرات اللازمة لطمأنة مستخدمي المنتج والجمهور بأن هذا سيجعل تجربتك مع نظام العدالة الجنائية أفضل – وبعد ذلك، سيتركك وشأنك”.

وفي الوقت نفسه، تبذل الكثير من الجهود المستقلة الأخرى لمحاولة استخدام الذكاء الاصطناعي لتحسين عمليات العدالة. تأمل شركة ناشئة، JusticeText، في استخدام الذكاء الاصطناعي لتضييق الفجوة بين موارد المدعين العامين والمدافعين العامين، الذين عادة ما يعانون من نقص حاد في الموظفين والموارد. قامت JusticeText ببناء أداة للمدافعين العامين تقوم بفرز ساعات من مكالمات 911، ولقطات كاميرات الجسم الخاصة بالشرطة، والاستجوابات المسجلة، من أجل تحليلها وتحديد ما إذا كانت الشرطة، على سبيل المثال، قد أدلت بتصريحات غير متسقة أو طرحت أسئلة إيحائية.

تقول المؤسسة والمديرة التنفيذية ديفشي ميهروترا: “أردنا حقًا أن نرى كيف يبدو الأمر أن تكون مدافعًا عامًا أولاً، وأن نحاول تحقيق تكافؤ الفرص الذي تفاقم من خلال التكنولوجيا في كثير من النواحي في السنوات الماضية”. تعمل JusticeText مع حوالي 75 وكالة للمدافعين العامين في جميع أنحاء البلاد.

كما تقوم Recidiviz، وهي منظمة غير ربحية لإصلاح العدالة الجنائية، باختبار عدة طرق لدمج الذكاء الاصطناعي في سير عملها، بما في ذلك إعطاء مسؤولي الإفراج المشروط ملخصات من الذكاء الاصطناعي للعملاء. يقول أندرو وارين، المؤسس المشارك لـ Recidiviz: “قد يكون لديك 80 صفحة من ملاحظات الحالة تعود إلى سبع سنوات عن هذا الشخص الذي لن تقرأه إذا كان لديك عبء عمل يبلغ 150 شخصًا، وعليك أن ترى كل واحد منهم كل شهر”. “يمكن للذكاء الاصطناعي أن يقدم ملخصات موجزة للغاية لما حققه هذا الشخص بالفعل وما الذي يمكن أن يستخدم الدعم فيه.”

إذن، التحدي الذي يواجهه صانعو السياسات وفرقة العمل التابعة للمجلس المعني بالعدالة الجنائية هو تحديد كيفية تطوير معايير وآليات رقابة بحيث تفوق الفوائد الجيدة من مكاسب كفاءة الذكاء الاصطناعي قدرته على تضخيم التحيزات الحالية. يأمل هيشت، في فرقة العمل، أيضًا في الحماية من مستقبل يتخذ فيه صندوق أسود من الذكاء الاصطناعي قرارات تغير الحياة بمفرده.

هل يجب علينا التأكد من حماية أفكارنا التقليدية عن العدالة الإنسانية؟ بالطبع. هل يجب علينا التأكد من أن القضاة القادرين والمعالجين لنظام العدالة الجنائية هم المسيطرون تمامًا؟ بالطبع”، كما يقول. “لكن القول بأننا سنبقي الذكاء الاصطناعي خارج نظام العدالة هو أمر ميؤوس منه. تستخدمه شركات المحاماة. يستخدمه نظام العدالة المدنية. إنه باقٍ هنا”.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى. 

“`