مقالات منوعة

استخدام الذكاء الاصطناعي في العدالة الجنائية.. فرصة أم تهديد

الذكاء الاصطناعي# كشف # جرائم # ادوات الذكاء الاصطناعي # واقع # اليوم يعيشه الكثيرون

تخيل أن تُتهم بجريمة لم ترتكبها، وتكون الأدلة الوحيدة ضدك صور ومقاطع فيديو مزيفة أُنشئت باستخدام أدوات الذكاء الاصطناعي! هذا السيناريو أصبح واقع يعيشه الكثيرون اليوم. فقد حذر يورجن ستوك؛ الأمين العام للإنتربول، من أن الذكاء الاصطناعي أصبح أداة قوية في أيدي المجرمين، ويُستخدم الآن لارتكاب جرائم على نطاق واسع، فالتزييف العميق لمقاطع الفيديو، ومحاكاة الأصوات، وتزييف الوثائق، كلها تقنيات يسهل الوصول إليها بفضل التطور السريع للذكاء الاصطناعي، مما يهدد أمن المجتمعات.

ولكن في الوقت نفسه، تتسابق الأجهزة الأمنية حول العالم لاستخدام أدوات الذكاء الاصطناعي مثل: أنظمة تعرّف الوجوه، وأنظمة تعرف لوحات السيارات تلقائيًا، وأنظمة الكشف عن إطلاق النار، وتحليل وسائل التواصل الاجتماعي، وحتى روبوتات الشرطة. كما بدأ المحامين والقضاة بتبني أدوات الذكاء الاصطناعي لمساعدتهم في إدارة القضايا واتخاذ القرارات بسرعة.
ولكن في حين يَعد الذكاء الاصطناعي بتحويل منظومة العدالة الجنائية من خلال زيادة الكفاءة التشغيلية وتحسين السلامة العامة، فإنه يأتي أيضًا مع مخاطر تتعلق بالخصوصية والمساءلة والإنصاف وحقوق الإنسان. ومن أبرز هذه المخاوف هو خطر التحيز والتمييز، فمن المعروف أن الخوارزميات التي تشغل أنظمة الذكاء الاصطناعي تتضمن تحيزات موجودة في البيانات التي تدربت عليها، مما يؤدي إلى نتائج غير عادلة.

فكيف يمكننا ضمان أن أنظمة الذكاء الاصطناعي المستخدمة في العدالة الجنائية خالية من التحيزات، ومن سيتحمل المسؤولية عن الأخطاء التي قد يرتكبها نظام ذكاء اصطناعي في اتخاذ قرار قضائي؟ هل هو المبرمج؟ أم الشركة المطورة؟ أم القاضي الذي اعتمد على نتائج النظام؟

كل ذلك يدفعنا إلى طرح العديد من التساؤلات مثل: هل يمكننا الثقة بأن الذكاء الاصطناعي سيخدم العدالة بشكل عادل وموضوعي، أم أن مخاطر التحيز والخطأ قد تفوق فوائده؟ وكيف يمكننا ضمان أن حقوق الإنسان الأساسية محمية في ظل التطور التكنولوجي السريع؟

أولًا؛ ما الوعود والمخاطر المترتبة على استخدام الشرطة للذكاء الاصطناعي؟

كشف تحقيق أجرته صحيفة نيويورك تايمز في عام 2020، عن شبكة واسعة من المراقبة الرقمية طورتها شركة (Clearview AI) الأمريكية. فقد جمعت الشركة سرًا أكثر من ثلاثة مليارات صورة شخصية من الإنترنت، بما يشمل: منصات التواصل الاجتماعي، لتشكل قاعدة بيانات ضخمة تستخدم في نظامها لتعرّف الوجوه، وقد جرت هذه العملية دون موافقة واضحة من الأفراد المعنيين، مما أثار جدلًا واسعًا حول الخصوصية وأمن البيانات.

وقد استغلت العديد من وكالات الشرطة في جميع أنحاء العالم وكان أكثرها في كندا آنذاك قاعدة بيانات Clearview AI في عملياتها، وقد أثار ذلك ردود فعل عنيفة من الجمهور، ووجدت المنظمات الحقوقية في بلدان متعددة أن ما فعلته الشركة يُعدّ انتهاكًا صارخًا للخصوصية. وردًا على هذه الانتقادات، فرضت العديد من البلدان قيودًا على استخدام هذه التقنية، وطُلب من (Clearview AI) وقف عملياتها في بعض البلدن وأهمها كندا.

ومع ذلك تواصل شركة (Clearview AI) الترويج لتقنيتها، مستشهدة بقصص نجاح في حل الجرائم وتحديد المشتبه بهم، بل وصل الأمر إلى أنها ساعدت اكتشاف جنود روس يسعون إلى التسلل إلى نقاط التفتيش الأوكرانية.

مخاطر التقنية وتأثيرها في الفئات المهمشة:

لم تقضي قصص شركة (Clearview AI) حول نجاح تقنيتها على المخاوف المتزايدة من دقتها، فقد أشارت العديد من الدراسات إلى أن تقنية تعرف الوجوه مازالت ترتكب أخطاء في تعرف الأفراد، خاصة الأشخاص ذوي البشرة السمراء وغيرهم من الأقليات العرقية، وهذه الأخطاء يمكن أن تؤدي إلى نتائج وخيمة، مثل: اعتقال الأبرياء أو التمييز العنصري.

استجابة السلطات:

أدت هذه المخاوف إلى دعوات متزايدة لتنظيم استخدام تقنيات تعرّف الوجوه، خاصة في مجال إنفاذ القانون، فقد اتخذت بعض وكالات الشرطة في كندا خطوات أولية في هذا الاتجاه، من خلال وضع سياسات جديدة وتبني مبادرات الشفافية، مثل: سياسات خدمة شرطة تورنتو بشأن استخدام الذكاء الاصطناعي وبرنامج الشفافية في شرطة الخيالة الملكية الكندية.

كما وعدت جهات أخرى، مثل إدارة شرطة فانكوفر، بتطوير سياسات لكنها لم تفعل ذلك، وقد اتخذ هذا النهج الكثير من وكالات الشرطة حول العالم. لذلك، لا تزال هناك فجوات كبيرة في الإطار التنظيمي، مما يترك الباب مفتوحًا للاستخدام غير المشروع لهذه التقنية.

ثانيًا؛ الذكاء الاصطناعي والأدلة المزيفة في قاعات المحاكم؟

تتجاوز تحديات الذكاء الاصطناعي في النظام القضائي مجرد التحيز في الخوارزميات، بل تمتد إلى تهديد أساسي وهو الشك في مصداقية الأدلة نفسها، فبفضل تطور تقنيات التزييف العميق، أصبح من السهل للغاية توليد صور ومقاطع فيديو ومقاطع صوتية مزيفة لكنها واقعية للغاية لدرجة لا يمكن تمييزها عن الحقيقية. ويفتح هذا التطور الباب أمام إمكانية التلاعب بالأدلة المقدمة في المحاكم، مما يثير الشكوك حول صحة أي دليل رقمي.

وقد أدت هذه الظاهرة بالفعل إلى حالات يزعم فيها أحد الطرفين أن أدلة الطرف الآخر مزيفة، مما يثير الشك فيها، حتى لو كانت شرعية، وقد أُطلق على هذه الظاهرة اسم (ربح الكاذب) liar s dividend،

المصدر: نبض

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى