العدالة الجنائية الذكية.. الضبطية القضائية الذكية
بقلم: الدكتور أحمد عبد الظاهر – أستاذ القانون الجنائي بجامعة القاهرة
تعمل الدولة على الحد من ظاهرة الإجرام عبر وسيلتين، هما: الضبطية الإدارية، والضبطية القضائية. ويقصد بمصطلح «الضبطية الإدارية» الأعمال والإجراءات الرامية إلى منع الجرائم قبل وقوعها.
أما «الضبطية القضائية»، فيقصد بها الكشف عما يقع من جرائم وتعقب مرتكبيها، توطئة لتقديمهم إلى العدالة. فالضبطية القضائية تفترض إذن أن جريمة ارتكبت، فتجمع بالتالي المعلومات والتحريات والاستدلالات بشأنها، ومن ثم كان نشاطها لاحقاً على ارتكاب الجريمة.
أما الضبطية الإدارية، فوظيفتها اتخاذ الإجراءات الوقائية المانعة من ارتكاب الجريمة، ومن ثم كان نشاطها سابقاً على ارتكابها.
ويحدد القانون سلطة الضبط القضائي، مستخدماً تعبير «مأموري الضبط القضائي» للدلالة على من يباشرون الاختصاصات المنوطة بها ويمارسون الصلاحيات والسلطات المخولة لمن يحمل هذه الصفة.
وبعبارة أخرى، فإن أعضاء الضبطية القضائية موظفون عامون، يميزهم اختصاصهم بجمع الاستدلالات والمعلومات الموصلة لكشف الجريمة وضبط مرتكبيها.
ويستمد مأمور الضبط القضائي صفته واختصاصه من نص القانون على ذلك، ومن ثم كان بيان المشرع لمأموري الضبط القضائي بياناً على سبيل الحصر.
ويعني ذلك أن اكتساب الموظف صفة الضبط القضائي لا تكفي فيه المبادئ العامة في القانون أو نوع اختصاصه العام، وإنما يتعين أن يقرر ذلك نص تشريعي.
ويعلل الفقه هذه القاعدة بالسلطة الواسعة التي خولها القانون لمأموري الضبط القضائي، فلا يريد أن يباشرها سوى أشخاص موثوق فيهم ابتداءً.
وفي اعتقادنا أن السبب الأساسي وراء ذلك هو النظرة التقليدية إلى وظيفة الأمن بشقيه، سواء منع الجريمة أو كشفها وضبطها، باعتبارها إحدى الوظائف السيادية للدولة، والتي لا ينبغي أن يضطلع بها سوى رجال السلطة العامة. ويمكن تبرير ذلك أيضاً في ضوء تبني الدولة النظام التنقيبي في الإجراءات الجنائية.
ومأمورو الضبط القضائي قسمان: ذوو الاختصاص النوعي العام، أي الذين يختصون بإجراءات الاستدلال في شأن كل الجرائم، أياً كان اسمها أو نوعها أو الوصف القانوني لها، وذوو الاختصاص القانوني النوعي المحدود، أي الذين يختصون بإجراءات الاستدلال في شأن جرائم معينة حددها القانون على سبيل الحصر. وقد ورد النص على مأموري الضبط القضائي بقسميهم في المادة الثالثة والعشرين من قانون الإجراءات الجنائية المصري.
وينعقد إجماع فقه القانون الجنائي على أن القانون هو مصدر صفة الضبط القضائي.
كذلك، فإن الإجماع الفقهي منعقد على أن تحديد الشارع مأموري الضبط القضائي على سبيل الحصر يقود إلى القول إنه لا تجوز الإضافة إليهم إلا عن طريق نص قانوني، مؤكدين أن هذه الإضافة هي في حقيقتها تعديل للقانون، فلا تجوز – طبقاً للقواعد العامة – إلا بقانون. وهذه القاعدة صحيحة بالنسبة لمأموري الضبط القضائي ذوي الاختصاص النوعي العام.
أما بالنسبة لمأموري الضبط القضائي ذوي الاختصاص النوعي المحدود، فقد نص المشرع على جواز تخويل هذه الصفة «بقرار من وزير العدل بالاتفاق مع الوزير المختص». وتعد هذه القاعدة نوعاً من التفويض التشريعي للوزيرين، وهدفها تحقيق المرونة، بالنظر إلى تنوع الحالات التي تدعو الحاجة فيها إلى تخويل هذه الصفة.
ومنظوراً إلى الأمر باعتباره تفويضاً تشريعياً، يبدو سائغاً القول إن تخويل الضبطية القضائية بقرار وزاري لا ينفي حقيقة أن المصدر الحقيقي لهذه الصفة هو القانون في نهاية المطاف.
وعلى كل حال، وأياً كان مصدر صفة الضبطية القضائية، وما إذا كان نص القانون ذاته أو نصوص القرارات الوزارية، فالملاحظ أن مأموري الضبط القضائي هم أشخاص من بني البشر، يقومون بإجراء التحريات وجمع الاستدلالات والمعلومات عن الجرائم بعد وقوعها، بهدف ضبطها وكشف شخصية مرتكبيها، توطئة لتقديمهم إلى العدالة.
غير أن التطور التكنولوجي قد أدى إلى استخدام الرادارات وكاميرات تقنية الوجوه في ضبط الجرائم وتحديد شخصية مرتكبيها، دونما أدنى تدخل بشري. كذلك، فإن الثورة التكنولوجية الرابعة قد جعلت من الممكن اضطلاع الروبوت أو الإنسان الآلي بدور في كشف الجرائم وضبط مرتكبيها، بحيث يحل محل مأمور الضبط القضائي البشري.
ومن المتوقع أن يتزايد ويتعاظم هذا الدور في ظل ثورة البيانات الضخمة وفي ظل المدن الذكية، وذلك على الرغم من المخاوف التي يثيرها البعض عن مخاطر استخدام الذكاء الاصطناعي لكشف الجريمة.
ففي دراسة منشورة في مجلة «هارفارد بيزنس ريفيو» بتاريخ التاسع من أغسطس 2018م، تحت عنوان «مخاطر وفوائد استخدام الذكاء الاصطناعي في كشف الجريمة»، يشير المؤلفون إلى أن الشركات غدت تستخدم الذكاء الاصطناعي لمنع واكتشاف كل شيء، بدءاً من السرقة الروتينية للموظفين إلى إفشاء المعلومات غير المعلنة أو إفشاء المعلومات الداخلية بما يؤثر على بورصة الأوراق المالية.
وتستخدم العديد من البنوك والشركات الكبرى الذكاء الاصطناعي، لاكتشاف ومنع الاحتيال وغسل الأموال.
كما تستخدم شركات وسائل التواصل الاجتماعي تقنية التعلم الآلي، لحظر المحتوى غير المشروع، مثل المواد الإباحية للأطفال.
وتقوم الشركات باستمرار بتجريب طرق جديدة لاستخدام الذكاء الاصطناعي، لتحسين إدارة المخاطر واكتشاف الاحتيال بشكل أسرع وأكثر استجابة، بل وحتى للتنبؤ بالجرائم ومنعها.
وإذا كانت التكنولوجيا الأساسية المستخدمة في عالم اليوم ليست بالضرورة جديدة، إلا أن الخوارزميات المستخدمة والنتائج التي يتم التوصل إليها تعتبر ابتكارية ومستحدثة. فعلى سبيل المثال، استخدمت البنوك أنظمة مراقبة المعاملات لعقود من الزمن بناءً على قواعد ثنائية محددة مسبقاً تتطلب فحص المخرجات يدوياً.
وكان معدل النجاح منخفضاً بشكل عام: ففي المتوسط، كانت نسبة 2% فقط من المعاملات التي يتم التنبيه إليها من قبل الأنظمة، تعكس في النهاية جريمة حقيقية أو نية خبيثة.
على النقيض من ذلك، تستخدم حلول التعلم الآلي اليوم قواعد تنبؤية تتعرف تلقائياً على الحالات الشاذة في مجموعات البيانات. ويمكن لهذه الخوارزميات المتقدمة أن تقلل بشكل كبير من عدد التنبيهات الخاطئة عن طريق تنقيح الحالات التي تم التنبيه إليها بشكل غير صحيح، مع الكشف عن الحالات الأخرى التي تم اغفالها باستخدام القواعد التقليدية.
ونظراً لوفرة البيانات المتاحة في عالم اليوم، وانطلاقاً من التوقعات المتزايدة للعملاء والسلطات العامة عندما يتعلق الأمر بحماية تلك البيانات وإدارتها، فقد ارتأت العديد من الشركات أن الاستعانة بالذكاء الاصطناعي هي الطريقة الوحيدة لمواكبة المجرمين المتطورين بشكل متزايد.
ولذلك، يبدو متوقعاً ومستساغاً في الوقت الحاضر أن تقوم شركات التواصل الاجتماعي، على سبيل المثال، بكشف وإزالة مقاطع الفيديو والرسائل المتعلقة بتجنيد الإرهابيين على الفور تقريباً.
وبمرور الوقت، يمكن أن تصبح أدوات مكافحة الجريمة التي تعمل بالذكاء الاصطناعي مطلباً للشركات الكبيرة، ويرجع ذلك جزئياً إلى أنه لن تكون هناك طريقة أخرى لاكتشاف الأنماط وتفسيرها بسرعة عبر مليارات أجزاء البيانات.
وكما هو واضح من الأمثلة سالفة الذكر، فإن الدراسة المنشورة في مجلة هارفارد بيزنس ريفيو تركز على أوجه استخدام الشركات لتكنولوجيا الذكاء الاصطناعي في منع وكشف الجرائم. فلا تركز هذه الدراسة على استخدام سلطات إنفاذ القانون لهذه التكنولوجيا.
ويمكن فهم ذلك في ضوء أن القطاع الخاص يكون دائما هو الأسبق في استخدام وسائل التكنولوجيا الحديثة من القطاع الحكومي بوجه عام والجهات القضائية على وجه الخصوص. وانطلاقاً من الملاحظة سالفة الذكر، تنتقل الدراسة إلى الحديث عن مخاطر استخدام الذكاء الاصطناعي، مؤكدة أن تحديد ما إذا كانت حلول مكافحة الجريمة بالذكاء الاصطناعي طريقة جيدة ومناسبة استراتيجياً لشركة ما يعتمد على ما إذا كانت الفوائد المرجوة تفوق المخاطر المصاحبة لها.
وبحسب الدراسة، فإن أحد هذه المخاطر هو أن النتائج المستخلصة بناءً على الذكاء الاصطناعي قد تكون متحيزة على أساس عدة عوامل، مثل العرق والجنس والعمر. كما يمكن أن تواجه الشركات أيضاً ردود فعل عنيفة من العملاء الذين يخشون أن يتم إساءة استخدام بياناتهم أو استغلالها من خلال المزيد من المراقبة المكثفة لبيانات سجلاتهم ومعاملاتهم واتصالاتهم، خاصةً إذا تمت مشاركة هذه الأفكار مع سلطات إنفاذ القانون. وفي الآونة الأخيرة، على سبيل المثال، اضطر بنك أوروبي إلى التراجع عن خطته لمطالبة العملاء بالحصول على إذن لمراقبة حساباتهم على وسائل التواصل الاجتماعي كجزء من عملية تقديم طلبات الرهن العقاري، بعد احتجاج عام على خطط «التجسس على الناس». كذلك، اضطرت منصة يوتيوب مؤخراً إلى العودة للاستعانة بالبشر لمراقبة المحتوى بدلاً عن الذكاء الاصطناعي.
ومن ثم، يثور التساؤل عن الكيفية أو الآلية التي يمكن من خلالها للشركات الرائدة تقييم وقياس فوائد ومخاطر التطور السريع لمكافحة الجريمة وإدارة المخاطر بالذكاء الاصطناعي؟
وفي الإجابة عن هذا التساؤل، تؤكد الدراسة أن أولى الخطوات التي يمكن الاعتماد عليها في هذا الشأن تتثمل في «تقييم التوافق الاستراتيجي»، بمعنى أنه وقبل الشروع في أي مبادرة لإدارة المخاطر بالذكاء الاصطناعي، يجب على المدراء أولاً أن يفهموا أين يُحدِث التعلم الآلي فرقاً كبيراً بالفعل.
فالبنوك، على سبيل المثال، أوقفت الجرائم المالية بسرعة أكبر وبتكلفة أقل بكثير مما كانت عليه من قبل، باستخدام الذكاء الاصطناعي من خلال أتمتة العمليات وإجراء تحليلات «التعلم العميق» متعددة الطبقات. وعلى الرغم من أن البنوك تقدم الآن تقارير عن الأنشطة المشبوهة المتعلقة بغسل الأموال تزيد 20 مرة عما كانت عليه في العام 2012م، إلا أن أدوات الذكاء الاصطناعي سمحت لها بتقليص جيوش الأشخاص الذين توظفهم لتقييم التنبيهات للأنشطة المشبوهة. ذلك لأن التنبيهات الخاطئة انخفضت بنسبة تصل إلى النصف بفضل الذكاء الاصطناعي، ولأن العديد من البنوك أصبحت الآن قادرة على أتمتة العمل البشري الروتيني في تقييم المستندات. وعلى سبيل المثال أيضاً، استطاعت (Paypal) باستخدام الذكاء الاصطناعي خفض تنبيهاتها الخاطئة إلى النصف. كما استطاع (Royal Bank of Scotland) تجنيب عملائه خسائر تزيد على تسعة ملايين دولار، بعد إجراء تجربة لمدة عام مع شركة (Vocalink Analytics)، وهي شركة مدفوعات، لاستخدام الذكاء الاصطناعي في فحص معاملات الشركات الصغيرة بحثاً عن الفواتير المزيفة. كذلك تتيح أدوات الذكاء الاصطناعي للشركات أيضاً إظهار أنماط أو علاقات مشبوهة غير مرئية حتى للخبراء. فعلى سبيل المثال، يمكن للشبكات العصبية الاصطناعية أن تمكّن الموظفين من التنبؤ بالخطوات التالية حتى للمجرمين غير المعروفين الذين اكتشفوا طرقاً للتغلب على مشغلات التنبيه في أنظمة الأمان الثنائية القائمة على القواعد.
وتربط هذه الشبكات العصبية الاصطناعية الملايين من نقاط البيانات من قواعد البيانات التي تبدو غير ذات صلة، والتي تحتوي على كل شيء من منشورات وسائل التواصل الاجتماعي إلى عناوين بروتوكول الإنترنت المستخدمة على شبكات الواي فاي (Wi-Fi) في المطار إلى الممتلكات العقارية أو الإقرارات الضريبية، وتحديد الأنماط.
والخطوة الثانية في تقييم وقياس الفوائد المرجوة من إطلاق برنامج إدارة المخاطر باستخدام الذكاء الاصطناعي هي أن تقوم الشركات بتقييم مسألة إلى أي مدى يتوقع العملاء والسلطات الحكومية أن تكون هذه الشركات في الطليعة.
وحتى إذا لم يصبح ذلك التزاماً تنظيمياً أو قانونياً، فقد تجد الشركات أنه من المفيد لعب دور رائد في استخدام التحليلات المتقدمة حتى يتمكنوا من المشاركة في وضع معايير الصناعة. كما يمكنهم المساعدة في ضمان أمن المشاركين في هذه الصناعة والجهات التنظيمية ومبتكري التكنولوجيا والعملاء، دون المساس بخصوصية الأشخاص وحقوق الإنسان.
أما الخطوة الثالثة، فتتمثل في تقييم المخاطر الداخلية والتخفيف من حدتها.
بيان ذلك أنه بينما يدرس المدراء كيف يمكن للذكاء الاصطناعي مساعدتهم في تحديد الأنشطة الإجرامية، يجب عليهم أيضاً التفكير في مدى ملاءمتها لاستراتيجية الذكاء الاصطناعي الأوسع الخاصة بهم. فلا يجوز إذن إجراء إدارة المخاطر بالذكاء الاصطناعي والكشف عن الجريمة بمعزل عن غيرها ذات الصلة بالاستراتيجية العامة لاستخدامات الذكاء الاصطناعي في المؤسسة.
إن الاختبارات المتكررة على النماذج الأبسط يمكن أن تساعد البنوك في الحد من تأثير الاستنتاجات التي يحتمل أن يتعذر تفسيرها والتي استخلصها الذكاء الاصطناعي، خاصة إذا كان هناك حدث غير معروف لم يتم تدريب النموذج من أجله.
فعلى سبيل المثال، تستخدم البنوك الذكاء الاصطناعي لمراقبة المعاملات وتقليل عدد التنبيهات الخاطئة التي تتلقاها بشأن المعاملات الاحتيالية المحتملة، مثل الأموال التي يتم غسلها لأغراض إجرامية. ويتم اختبار هذه المعاملات مرة أخرى مقابل نماذج مبسطة تستند إلى القواعد لتحديد القيم المتطرفة المحتملة. فقد يتجاهل نموذج الذكاء الاصطناعي، على سبيل المثال، عن طريق الخطأ معاملة كبيرة لغسل الأموال من شأنها أن تؤدي عادةً إلى إطلاق التنبيه في النظام القائم على القواعد إذا حدد هذا النموذج، استناداً إلى بيانات متحيزة، أن هذه المعاملات الكبيرة قد تمت بواسطة أحد العملاء الذين يقيمون في الأحياء الغنية ولا تستحق نفس القدر من الاهتمام. إن استخدام هذا النهج يتيح للشركات تصميم نماذج تعلم آلي أكثر شفافية، حتى لو كان ذلك يعني أنها تعمل ضمن حدود أكثر وضوحاً.
والأهم من ذلك كله، يجب على المدراء تقييم ما إذا كانت تحليلات بيانات شركاتهم كافية للتعامل مع أدوات الذكاء الاصطناعي المعقدة. إذا لم يكن الأمر كذلك، فهم بحاجة إلى تطوير قدرات تحليل البيانات داخلياً للوصول إلى كتلة حرجة من العمليات الآلية والتحليلات المنظمة.
والخطوة الرابعة والأخيرة في قياس وتقييم فوائد ومخاطر استخدامات الذكاء الاصطناعي في الكشف عن الجرائم تكمن في فهم المخاطر الخارجية والاستعداد لها. إذ يمكن أن يؤدي الاستخدام المتزايد لأدوات الذكاء الاصطناعي لمنع الجريمة إلى تعاقب المخاطر الخارجية بطرق غير متوقعة.
ويمكن أن تفقد الشركة مصداقيتها مع الجمهور والجهات التنظيمية وأصحاب المصلحة الآخرين بطرق لا تعد ولا تحصى. فعلى سبيل المثال، إذا كانت هناك تنبيهات خاطئة تحدد الأشخاص عن طريق الخطأ على أنهم «مشبوهون» أو «مجرمون» بسبب التحيز العنصري المدمج عن غير قصد في النظام، أو على النقيض من ذلك إذا غفلوا عن أنشطة إجرامية، مثل تهريب المخدرات التي يقوم بها عملاؤهم أو الأموال الموجهة من البلدان الخاضعة للعقوبات.
وقد يلجأ المجرمون إلى إجراءات أكثر تطرفاً، وربما عنيفة، للتغلب على الذكاء الاصطناعي.
إذ يمكن للعملاء الفرار إلى كيانات أقل مراقبة خارج القطاعات الخاضعة للتنظيم. كما يمكن أن ينشأ خطر أخلاقي إذا أصبح الموظفون يعتمدون بشكل كبير على أدوات مكافحة الجريمة بالذكاء الاصطناعي للقبض على المجرمين نيابة عنهم. ولمنع حدوث ذلك، تحتاج الشركات إلى إنشاء واختبار مجموعة متنوعة من السيناريوهات للأحداث المتتالية الناتجة عن الأدوات القائمة على الذكاء الاصطناعي والمستخدمة لتتبع الأنشطة الإجرامية.
وللتغلب على خبراء غسل الأموال، على سبيل المثال، يجب على البنوك إجراء «اختبارات حية» مع وكلاء نيابة ومحققين سابقين لاكتشاف كيفية التغلب على نظامهم.
ومع النتائج التي يتم الحصول عليها من خلال تحليل السيناريوهات، يمكن للمدراء بعد ذلك مساعدة كبار المدراء التنفيذيين وأعضاء مجلس الإدارة في اتخاذ قرارهم بشأن مدى ارتياحهم لاستخدام الذكاء الاصطناعي في مكافحة الجريمة. ويمكنهم أيضاً إعداد كتيبات لإدارة الأزمات تحتوي على استراتيجيات اتصال داخلية وخارجية حتى يتمكنوا من الاستجابة بسرعة عندما تسوء الأمور بشكل لا مفر منه.
وهكذا، ومن خلال العرض السابق، يبدو جلياً أنه باستخدام الذكاء الاصطناعي، يمكن للشركات تحديد مجالات الجرائم المحتملة، مثل الاحتيال وغسل الأموال وتمويل الإرهاب، بالإضافة إلى بعض الجرائم الأخرى مثل سرقة الموظفين والاحتيال الإلكتروني والفواتير المزيفة، لمساعدة سلطات إنفاذ القانون في ملاحقة هذه الجرائم بكفاءة وفعالية أكبر بكثير. ولكن مع هذه الفوائد تأتي مخاطر يجب تقييمها بصراحة وصدق وشفافية لتحديد ما إذا كان استخدام الذكاء الاصطناعي بهذه الطريقة مناسب استراتيجياً.
والواقع أن هذه المهمة لن تكون سهلة. ولكن التواصل الواضح مع الجهات التنظيمية والعملاء سيسمح للشركات وغيرها من الجهات الراغبة في استخدام الذكاء الاصطناعي لمنع وكشف الجرائم بمواجهة التحديات المختلفة التي يمكن أن تواجهها في هذا الشأن. وسيكون للذكاء الاصطناعي في نهاية المطاف تأثير إيجابي كبير على الحد من الجريمة في العالم، طالما تتم إدارته بشكل جيد.
والسؤال الذي يفرض نفسه الآن: هل يمكن أن نتحدث عن ظهور ما يمكن تسميته «مأمور الضبط القضائي الذكي» بالمقارنة مع «مأمور الضبط القضائي البشري»؟ وبعبارة أخرى، هل يمكن الحديث عن ظهور ما يمكن أن نطلق عليه «الضبطية القضائية الذكية» بالمقابل لمصطلح «الضبطية القضائية البشرية»؟ وإذا كان الأمر كذلك، هل سيستمر الأمر طويلاً في شروح قانون الإجراءات الجنائية في بلادنا العربية، والتي ما زالت تتجاهل – عن عمد أو سهواً وتغافلاً – هذه التطورات التكنولوجية الحديثة، بما لها من انعكاسات وتبعات قانونية؟ وسيراً على ذات التقسيم الفقهي للضبطية إلى ضبطية إدارية وضبطية قضائية، هل يمكن أن نتحدث عن ضبطية إدارية ذكية وضبط قضائية ذكية؟ وفي الختام، هل يمكن أن نشهد تطويراً في الدراسات القانونية يواكب التطور الحاصل في المجال العلمي والتكنولوجي؟ والله من وراء القصد…