فلسفة التشريع في مجال الذكاء الاصطناعي
المستشار الدكتور/ معتز عفيفي
نائب رئيس هيئة قضايا الدولة بجمهورية مصر العربية – الخبير القانوني بحكومة دبي
عضو اللجنة الاستشارية لمركز الإمارات للتحكيم الرياضي
في ظل التطورات التكنولوجية الهائلة التي تشهد كل يوماً تقدماً وإنجازاً جديداً للبشرية، ظهرت أفكار ومحاولات جديدة في مضاهاة العقل البشري في صورة عقل الكتروني تكون له القدرة على الإدراك والفهم واتخاذ القرار المناسب في ظروف معينة، وهو ما يطلق عليه الذكاء الاصطناعي، الذي يحاول التقدم التكنولوجي فيه أن يستغني عن الخدمات البشرية في العديد من الإعمال، وأن يحل محلها جهاز الكتروني ذكي له القدرة على التعامل والفهم واتخاذ القرار تحت أي ظروف.
يحاول العلماء جاهدين أن يكون أداء تقنية الذكاء الاصطناعي في عملها، مشابه في اداء العقل البشري، وأن تكون النتائج متقاربة مع نتائج العقل البشري، بل يحاول العلماء أن تفوق نتائج تقنية الذكاء الاصطناعي نتائج العقل البشري في أدائه! ولكن لا يجب أن نتغافل عن مسألة هامة وهي أن الذكاء الاصطناعي ما هو إلا تقنية مصطنعة لبناء وتطوير خوارزميات تسمح أن الآلة تحاكي بعض خواص البشر العقلية، أي أن تقوم باستخدام المعلومات المتاحة والمخزنة لديها لاستنتاج قواعد وأحكام عامة تكون واضحة لها، ثم تقوم الآلة بتطبيقها على المعلومات الواردة إليها، لتنتهي الى نتائج يفترض فيها أن تكون صحيحة، ولكن تبقي آلة مصطنعة تزيد مخاطرها واشكالاتها عن أعمال العقل البشري الإعجازي الذي يشهد لمن أبدع صُنعه (الله) سبحانه وتعالى بالوحدانية والقدرة المطلقة.
هذا وقد عرفت لائحة المفوضية الاوروبية للذكاء الاصطناعي الصادرة ابريل 2021، في مذكرتها التفسيرية الذكاء الاصطناعي[1] بأنه عبارة عن مجموعة من التقنيات سريعة التطور يمكنها تحقق مجموعة واسعة من الفوائد الاقتصادية والمجتمعية عبر مجموعة كبيرة من القطاعات الصناعية والأنشطة الاجتماعية، من خلال تحسين التنبؤ وتحسين العمليات وتخصيص الموارد وإضفاء الطابع الشخصي على تقديم الخدمات.
وقد عرفت المادة 3 من اللائحة الأوروبية الصادرة ابريل 2021 نظام الذكاء الاصطناعيartificial intelligence system (AI system)، بأنه ” نظام يعني البرنامج الذي تم تطويره بواحد أو أكثر من التقنيات والأساليب المدرجة في الملحق الأول للائحة ويمكنه تحقيق مجموعة معينة من الأهداف التي يحققها الإنسان، عن طريق توليد مخرجات معينة مثل المحتوى والتنبؤات والتوصيات، أو القرارات التي تؤثر على البيئات التي يتفاعلون معها”[2].
وقد عرف قرار المجلس التنفيذي رقم (3) لسنة 2019 بشأن تنظيم التجربة التشغيليّة للمركبة ذاتيّة القيادة في إمارة دبي نظام المحاكاة -باعتباره الذكاء الاصطناعي الذي يشغل المركبة ذاتية القيادة- بأنه نظام إلكتروني ذكي مُصمّم من الشّركة المُصنِّعة للمركبة ذاتيّة القيادة، كوسيلة للتواصُل بين المركبة وعناصر الطريق، يُحقِّق مُستويات مُختلفة من التحكُّم بالمركبة قد تصل إلى قيادتها بدون أي تدخُّل بشري”.
وقد عرف قانون رقم (9) لسنة 2023 بشأن تنظيم تشغيل المركبات ذاتيّة القيادة في إمارة دبي، “نظام القيادة الآلي-باعتباره الذكاء الاصطناعي الذي يشغل المركبة ذاتية القيادة- ” بأنه نظام يتكوّن من مجموعة من الأجهِزة والبرامِج المُعتمدة من الجهة المُصنِّعة للمركبة ذاتيّة القيادة، يُحقِّق التواصُل بين المركبة وعناصر الطّريق، ويتحكّم بحركتِها دون أي تدخل بشري.
ونتيجة لكون الذكاء الاصطناعي خوارزميات مصطنعة متطورة، فأنه لا يخلو من الاشكالات والمخاطر المباشرة وغير المباشرة، فقد ينجم أن تكون هناك أضرار مباشرة تصيب المتعاملين أو الغير من تقنية الذكاء الاصطناعي فنبحث هنا عن المسؤوليات الثلاثة بأنواعها لتحديد المسؤول عن اضرار التصرفات الناتجة من تقنية الذكاء الاصطناعي، وقد لا تحمل الاحكام العامة في المسؤولية المدنية أو الجنائية أو العقدية الأضرار الناتجة عن تقنية الذكاء الاصطناعي، وقد يكون الضرر الناتج من الذكاء الاصطناعي غير مباشر عندما يتم استخدام البيانات والمعلومات التي تحصل عليها تقنية الذكاء الاصطناعي، واستخدمها من قبل مشغلي الذكاء الاصطناعي.
ورغم المخاطر والاضرار التي قد تصيب المتعاملين أو الغير من تقنية الذكاء الاصطناعي، إلا أن الحاجة إليه اصبحت ضرورية وبناء الثقة المطلقة في تلك التقنية الحديثة أصبح واجب على الجميع، ومن ضمنهم الفاعلين في المجال القانوني، الذي يجب عليهم ايجاد إطار قانوني منظم لتقنية الذكاء الاصطناعي، بعيد عن القواعد العامة le droit commun، التي من وجهة نظري خاطبت عقل بشري، وليس عقل اصطناعي له ظروفه الخاصة من حيث تكوينه وعلمه وفهمه واتخاذ قراراته.
لذلك نحن أمام محورين هامين في تقنية الذكاء الاصطناعي تحدثت عنهما المفوضية الأوروبية عندما نشرت في 21 أبريل 2021 مسودة لائحتها التي تحدد القواعد المنظمة المتعلقة بالذكاء الاصطناعي Intelligence Artificielle (AI)[3]، حيث قررت المفوضية” يجمع الذكاء الاصطناعي بين التقنيات سريعة التطور التي تتطلب التوفيق بين هدفين يصعب التوفيق بينهما مسبقًا (1) إنشاء ضوابط للحد من المخاطر و (2) تشجيع التجربة المستمرة للذكاء الاصطناعي”. لذلك يجب علينا عند سن تشريع قانوني للذكاء الاصطناعي (Artificial Intelligence Act) ( Loi sur l’intelligence artificielle)، أن نضع في الاعتبار وضع ضوابط تحد من مخاطر الذكاء الاصطناعي بالإضافة لتحديد مسؤوليته، وألا تكون في ذات الوقت تحد من التطوير والتجربة المستمرة للذكاء الاصطناعي، هنا نضمن النجاح التشريعي لقانون الذكاء الاصطناعي(AIA).
أهداف وضع إطار قانوني للذكاء الاصطناعي.
ذكرت المفوضية الأوروبية في لائحتها المقترحة الاساس القانوني لوضع لائحة الذكاء الاصطناعي، وهو ضمان الأداء السليم للأسواق الداخلية بالاتحاد من خلال وضع قواعد منظمة لعمليات الذكاء الاصطناعي-لا سيما فيما يتعلق بتطوير الذكاء الاصطناعي- واستخدام المنتجات والخدمات التي تستخدم تقنيات الذكاء الاصطناعي أو يتم توفيرها كذكاء اصطناعي مستقل، مع وضع المتطلبات الإلزامية المشتركة بالاتحاد التي تنطبق على تصميم وتطوير بعض أنظمة الذكاء الاصطناعي قبل طرحها في السوق والتي سيتم تفعيلها بشكل أكبر من خلال معايير تقنية، كما تهدف اللائحة إلى تنظيم قانوني لما بعد طرح أنظمة الذكاء الاصطناعي في السوق من خلال ضبط الطرق التي يتم بها طرح الذكاء الاصطناعي من خلال إجراءات تنظم ما بعد طرح الذكاء الاصطناعي. بالإضافة إلى وضع قواعد محددة بشأن حماية الأفراد فيما يتعلق بمعالجة البيانات الشخصية، ولا سيما القيود المفروضة على استخدام أنظمة الذكاء الاصطناعي لتحديد هوية الشخص عن بُعد (الاستدلال البيولوجي).
وفي اعتقادي أن هناك عدة أهداف رئيسية تكمن في ضرورة وضع تقنين تشريعي للذكاء الاصطناعي، وهي كالتالي:
- ضمان التنفيذ السليم للأعمال التي تقوم بها تقنية الذكاء الاصطناعي والحد من مخاطرها واضراراها.
- تحديد المسؤوليات فيما يتعلق بالفاعلين في مجال الذكاء الاصطناعي (مزود/ مقدم خدمة/المستخدم/ الوكيل/ الممثل المعتمد/ الموزع/ السلطة المرخصة/ هيئة المطابقة).
- تحديد المسؤوليات الناتجة عن تنفيذ أعمال الذكاء الاصطناعي بطريقة رتبت اضراراً للمتعاملين أو الغير.
- وضع الثقة في جميع الفاعلين في مجال الذكاء الاصطناعي بتطويره وعدم الحد من التجربة والتطوير المستمر للذكاء الاصطناعي.
- حماية الحقوق الأساسية للإنسان ومن ضمنها بياناته الشخصية وخاصة المتحصلة من الاستدلال البيولوجي (بصمة الصوت أو الوجه أو اليد).
- ضمان وصول الذكاء الاصطناعي لجميع أفراد المجتمع دون تمييز.
طبيعة التشريع الذي ينظم الذكاء الاصطناعي.
يجب أن نعترف ان هناك اشكالية بالفعل في تحديد الذكاء الاصطناعي من الناحية القانونية، فالذكاء الاصطناعي مازال غامض والتطورات تأتي يوماً في مجال الذكاء الاصطناعي[4] ، مما يؤثر على مضمونه الذي يتغير كل وقت، أضف إلى ذلك أن هناك طيف كبير جداً من تعريفات الذكاء الاصطناعي، ويختلف مضمونه قليلاً عند تطبيقه في مجالات مختلفة، ففي المركبات ذاتية القيادة يختلف تعريفه عن قيام روبوت جراح بعملية معينة، عن طائرة ذاتية القيادة.
وفي ضوء توجيهات المفوضية الأوروبية بضرورة التوفيق بين محوري تشجيع التجربة في الذكاء الاصطناعي والحد من المخاطر، وصعوبة تحديد الذكاء الاصطناعي من الناحية القانونية لسرعة تطوره وغموضه واختلاف مضمونة في المجالات المختلفة.
لذلك يجب من وجهة نظرنا تطبيق ما يسمى بالقانون اللين ” Droit mou” الذي يختلف عن القانون الصارم “Droit dur” في مجال الذكاء الاصطناعي، ويترجم هذا إلى عقوبات مخففة نسبياً في مجال المخالفات التي ترتكب من قبل الفاعلين في مجال الذكاء الاصطناعي (المشغل، المصنع، الوكيل، مالك النظام الالكتروني، المستخدم)، وكذلك يجب أن يتضمن أنظمة مرنة تهدف إلى مساءلة الشركات بدلاً من معاقبتها.
كذلك يجب أن يراعى التشريع ضرورة تحديث وتطوير نظام الذكاء الاصطناعي والحث على ذلك، وكذلك تحديد التزامات المصنع والوكيل والمشغل، ومحاولة التضامن في المسؤولية بينهما أو توزيع المسؤوليات أو مسؤولية أحدهم مع حقه في الرجوع على الآخر (المُتسبب الحقيقي عن الأضرار).
وكذلك يجب أن ننتقل إلى القانون المرن Droit flexible [5]في أحكام قانون الذكاء الاصطناعي، حيث يعتبر أحد أهم أسباب وضرورات مرونة القانون هو التطور الهائل في مجالات مبتكرة جديدة لم تكن الإنسانية تعلم بها، فليس لدينا المعلومات والخبرة الكافية التي تتنبأ بالحالات التي يمكن أن تنشأ في المجال المبتكر، كما أن التطوير اليومي للذكاء الاصطناعي بل اللحظي! يصعب علينا حصر الحالات القانونية لهذا المجال المبتكر، لذلك لابد من اعتماد القانون المرن في مجالات الذكاء الاصطناعي. وقد ذكرت الأستاذة Marie Obidzins[6] في أطروحتها للدكتوراة هذا السبب لوجوب المرونة القانونية، فقررت إن عدم اكتمال قواعد القانون يكون مبررًا عندما تختلف الظروف اختلافًا كبيرًا وعندما يكون المجال مبتكرًا، فهنا يجب أن نفكر في مرونة القانون.
ووفقا للأستاذ Jonas Schuet [7] عندما نحاول ان نضع تعريفاً قانونياً للذكاء الاصطناعي في مجال المركبات ذاتية القيادة، يجب أن تكون التعريفات/ النصوص القانونية تتوافر فيها عدة متطلبات، وهي الشمولية والدقة والفهم والعملية والديمومة.
(1) الشمولية Inclusiveness حيث يجب أن تكون النصوص القانونية شاملة دون تفريط أو إنقاص للحالة التي تسعى لتنظيمها، فالتعريف يكون أكثر من اللازم عندما يشمل الحالات التي لا تحتاج إلى تنظيم وفقًا للهدف التنظيمي، ويكون غير شامل عندما لا يتم تضمين الحالات التي كان يجب تضمينها في التشريع.
(2) الدقة Precision حيث يجب أن تكون النصوص القانونية دقيقة، فيجب أن يكون من الممكن تحديد ما إذا كانت حالة معينة تندرج تحت التعريف أم لا بكل سهولة دون حاجة للتأويل أو القياس، فجميع عناصر التعريف يجب أن تُكون مجموعة يستحيل تحقيقها في مجموعة تعريف أخرDichotomy، أي أن شروط التعريف إما أن تكون مستوفاة من عدمه.
(3) فهم التعريف بعباراته والفاظه Comprehensiveness .
يجب أن تكون النصوص القانونية المتعلقة بالذكاء الاصطناعي مفهومة بذاتها من الفاظها وعباراتها الصريحة، دون الالتجاء إلى فهم النص بفحواه أو روحه حيث يجب أن يكون المخاطبون لأحكام النص القانوني المتعلق بالذكاء الاصطناعي قادرين على فهم ما إذا كانت اللوائح قابلة للتطبيق أم لا من أجل ضبط أو تعديل سلوكهم طبقاً لذلك.
يجب أن يفهم النص من المعنى الحالي لعباراته والتي تتوافق مع الاستخدام الطبيعي للغة النص، على الأقل يجب أن نتفق من حيث المبدأ- للتقنية العالية للذكاء الاصطناعي – أن يكون الأشخاص الذين ليس لديهم معرفة متخصصة في الذكاء الاصطناعي قادرين على فهم النص بسهوله وتطبيق احكامه.
(4) قابلية التطبيق Practicability.
يجب أن تكون النصوص القانونية قابلة للتطبيق، حيث يجب أن يكون العموم أو المخاطبون بالقانون من فاعلين في مجال الذكاء الاصطناعي والجهات الحكومية والشركات الخاصة قادرين على فهم النص وكيفية تطبيقه، حيث يجب أن تكون النصوص واضحة أمام القضاة والمحامون لا تشكل أي صعوبة في التطبيق أو تكون غير قابلة للتطبيق أو غامضة في فهمها فهذا ما يفتح بابا للنزاع حول تفسير النصوص وتأويلها، حيث يجب أن يكون تكييف الواقعة مع الأحكام القانونية يسير على القاضي والمحامي، قادرين على تحديد ما إذا كانت الواقعة المنظورة أمامه تندرج تحت هذا القانون أم لا.
(5) الديمومة Permanence.
يجب أن تكون التعريفات القانونية في مجال الذكاء الاصطناعي تتصف بالديمومة. حيث يجب على المشرع عدم استخدام العناصر التي من المحتمل أن تتغير في المستقبل القريب، حتى يتجنب الحاجة إلى التحديث التشريعي كل فترة، فيجب استخدام أحكام مرنة تستوعب التغيرات التي تحدث في مجال الذكاء الاصطناعي.
[1] – Artificial Intelligence (AI) is a fast evolving family of technologies that can bring a wide array of economic and societal benefits across the entire spectrum of industries and social activities. By improving prediction, optimising operations and resource allocation, and personalising service delivery, the use of artificial intelligence can support socially and environmentally beneficial outcomes and provide key competitive advantages to companies and the European economy. Such action is especially needed in high-impact sectors, including climate change, environment and health, the public sector, finance, mobility, home affairs and agriculture.
[2] – Article 3 Definitions For the purpose of this Regulation, the following definitions apply:1. artificial intelligence system’ (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with.
[3] – RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL ÉTABLISSANT DES RÈGLES HARMONISÉES CONCERNANT L’INTELLIGENCE ARTIFICIELLE (LÉGISLATION SUR L’INTELLIGENCE ARTIFICIELLE) ET MODIFIANT CERTAINS ACTES LÉGISLATIFS DE L’UNION {SEC(2021) 167 final} – {SWD(2021) 84 final} – {SWD(2021) 85 final}, Bruxelles, le 21.4.2021 COM(2021) 206 final 2021/0106 (COD).
[4] – Jonas Schuet, A Legal Definition of AI, Goethe University Frankfurt, September 4, 2019, P2.
[5] – راجع مؤلفنا المرونة والقانون، دار النهضة العربية، طبعة 2022.
[6] – Marie Obidzins, Economie d’un droit flexible, Thèse de doctorat en Sciences économiques,Soutenue en 2006 à Nancy 2 .
[7] – Jonas Schuet, A Legal Definition of AI, Goethe University Frankfurt, September 4, 2019, P2.