MarocDroit  -  موقع العلوم القانونية
plateforme des décideurs juridiques - Platform of Legal Decision-Makers



المسؤولية الإدارية عن أضرار الذكاء الاصطناعي: قراءة في قصور الأسس التقليدية وإمكانات التجديد التشريعي – دراسة مقارنة

     

إحسان غازي
باحثة في القانون الخاص
جامعة القاضي عياض-مراكش



الملخص:

تشهد الإدارة العمومية تحولات عميقة بفعل إدماج تقنيات الذكاء الاصطناعي في تدبير المرافق العامة واتخاذ القرار الإداري، وهو ما يثير إشكالات قانونية دقيقة تتعلق بإسناد المسؤولية عن الأضرار الناتجة عن الأنظمة المؤتمتة. فالنظرية التقليدية للمسؤولية الإدارية، القائمة على فكرة الخطأ الشخصي والعلاقة السببية المباشرة، تبدو اليوم غير كافية لاستيعاب تعقيد القرارات الخوارزمية وطابعها غير الشفاف.
تهدف هذه الدراسة إلى تحليل مدى قدرة القواعد التقليدية للمسؤولية الإدارية في القانون المغربي على استيعاب تحديات الذكاء الاصطناعي، من خلال الوقوف على مظاهر القصور التشريعي والعملي، خاصة في ظل غياب إطار قانوني خاص ينظم هذه التقنية. كما تسعى إلى إبراز حدود الاعتماد على القواعد العامة، سواء في إثبات الخطأ أو في تحديد العلاقة السببية، في سياق يتسم بتعدد المتدخلين وتعقد البنية التقنية للأنظمة الذكية.
وتعتمد الدراسة مقاربة مقارنة، من خلال تحليل النموذج الأمريكي القائم على المرونة القضائية والمسؤولية التقصيرية، مقابل النموذج الصيني الذي يقوم على تنظيم استباقي صارم ورقابة مؤسساتية مكثفة. ويُظهر هذا التحليل تبايناً في فلسفة إسناد المسؤولية بين منطق السوق ومنطق الضبط.
وتخلص الدراسة إلى ضرورة إعادة بناء أسس المسؤولية الإدارية في المغرب، عبر تبني نموذج مختلط يجمع بين المسؤولية القائمة على الخطأ والمسؤولية بدون خطأ، مع تكريس مبادئ الشفافية الخوارزمية وتعزيز آليات الحكامة الرقمية، بما يضمن تحقيق التوازن بين حماية حقوق الأفراد وتشجيع الابتكار.
الكلمات المفتاحية
الذكاء الاصطناعي؛ المسؤولية الإدارية؛ الخطأ الإداري؛ القرار الإداري المؤتمت؛ الشفافية الخوارزمية؛ العلاقة السببية؛ المسؤولية بدون خطأ؛ حكامة الذكاء الاصطناعي؛ القانون المقارن.

مقدمـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــة
 
يشهد العمل الإداري في السنوات الأخيرة تحولا نوعيا عميقا بفعل إدماج تقنيات الذكاء الاصطناعي في تدبير المرافق العمومية، سواء على مستوى اتخاذ القرار أو على مستوى تنفيذ الخدمات. ولم يعد الذكاء الاصطناعي مجرد أداة تقنية مساعدة تشتغل في هامش الفعل الإداري، بل أضحى في العديد من الحالات عنصرا فاعلا في صلب العملية الإدارية، يساهم في توجيه القرار، بل وقد ينفرد أحيانا بإنتاجه في إطار ما بات يعرف بالقرار الإداري المؤتمت. وهو ما يعكس انتقال الإدارة من نمط تقليدي قائم على التدخل البشري المباشر، إلى نمط رقمي يعتمد على المعالجة الخوارزمية للمعطيات.
ويكتسي هذا التحول أهمية خاصة في سياق سعي الإدارة إلى تحقيق النجاعة والسرعة في الأداء، وترشيد الموارد، وتعزيز جودة الخدمات العمومية. غير أن هذه المكاسب التقنية لا تخلو من مخاطر قانونية حقيقية، لعل أبرزها تلك المرتبطة بإمكانية حدوث أضرار نتيجة أخطاء خوارزمية أو اختلالات في معالجة البيانات، أو حتى بسبب غموض منطق اشتغال الأنظمة الذكية، وهو ما يثير إشكالات دقيقة على مستوى تحديد المسؤولية وإسنادها.
ذلك أن نظرية المسؤولية الإدارية، كما استقر عليها الاجتهاد القضائي والفقهي، تقوم في جوهرها على فكرة الخطأ المنسوب إلى الإدارة أو أحد موظفيها، في إطار علاقة سببية واضحة تربط هذا الخطأ بالضرر الحاصل. وهي نظرية نشأت وتطورت في سياق تقليدي، يفترض حضور العنصر البشري باعتباره الفاعل المركزي في اتخاذ القرار الإداري. غير أن إدماج أنظمة ذكية تتسم بقدر من الاستقلالية النسبية، وتشتغل وفق منطق خوارزمي معقد، يجعل من الصعب أحياناً تحديد مصدر الخطأ، بل ويؤدي إلى تمييع العلاقة بين الفاعل والنتيجة، بما يكشف عن حدود هذه النظرية في استيعاب التحولات الراهنة.
ويزداد هذا الإشكال تعقيدا إذا ما استحضرنا أن الذكاء الاصطناعي لا يعمل في فراغ، بل هو نتاج تفاعل بين عدة أطراف: الإدارة المستعملة للنظام، والمطورون، ومزودو البيانات، وهو ما يفضي إلى تعدد مراكز اتخاذ القرار وتداخل المسؤوليات. كما أن الطابع غير الشفاف لبعض الخوارزميات، خاصة تلك المعتمدة على التعلم العميق، يطرح تحديا إضافيا يرتبط بصعوبة تفسير القرار الإداري، وهو ما قد يمس بمبادئ أساسية في القانون الإداري، من قبيل التعليل، والمشروعية، وقابلية القرار للطعن.
وعلى هذا الأساس، لم يعد النقاش القانوني يقتصر على مدى ملاءمة القواعد التقليدية، بل امتد ليشمل ضرورة إعادة بناء الإطار المفاهيمي للمسؤولية الإدارية برمته، بما يستجيب لخصوصيات البيئة الرقمية. فالمسألة لم تعد مجرد تكييف بسيط، بل أصبحت تقتضي تصوراً جديداً يأخذ بعين الاعتبار طبيعة المخاطر التكنولوجية، ويؤسس لتوازن دقيق بين متطلبات الابتكار وضمان حماية حقوق الأفراد.
ومن ثم، يطرح هذا الموضوع إشكالية مركزية مفادها: إلى أي حد يمكن للقواعد التقليدية للمسؤولية الإدارية أن تستوعب الأضرار الناتجة عن الذكاء الاصطناعي؟ وإلى أي مدى يظل تدخل المشرع ضروريا لإعادة بناء هذه المسؤولية في ضوء التحولات الرقمية، مع الاستفادة من التجارب المقارنة التي سلكت مسارات مختلفة بين المرونة التنظيمية والضبط الصارم؟
وتتفرع عن هذه الإشكالية مجموعة من التساؤلات الفرعية، من قبيل: ما هو الأساس القانوني لإسناد المسؤولية في حالة القرار الإداري المؤتمت؟ وهل يمكن تصور مسؤولية بدون خطأ في المجال الرقمي؟ وما حدود توزيع المسؤولية بين الفاعلين العموميين والخواص؟ ثم إلى أي حد يمكن استلهام النماذج المقارنة دون الإخلال بخصوصيات النظام القانوني المغربي؟
 
أولا: اختلال الأسس التقليدية للمسؤولية الإدارية في ظل الذكاء الاصطناعي
 
إن أول ما يثير الانتباه في هذا السياق هو أن مفهوم الخطأ الإداري لم يعد قابلا للاحتواء ضمن التصور الكلاسيكي المرتبط بالسلوك البشري، ذلك أن هذا التصور كان يفترض وجود فاعل إداري محدد، يمكن نسبة الفعل أو الامتناع إليه بشكل مباشر. غير أن بروز القرار الإداري المؤتمت، القائم على معالجة خوارزمية لمعطيات ضخمة، أفرز وضعا جديدا يتسم بتراجع التدخل البشري المباشر في لحظة اتخاذ القرار، مقابل تصاعد دور الأنظمة الذكية التي تشتغل وفق منطق حسابي معقد.
وعليه، فإن الخطأ، إن وجد، لم يعد يختزل في تصرف موظف عمومي، بل قد يكون كامنا في مراحل سابقة على اتخاذ القرار، كمرحلة تصميم النظام، أو اختيار الخوارزمية، أو إدخال البيانات ومعالجتها. وهو ما يعني أن الخطأ يتحول من كونه واقعة آنية مرتبطة بسلوك محدد، إلى بنية تقنية ممتدة في الزمن، يصعب تحديد نقطة نشوئها بدقة. وهذا التحول يضعف من قدرة المفهوم التقليدي للخطأ الإداري على استيعاب هذا النمط الجديد من الأفعال.
ويفضي هذا الوضع إلى ما يمكن تسميته بالانتقال من "الخطأ الشخصي" إلى "الخطأ النظامي"، حيث يصبح مصدر الضرر موزعا بين عدة فاعلين، تتداخل أدوارهم بشكل يجعل من الصعب رسم حدود واضحة للمسؤولية. فالإدارة، وإن كانت هي المستعملة للنظام، قد لا تكون هي من صممه أو طوره، كما أن الشركة المطورة قد تدفع بكون النظام يعمل وفق معطيات وفرتها الإدارة نفسها، في حين قد تتذرع الجهات المزودة للبيانات بكون دورها يقتصر على توفير المادة الخام دون التدخل في المعالجة. هذا التداخل يفرز نوعا من "تشظي المسؤولية"، ويجعل من إسنادها إلى جهة واحدة أمرا إشكاليا.
ولا يقف الأمر عند هذا الحد، بل يمتد ليشمل الركن الثاني في المسؤولية، وهو العلاقة السببية، التي تشكل في ظل الذكاء الاصطناعي إحدى أكثر النقاط تعقيدا. فإثبات أن الضرر ناتج عن خلل محدد في نظام ذكي يقتضي فهما تقنيا دقيقا لكيفية اشتغال هذا النظام، وهو أمر يتجاوز في كثير من الأحيان قدرات المتقاضي العادي، بل وحتى القضاء نفسه. كما أن الطبيعة الاحتمالية لبعض الخوارزميات تجعل من الصعب الجزم بعلاقة سببية مباشرة، وهو ما يهدد أحد الأعمدة الأساسية للمسؤولية الإدارية في صورتها التقليدية.
ويزداد هذا الإشكال حدة مع ما يعرف بالطابع "الصندوق الأسود" لأنظمة الذكاء الاصطناعي، خاصة تلك المعتمدة على التعلم العميق، حيث يصدر القرار دون إمكانية تفسير المسار المنطقي الذي أدى إليه. وهذا الغموض لا يطرح فقط إشكالا تقنيا، بل يمس في العمق مبادئ قانونية راسخة، من قبيل مبدأ الشفافية، وواجب تعليل القرارات الإدارية، وحق المرتفق في فهم الأساس الذي بني عليه القرار الذي يمسه. فقرار لا يمكن تفسيره، هو في جوهره قرار يصعب مراقبته، مما يضعف الرقابة القضائية ويهدد ضمانات المشروعية.
ومن زاوية أعمق، يمكن القول إن الذكاء الاصطناعي يكشف عن تحول في طبيعة المخاطر التي تواجهها الإدارة، حيث لم تعد هذه المخاطر مرتبطة فقط بأخطاء بشرية فردية، بل أصبحت ذات طابع تقني-نظامي، يتسم بالتعقيد والامتداد، وهو ما يستدعي إعادة النظر في الأسس التي تقوم عليها المسؤولية الإدارية، سواء من حيث مفهوم الخطأ، أو من حيث قواعد الإثبات، أو حتى من حيث توزيع عبء المسؤولية بين مختلف المتدخلين.
وبذلك، يتضح أن القواعد التقليدية للمسؤولية الإدارية لم تعد قادرة، في صورتها الحالية، على الإحاطة الكاملة بإشكالات الذكاء الاصطناعي، الأمر الذي يفرض التفكير في تطويرها، ليس فقط عبر التكييف، بل عبر إعادة بناء مفاهيمها الأساسية بما ينسجم مع التحولات الرقمية العميقة.
ثانيا: محدودية الإطار القانوني المغربي في مواجهة تحديات الذكاء الاصطناعي
بالرجوع إلى التشريع المغربي، يلاحظ بوضوح أن المنظومة القانونية الوطنية لم تواكب بعد التحولات المتسارعة التي يفرضها إدماج الذكاء الاصطناعي في العمل الإداري، إذ يغيب إلى حدود الساعة إطار تشريعي خاص ينظم بشكل صريح مسألة المسؤولية عن الأضرار الناتجة عن الأنظمة الذكية، سواء في المجال الإداري أو في غيره من المجالات. ويترتب عن هذا الفراغ التشريعي أن القضاء الإداري يظل ملزما بالاحتكام إلى القواعد العامة للمسؤولية، كما هي مؤطرة في الاجتهاد القضائي ومبادئ القانون الإداري، سواء تعلق الأمر بالمسؤولية القائمة على الخطأ، أو في بعض الحالات الاستثنائية، بالمسؤولية بدون خطأ، لاسيما في إطار نظرية المخاطر.
وفي هذا السياق، يمكن من حيث المبدأ مساءلة الإدارة على أساس مسؤوليتها عن سير المرفق العام، باعتبارها الجهة التي تتخذ قرار اعتماد النظام الذكي وتفعيله داخل بنيتها التنظيمية. فقد ينسب إليها الخطأ في حالة سوء اختيار النظام، أو عدم التأكد من ملاءمته للوظيفة الإدارية، أو الإخلال بواجب المراقبة والتتبع. غير أن هذا التصور، رغم انسجامه مع القواعد التقليدية، يظل مشروطا بإثبات عناصر المسؤولية، وعلى رأسها الخطأ، وهو ما يطرح صعوبات عملية جمة في بيئة تقنية معقدة.
ومن جهة أخرى، قد تمتد المسؤولية إلى الفاعلين الخواص، خاصة الشركات المطورة أو المزودة للأنظمة الذكية، في إطار قواعد المسؤولية المدنية، ولا سيما تلك المرتبطة بعيوب المنتج أو الإخلال بالتزامات السلامة. إلا أن هذا الامتداد يثير بدوره إشكالات تتعلق بتحديد نطاق الالتزامات التعاقدية، وحدود مسؤولية المنتج في مواجهة الإدارة والمرتفقين، فضلا عن تعقيد مساطر الإثبات في هذا المجال.
غير أن هذا البناء القانوني، القائم على توزيع المسؤولية بين الإدارة والفاعلين الخواص، يظل محدودا من الناحية العملية، ذلك أن إثبات الخطأ في سياق يتسم بالتعقيد الخوارزمي وتعدد مستويات التدخل يشكل عبئا ثقيلا على عاتق المتضرر. فالمتضرر يجد نفسه أمام نظام تقني مغلق نسبيا، يتطلب تفكيكه خبرة تقنية متقدمة، مما يخلق نوعا من عدم التوازن بين أطراف النزاع، ويضعف من فعالية الحماية القضائية.
كما أن غياب قواعد خاصة بالأنظمة عالية المخاطر، على غرار ما هو معمول به في بعض التشريعات المقارنة، يجعل من الصعب تفعيل آليات المسؤولية بدون خطأ بشكل منظم وواضح. ذلك أن نظرية المخاطر، رغم حضورها في القضاء الإداري المغربي، لم تطور بعد بالشكل الذي يسمح باستيعاب المخاطر التكنولوجية الجديدة، وخاصة تلك الناتجة عن القرارات المؤتمتة التي قد تمس حقوقا أساسية للأفراد.
ويزداد هذا الوضع تعقيدا مع تعدد المتدخلين في إنتاج وتشغيل النظام الذكي، وتداخل أدوارهم بشكل يصعب معه تحديد المسؤولية بدقة، مما يؤدي في كثير من الحالات إلى ما يمكن وصفه بـ "تشتت المسؤولية"، حيث تتوزع الأدوار دون أن تترتب عنها مساءلة واضحة، وهو ما قد يفرغ مبدأ المسؤولية من محتواه الحمائي.
أما القانون رقم 09.08 المتعلق بحماية الأشخاص الذاتيين تجاه معالجة المعطيات ذات الطابع الشخصي، فرغم أهميته في تكريس بعض الضمانات المرتبطة بحماية البيانات، فإنه يظل قاصرا عن الإحاطة الشاملة بإشكالية الذكاء الاصطناعي، إذ يركز أساسا على جانب المعالجة وحماية الخصوصية، دون أن يمتد بشكل صريح إلى تنظيم المسؤولية عن القرارات الإدارية المؤتمتة أو الأضرار الناتجة عنها. كما أن مقتضياته، وإن كانت تؤسس لرقابة من طرف اللجنة الوطنية لمراقبة حماية المعطيات ذات الطابع الشخصي، لا توفر إطارا متكاملا لمعالجة الإشكالات المرتبطة بالشفافية الخوارزمية أو قابلية تفسير القرار الإداري.
وعلى ضوء ما سبق، يتبين أن الإطار القانوني المغربي، في صورته الحالية، يظل عاجزا عن مواكبة التعقيد الذي تطرحه تقنيات الذكاء الاصطناعي، وهو ما يستدعي تدخلا تشريعيا يعيد النظر في قواعد المسؤولية الإدارية، سواء من حيث أسسها أو من حيث آليات تفعيلها، بما يضمن تحقيق حماية فعالة للمتضررين، دون الإخلال بمتطلبات التطور التكنولوجي.
 
ثالثا: المقاربة الأمريكية 
 
في الولايات المتحدة، لا يوجد إلى حدود الساعة إطار قانوني موحد وشامل ينظم الذكاء الاصطناعي، بل يتم التعامل معه ضمن منظومة قانونية تتسم بالتعدد والتجزئة، حيث تخضع تطبيقاته لقواعد المسؤولية التقصيرية (Tort Law)، وقوانين حماية المستهلك، إلى جانب تدخلات تنظيمية قطاعية تختلف باختلاف المجال (كالصحة، والنقل، والتمويل). ويعكس هذا الوضع طبيعة النظام القانوني الأمريكي، القائم على البراغماتية والاعتماد الكبير على دور القضاء في تطوير القواعد القانونية.
وتتميز هذه المقاربة بمرونة واضحة، إذ يضطلع القضاء بدور محوري في تكييف القواعد التقليدية مع المستجدات التكنولوجية، من خلال توسيع مفاهيم قائمة مثل واجب الحيطة (Duty of Care)، الذي يلزم الفاعلين باتخاذ التدابير اللازمة لتفادي إلحاق الضرر بالغير، وكذا المسؤولية عن المنتج (Product Liability)، التي تحمل المصنع أو المطور مسؤولية الأضرار الناتجة عن عيوب في التصميم أو التصنيع أو حتى في التحذير من المخاطر.
وفي سياق الذكاء الاصطناعي، تميل المحاكم الأمريكية إلى تحميل الشركات المطورة أو المشغلة للأنظمة الذكية مسؤولية الأضرار، متى ثبت وجود إهمال في تصميم الخوارزمية، أو قصور في اختبارها، أو عدم توقع الاستخدامات الخطرة المحتملة. كما يتم أحيانا توسيع نطاق المسؤولية ليشمل ما يعرف بـ "الإهمال في الإشراف" (Negligent Supervision)، خاصة عندما يتعلق الأمر بأنظمة تتطلب قدرا من المراقبة البشرية.
غير أن هذا البناء القضائي، رغم قدرته على التكيف السريع مع الابتكار، يظل قائما على منطق لاحق للضرر، أي أنه لا يتدخل إلا بعد وقوعه، وهو ما يحد من فعاليته في الوقاية من المخاطر. كما أن الاعتماد الكبير على الاجتهاد القضائي يجعل من تحديد المسؤولية أمرا نسبيا، قد يختلف من محكمة إلى أخرى ومن ولاية إلى أخرى، مما يطرح إشكالا حقيقيا على مستوى الأمن القانوني.
ويزداد هذا الإشكال وضوحا في ظل غياب معايير موحدة لتقييم الخطأ في الأنظمة الذكية، حيث يبقى تقدير ما إذا كان المطور قد احترم واجب الحيطة رهيناً بظروف كل حالة، وبمدى اقتناع القاضي بالمعايير التقنية المقدمة أمامه. كما أن الطابع المعقد للذكاء الاصطناعي يجعل من الخبرة التقنية عنصرا حاسما في النزاع، وهو ما قد يؤدي إلى تفاوت في النتائج القضائية.
ومن زاوية نقدية، يمكن القول إن النموذج الأمريكي، رغم نجاحه في خلق بيئة محفزة للابتكار، يعاني من نوع من "اللايقين القانوني"، حيث تظل القواعد غير مستقرة، وتخضع لتطورات متسارعة قد لا تواكب دائما حاجيات الحماية القانونية للأفراد. كما أن غياب تنظيم استباقي شامل يترك فراغا في مواجهة المخاطر المستقبلية، خاصة في المجالات الحساسة التي قد تمس الحقوق الأساسية.
ومع ذلك، لا يمكن إنكار أن هذه المرونة تشكل في حد ذاتها مصدر قوة، إذ تسمح للنظام القانوني الأمريكي بالتكيف مع التحولات التكنولوجية دون الحاجة إلى تدخل تشريعي ثقيل وبطيء، وهو ما يطرح تساؤلا مهما بالنسبة للتجارب المقارنة، ومنها المغرب: هل ينبغي تغليب منطق المرونة القضائية، أم الاتجاه نحو تأطير تشريعي مسبق أكثر صرامة؟
 
رابعا: المقاربة الصينية 
 
على خلاف النموذج الأمريكي الذي يقوم على المرونة القضائية والتدخل اللاحق، تتجه الصين نحو تبني مقاربة تنظيمية صارمة ذات طابع استباقي، تقوم على تدخل الدولة بشكل مباشر ومكثف في تأطير استخدامات الذكاء الاصطناعي. ويعكس هذا التوجه تصورا مختلفا لدور القانون، حيث لا يُنظر إليه فقط كآلية لمعالجة النزاعات بعد وقوعها، بل كأداة للضبط المسبق والتحكم في المخاطر التكنولوجية قبل تحققها.
وفي هذا الإطار، اعتمدت الصين مجموعة من النصوص التنظيمية التي تفرض على الجهات المطورة والمشغلة للأنظمة الذكية الالتزام بجملة من الواجبات، من بينها تسجيل الخوارزميات لدى الجهات المختصة، والخضوع لآليات المراقبة والتقييم، خاصة عندما يتعلق الأمر بالأنظمة ذات التأثير الواسع على المجتمع، كخوارزميات التوصية أو الأنظمة المرتبطة باتخاذ القرار. كما يتم فرض التزامات تتعلق بالشفافية النسبية، ومنع التمييز الخوارزمي، وضمان أمن البيانات.
وتتميز هذه المقاربة بوضوح نسبي في إسناد المسؤولية، حيث يتم تحميل الجهة المشغلة للنظام الذكي المسؤولية الأساسية عن الأضرار التي قد تنجم عن استخدامه، باعتبارها الطرف الذي يملك سلطة التحكم الفعلي في تشغيله وتوجيهه. ويقترن هذا الإسناد بآليات رقابة مسبقة، تجعل من المسؤولية ليست فقط أداة جزائية لاحقة، بل وسيلة وقائية تهدف إلى الحد من المخاطر قبل تحققها. وهو ما يمنح هذا النموذج درجة عالية من الفعالية في ضبط المجال الرقمي وتقليص حالات الانفلات التقني.
غير أن هذه الصرامة التنظيمية، رغم ما توفره من وضوح واستباقية، تثير جملة من التساؤلات ذات الطابع القانوني والفلسفي، خاصة فيما يتعلق بحدود تدخل الدولة في المجال الرقمي. فتكثيف الرقابة على الخوارزميات، وفرض آليات تسجيل وتتبع دقيقة، قد يؤدي إلى تقييد حرية الابتكار، وإبطاء وتيرة التطور التكنولوجي، لاسيما بالنسبة للفاعلين الخواص. كما أن هذه المقاربة تطرح إشكاليات مرتبطة بحماية الحقوق والحريات الفردية، في ظل إمكانية توظيف الذكاء الاصطناعي كأداة للرقابة الواسعة.
ومن زاوية تحليلية، يمكن القول إن النموذج الصيني يقوم على منطق "الضبط مقابل الاستقرار"، حيث يتم تغليب متطلبات النظام العام والتحكم في المخاطر على حساب هامش الحرية الممنوح للفاعلين. وهو اختيار يعكس خصوصية السياق السياسي والقانوني الصيني، لكنه يطرح، في الآن ذاته، سؤال قابلية نقله إلى أنظمة قانونية أخرى، خاصة تلك التي تقوم على حماية الحقوق الفردية وضمان التوازن بين السلطة والحرية.
 
وبذلك، يقدم النموذج الصيني تصورا مغايرا للمسؤولية عن أضرار الذكاء الاصطناعي، يقوم على التحديد المسبق للمسؤوليات، وربطها بآليات رقابة فعالة، وهو ما يجعله نموذجا مهما في التحليل المقارن، وإن كان يتطلب قدرا من الحذر عند التفكير في استلهامه داخل سياقات قانونية مختلفة، ومنها السياق المغربي.
 
خامسا: إعادة بناء المسؤولية الإدارية في المغرب
 
إن المقارنة بين النماذج القانونية السالفة تكشف بوضوح أن التشريع المغربي يقف اليوم أمام لحظة مفصلية، تفرض عليه تجاوز منطق التكيّف المحدود مع القواعد التقليدية، والانتقال نحو تدخل تشريعي واع يعيد بناء قواعد المسؤولية الإدارية بما يتلاءم مع خصوصيات الذكاء الاصطناعي. ولا يتعلق الأمر، في هذا السياق، بمجرد سد فراغ قانوني عابر، بل بإعادة النظر في الأسس المفاهيمية التي تقوم عليها المسؤولية ذاتها، في ظل تحول طبيعة الفعل الإداري من نشاط بشري مباشر إلى عملية تقنية مركبة.
 
ذلك أن التجربة الأمريكية أبانت عن أهمية المرونة القضائية وقدرتها على مواكبة الابتكار، لكنها كشفت في المقابل عن حدود الاعتماد المفرط على القضاء في ضمان الأمن القانوني. في حين أبرزت التجربة الصينية فعالية التدخل التنظيمي الاستباقي في ضبط المخاطر، لكنها أثارت تساؤلات جدية حول كلفته على مستوى الحريات والابتكار. وبين هذين النموذجين، يجد المشرع المغربي نفسه مدعوا إلى بناء مقاربة وسطى، تستفيد من مزايا النموذجين دون أن تنقل اختلالاتهما.
 
وفي هذا الإطار، يبدو من الضروري تبني نموذج مختلط للمسؤولية، يجمع بين المسؤولية القائمة على الخطأ، باعتبارها الآلية التقليدية للمساءلة، والمسؤولية بدون خطأ، خاصة فيما يتعلق بالأنظمة التي تنطوي على مخاطر عالية أو التي يصعب فيها إثبات الخطأ بسبب تعقيدها التقني. فمثل هذا التوجه من شأنه أن يخفف عبء الإثبات عن المتضرر، ويضمن حماية أكثر فعالية، دون أن يلغي دور الخطأ كمعيار للمساءلة في الحالات التي يكون فيها قابلا للإثبات.
 
كما يفرض هذا التحول تكريس مبدأ الشفافية الخوارزمية كأحد المبادئ المؤطرة للعمل الإداري الرقمي، ليس فقط باعتباره ضمانة تقنية، بل كحق قانوني للأفراد في فهم الأسس التي بنيت عليها القرارات التي تمس مراكزهم القانونية. فالشفافية، في هذا السياق، ليست مجرد قيمة أخلاقية، بل شرط لازم لتفعيل الرقابة القضائية، وضمان احترام مبدأ المشروعية، وتكريس الحق في الدفاع.
 
وإلى جانب ذلك، يبرز إحداث هيئة وطنية مختصة بحكامة الذكاء الاصطناعي كخيار مؤسساتي ضروري، بالنظر إلى الطبيعة التقنية المعقدة لهذا المجال. إذ من شأن هذه الهيئة أن تضطلع بوظائف متعددة، تتراوح بين وضع المعايير التقنية والقانونية، ومراقبة الامتثال، وتقييم المخاطر، وتقديم الخبرة اللازمة للقضاء والإدارة على حد سواء. كما يمكن أن تشكل فضاء لتنسيق السياسات العمومية المرتبطة بالذكاء الاصطناعي، بما يضمن انسجامها وتكاملها.
 
غير أن نجاح هذا الورش التشريعي والمؤسساتي يظل رهينا بتبني مقاربة شمولية، لا تقتصر على تعديل النصوص القانونية، بل تمتد لتشمل تأهيل الفاعلين، وتعزيز الثقافة الرقمية داخل الإدارة، وتطوير قدرات القضاء في فهم القضايا التقنية المعقدة. فالقانون، مهما بلغ من الدقة، يظل عاجزا عن تحقيق أهدافه إذا لم يجد بيئة مؤسساتية قادرة على تفعيله.
 
وعليه، فإن إعادة بناء المسؤولية الإدارية في ظل الذكاء الاصطناعي لا ينبغي أن تفهم كاستجابة ظرفية لتطور تقني، بل كمشروع إصلاحي عميق، يعيد التوازن بين السلطة والتكنولوجيا، ويؤسس لنموذج إداري جديد، قوامه النجاعة، والمسؤولية، وحماية الحقوق في آن واحد.
 
خـــــاتمــــــــــــــــــــــــــــــــــــــــــــــــــة
 
إن التحولات التي أفرزها إدماج الذكاء الاصطناعي في العمل الإداري لا يمكن اختزالها في مجرد تطور تقني عابر، بل تعكس انتقالا عميقا في بنية القرار الإداري ذاته، وفي طبيعة المخاطر التي تحيط به. وهو ما يجعل من الصعب الاستمرار في الاحتكام إلى نموذج تقليدي للمسؤولية الإدارية، تأسس في سياق كان فيه الفعل الإداري مرتبطاً بشكل حصري بالإرادة البشرية المباشرة.
وقد أبان التحليل، من خلال استحضار التجارب المقارنة، أن النماذج القانونية المعاصرة تتأرجح بين منطقين: منطق المرونة القضائية كما هو الشأن في النموذج الأمريكي، ومنطق الضبط الاستباقي كما يجسده النموذج الصيني. غير أن أيا من هذين النموذجين، في صورته الخالصة، لا يبدو قادرا على تقديم حل متوازن يمكن نقله كما هو إلى السياق المغربي، نظراً لاختلاف البنية القانونية والمؤسساتية.
وانطلاقا من ذلك، فإن الأطروحة التي يمكن الدفاع عنها في هذا الإطار تتمثل في أن المسؤولية الإدارية في زمن الذكاء الاصطناعي لم تعد مسؤولية عن "فعل إداري" بالمعنى التقليدي، بل أصبحت مسؤولية عن "نظام إداري تقني"، بما يقتضي الانتقال من منطق إسناد الخطأ إلى شخص، إلى منطق تحميل تبعة المخاطر لنظام بكامله. وهو ما يستدعي إعادة تأسيس المسؤولية على أساس مزدوج، يجمع بين منطق الخطأ حيث يكون قابلا للإثبات، ومنطق المخاطر حيث يستحيل ذلك أو يصبح غير ذي جدوى عملية.
وبعبارة أخرى، لم يعد السؤال المركزي هو: "من أخطأ؟"، بل أصبح: "من يتحمل تبعة المخاطر التي أفرزها تشغيل هذا النظام؟". وهو تحول مفاهيمي عميق، من شأنه أن يعيد توجيه نظرية المسؤولية الإدارية من وظيفة زجرية تقوم على العقاب، إلى وظيفة وقائية-تعويضية تقوم على توزيع المخاطر وضمان حماية المتضررين.
كما أن تكريس مبدأ الشفافية الخوارزمية، في هذا السياق، لا ينبغي أن يُفهم كخيار تقني أو تنظيمي فقط، بل كامتداد طبيعي لمبدأ المشروعية، وشرط أساسي لقيام رقابة قضائية فعالة. فلا يمكن الحديث عن مسؤولية دون إمكانية فهم القرار، ولا عن حماية قانونية دون قابلية هذا القرار للتفسير والطعن.
وعليه، فإن مستقبل المسؤولية الإدارية في المغرب يمر حتما عبر إرساء نموذج قانوني جديد، يتجاوز ثنائية الخطأ وعدم الخطأ، ويؤسس لمنطق "المسؤولية عن المخاطر التكنولوجية"، في إطار مقاربة متوازنة تستحضر خصوصيات البيئة الرقمية، دون أن تتخلى عن الضمانات الأساسية لدولة القانون.
إن الرهان الحقيقي، في نهاية المطاف، لا يكمن فقط في مواكبة الذكاء الاصطناعي، بل في القدرة على تأطيره قانونيا دون فقدان السيطرة عليه، واستثماره إداريا دون التفريط في حماية الحقوق، وهو توازن دقيق، لكنه يشكل جوهر التحدي القانوني في الزمن الرقمي.
 
 
قائمة المراجع العلمية
أولا: المراجع باللغة العربية
أ) الكتب والمؤلفات
السباعي عدنان، المسؤولية القانونية عن أخطاء الذكاء الاصطناعي في التشريع المغربي. مجلة القانون والأعمال الدولية، 2024.
خزيمية محمد، المسؤولية المدنية عن أضرار الذكاء الاصطناعي: دراسة مقارنة. جامعة العربية الأمريكية، جنين، 2023.
شداد عبير، المسؤولية المدنية عن الأضرار الناجمة عن الذكاء الاصطناعي. كلية الحقوق والعلوم السياسية، جامعة غرداية، 2023.
عبد الرحمن دعاء، الذكاء الاصطناعي بين سندان الإبداع ومطرقة القانون. مجلة الدراسات القانونية والاقتصادية، العدد (4)، 2024.
ب) المقالات والدراسات المحكمة
علي أحمد عثمان. انعكاسات الذكاء الاصطناعي على القانون المدني: دراسة مقارنة. مجلة البحوث القانونية والاقتصادية، العدد 76، جامعة المنصورة، يونيو 2021.
المعداوي محمد أحمد. المسؤولية المدنية عن الروبوتات ذات الذكاء الاصطناعي: دراسة مقارنة. المجلة القانونية، العدد 54، 2021.
المناصير محمد عبد الحفيظ؛ الرواشدة، وسن فيصل. المسؤولية المدنية عن أضرار الروبوتات القائمة على الذكاء الاصطناعي: دراسة تحليلية استشرافية مقارنة. مجلة جامعة الزيتونة الأردنية للدراسات القانونية، العدد الخاص، 2024.
السحلي محمود حسن. أساس المساءلة المدنية للذكاء الاصطناعي المستقل: قوالب تقليدية أم رؤية جديدة؟ مجلة الحقوق للبحوث القانونية والاقتصادية، العدد 2، 2022.
التونسي آيات المعلم، سليمان. القواعد والإجراءات المنظمة لاستخدامات الذكاء الاصطناعي بالمملكة العربية السعودية وآثارها القانونية. المجلة العربية للنشر العلمي، العدد 73، 2025.
قجالي مراد. مسؤولية المتبوع عن أعمال تابعه في القانون المدني الجزائري. مجلة المعارف، العدد 6، 2019.
ج) الدراسات المؤسسية
منظمة اليونسكو. الذكاء الاصطناعي وسيادة القانون: بناء القدرات للأنظمة القضائية. باريس، 2024. متاح على: https://www.unesco.org/ar/artificial-intelligence/rule-law
 
 
ثانيا: المراجع باللغة الفرنسية
Vedel, G. & Delvolvé, P. Droit administratif, 12e éd., PUF, Paris, 1992. 
Chapus, René. Droit administratif général, t. 1, 15e éd., Montchrestien, Paris, 2001.
Braibant, Guy. Le droit administratif français, 6e éd., Presses de Sciences Po / Dalloz, Paris, 2002.
Chevallier, Jacques. L'État post-moderne, 5e éd., LGDJ, Paris, 2017. 
Cluzel-Métayer, Lucie. "Intelligence artificielle et droit administratif : vers de nouvelles formes de responsabilité ?" Revue française de droit administratif, n° 3, 2022.
Auby, Jean-Bernard. La transformation numérique du droit administratif, Dalloz, Paris, 2021.
Conseil d'État français. Rapport public : Puissance publique et plateformes numériques : accompagner l'ubérisation, La Documentation française, Paris, 2017.
Conseil d'État français. Rapport : Régler les algorithmes — Les décisions automatisées face au droit, Paris, 2022. 
ثالثا: المراجع باللغة الإنجليزية
أ) الكتب والمؤلفات الأكاديمية
Coglianese, Cary & Lai, Alicia. "Assessing Automated Administration", in J. Bullock et al. (eds.), Oxford Handbook of AI Governance, Oxford University Press, 2024.
Coglianese, Cary & Lehr, David. "Regulating by Robot : Administrative Decision Making in the Machine-Learning Era", Georgetown Law Journal, vol. 105, 2017.
Calo, Ryan & Citron, Danielle Keats. "The Automated Administrative State : A Crisis of Legitimacy", Emory Law Journal, vol. 70(4), 2021. 
Citron, Danielle Keats. "Technological Due Process", Washington University Law Review, vol. 85(5), 2008.
O'Neil, Cathy. Weapons of Math Destruction : How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group, 2016. 
Demková, Simona. Automated Decision-Making and Effective Remedies. Edward Elgar Publishing, 2023.
Sanchez-Graells, Albert. Digital Technologies and Public Procurement. Oxford University Press, 2024.
 
ب) الأبحاث والمقالات المتخصصة
Coglianese, Cary & Lai, Alicia. "Algorithm vs. Algorithm", Duke Law Journal, vol. 72, 2022.
Coglianese, Cary & Lai, Alicia. "Algorithmic Administrative Justice", in M. Hertogh et al. (eds.), Oxford Handbook of Administrative Justice, Oxford University Press, 2022.
Coglianese, Cary. "How to Regulate Artificial Intelligence", The Regulatory Review, January 15, 2024.
Selbst, Andrew. "Negligence and AI's Human Users", Boston University Law Review, vol. 100, 2020.
Hernandez, et al. "A Global Administrative Law for an Era of AI", The Regulatory Review, March 25, 2024.
Karanicolas, Michael. Artificial Intelligence and Regulatory Enforcement. Report to the Administrative Conference of the United States (ACUS), December 9, 2024.
ج) الدراسات المتعلقة بالصين 
Zheng, et al. "Personal Data Protection in China : Progress, Challenges and Prospects in the Age of Big Data and AI", ScienceDirect / Computer Law & Security Review, 2025.
Bird & Bird LLP. "China : Data and Evolving Digital Regulation — Algorithm Regulation", Comparative Law Review, 2022.
Gibson Dunn. "China Passes the Personal Information Protection Law (PIPL)", Analytical Report, November 1, 2021.
Holistic AI. "Making Sense of China's AI Regulations", Comparative Policy Brief, 2023.
د) التقارير المؤسسية الأمريكية
Administrative Conference of the United States (ACUS). AI in Regulatory Enforcement: Final Report, December 2024. 
National Institute of Standards and Technology (NIST). Artificial Intelligence Risk Management Framework (AI RMF 1.0), U.S. Department of Commerce, January 2023.
Executive Order 14110 on "Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence", White House, October 30, 2023.
رابعا: النصوص القانونية والتشريعية المرجعية
- المغرب
القانون 09-08 المتعلق بحماية الأشخاص الذاتيين تجاه معالجة المعطيات ذات الطابع الشخصي، الجريدة الرسمية عدد 5714، 23 فبراير 2009.
القانون 41-05 المتعلق بمؤسسات التوظيف الجماعي.
الدستور المغربي 2011، لا سيما الفصول 12، 27، 120 المتعلقة بالشفافية والمساءلة.
القانون 13-103 المتعلق بالتجارة الإلكترونية.
- الولايات المتحدة الأمريكية
Administrative Procedure Act (APA), 5 U.S.C. §§ 551–559, 1946.
National Artificial Intelligence Initiative Act of 2020, Pub. L. 116-283.
Executive Order 14110 on Safe, Secure, and Trustworthy AI, 2023.
Colorado Artificial Intelligence Act, enacted May 2024, effective June 30, 2026.
- جمهورية الصين الشعبية
Personal Information Protection Law (PIPL), adopted August 20, 2021, effective November 1, 2021, Art. 24 (الحق في تفسير القرارات الآلية).
Internet Information Service Algorithmic Recommendation Management Provisions, Cyberspace Administration of China, effective March 1, 2022.
Interim Measures for the Management of Generative AI Services, CAC, July 10, 2023.
Administrative Provisions on Deep Synthesis in Internet Information Services, November 25, 2022.



الاحد 5 أبريل 2026
MarocDroit منصة مغرب القانون "الأصلية"

تعليق جديد
Twitter