MarocDroit  -  موقع العلوم القانونية
plateforme des décideurs juridiques - Platform of Legal Decision-Makers


أرشيف وجهة نظر

الرقمنة كآلية لتجويد العلاقة بين المواطن والإدارة

أي مسؤولية قانونية للإدارة عند اعتماد الذكاء الاصطناعي؟

الــرسـائـل الـمـولـويـة الـسـامـيـة لـصـاحـب الـجـلالــة -قراءة تحليلية لخطاب العرش 2025-

القرار 255/25 للمحكمة الدستورية: نحو ترسيخ رقابة دستورية ضامنة للحقوق والحريات

الأستاذ المصطفي الرميد يرد: إلى الأستاذ عبد الرحيم الجامعي (أنت أيضا، لست مفتيا، ولامرشدا، فلا تكن محرضا)

النقيب الجامعي: رسالة إلى الاستاذ مصطفى الرميد، لست لا مفتيا ولا مرشدا، فلا تكن محرضا ؟

La Cour constitutionnelle censure le nouveau code de procédure civile marocain

رفع القبعة للمحكمة الدستورية .. استقلالية القضاة في دستور 2011 المغرب، ركيزة أساسية لدولة الحق والقانون

نطاق المسائل الدستورية وغير الدستورية لتعديلات النظام الداخلي لمجلس النواب حسب قرار المحكمة الدستورية رقم 256/25 بتاريخ 2025/08/04 في الملف عدد 304/25

المسائل الثمانية غير الدستورية في قانون المسطرة المدنية حسب قرار المحكمة الدستورية



أي مسؤولية قانونية للإدارة عند اعتماد الذكاء الاصطناعي؟

     



أي مسؤولية قانونية للإدارة عند اعتماد الذكاء الاصطناعي؟
 
 
الطوسي سعد
ذ. في القانون والعلوم الإدارية
مقدمة
دخل الذكاء الاصطناعي (IA) بقوة إلى مختلف القطاعات، ولم تكن الإدارة العمومية استثناءً من هذه الثورة الرقمية. فقد بدأت العديد من الإدارات تعتمد خوارزميات ذكية في اتخاذ القرار، تصنيف الملفات، تحليل الطلبات، أو حتى التنبؤ بسلوك المواطنين. ورغم المزايا الكبرى لهذا التوجه من حيث السرعة، الفعالية، والاقتصاد في الموارد، فإنه يطرح سؤالاً بالغ الأهمية:
من يتحمل المسؤولية القانونية إذا نتج عن هذا "الذكاء" ضرر للمواطن؟
في هذا السياق، تتقاطع عدة مفاهيم: المسؤولية الإدارية، الخطأ المرفقي، الأتمتة، الخوارزميات، ومبادئ الشفافية والحق في التظلم.
أولاً: الإدارة في مواجهة الذكاء الاصطناعي – من الآلة إلى الفعل القانوني
حين تعتمد الإدارة على الذكاء الاصطناعي، فهي تقوم بتفويض بعض الوظائف (وأحياناً بعض السلطات التقديرية) إلى منظومة تقنية. قد تُصدر هذه الأخيرة توصيات، أو قرارات مؤتمتة بالكامل (décisions automatisées). ومع ذلك، تبقى هذه القرارات ذات أثر قانوني، وقد تُغير في الوضعية القانونية للمواطن.
وهنا تظهر الإشكالية:
هل تُعامل الخوارزمية كأداة تنفيذ فقط؟
أم تعتبر امتداداً للإرادة الإدارية؟
وما مصير المسؤولية في حال ثبت وجود ضرر أو تمييز أو خطأ في المعالجة؟
ثانياً: صور المسؤولية الممكنة عند استخدام الذكاء الاصطناعي
1. مسؤولية الإدارة عن القرارات المؤتمتة (automatisées)
إذا اتخذت الإدارة قراراً اعتماداً على نظام ذكي (مثلاً رفض طلب، حذف اسم من لائحة، تصنيف ملف بشكل سلبي...)، واتضح لاحقاً أن القرار غير مشروع أو مبني على خوارزمية خاطئة أو منحازة، فإن المسؤولية تقع على عاتق الإدارة، وليس على النظام الآلي.
لأن الإدارة لا يمكنها التذرع بالطابع التقني أو الآلي للقرار للتملص من المسؤولية.
2. مسؤولية عن الخطأ في البرمجة أو التصميم
في حال ثبت أن النظام الذكي الذي تعتمده الإدارة يحتوي على خلل في التصميم (مثلاً برمجيات متحيزة، نماذج غير دقيقة...) فإن الإدارة تتحمل المسؤولية إذا لم تتخذ ما يلزم من تدقيق، مراجعة، ومراقبة قبل اعتماده
كما قد تُقام دعوى في مواجهة الشركة المطورة أيضًا، لكن من زاوية المسؤولية العقدية أو المدنية، وليس الإدارية.
3. مسؤولية عن الإخلال بحقوق المواطن (شفافية – تفسير القرار – الحق في الطعن)
الذكاء الاصطناعي قد يؤدي إلى قرارات "غامضة" يصعب تفسيرها، مما يُقوض حق المواطن في الفهم والطعن. في هذا السياق، تصبح الإدارة مسؤولة عن ضمان الشفافية وتقديم تفسيرات واضحة للقرارات المتخذة بواسطة أنظمة ذكية
وقد نصت العديد من التشريعات (مثل اللائحة الأوروبية GDPR) على حق المواطن في الحصول على "تفسير منطقي للقرارات المؤتمتة".
 
ثالثاً: المبادئ القانونية المهددة عند استخدام الذكاء الاصطناعي
مبدأ الشفافية: غالباً ما تكون الخوارزميات بمثابة "صندوق أسود" (Black Box)، يصعب فهم منطقها حتى على صانعيها. وهذا يتعارض مع حق المواطن في معرفة سبب القرار المتخذ ضده.
مبدأ المساواة: الخوارزميات قد تُعيد إنتاج تحيزات بشرية (مثلاً التمييز بناءً على اللغة، الجنس، المنطقة...) ما يُهدد مبدأ عدم التمييز في القرار الإداري.
مبدأ قابلية الطعن: إذا لم يتمكن المواطن من فهم القرار، فكيف يمكنه الطعن فيه؟ وهنا تقع مسؤولية الإدارة في تأمين حق التظلم القضائي أو الإداري.
 
رابعاً: مسؤولية الإدارة بين التأطير القانوني والفراغ التشريعي
حاليًا، يعاني الإطار القانوني من فراغ واضح في ما يخص الذكاء الاصطناعي في الإدارة. لا تزال المسؤولية تُكيف حسب القواعد التقليدية، رغم خصوصية الذكاء الاصطناعي.
لذلك تبرز الحاجة إلى:
وضع إطار قانوني خاص بالقرارات الإدارية المؤتمتة؛
إلزام الإدارة بنشر الخوارزميات المستعملة أو شرح منطقها؛
تحديد المسؤولية بوضوح (بين الإدارة، المبرمج، المزود...).
وقد بدأ الاتحاد الأوروبي في تبني خطوات في هذا الاتجاه من خلال مشروع "قانون الذكاء الاصطناعي" (AI Act)، الذي يقترح تصنيف الأنظمة الذكية حسب درجة الخطورة، مع فرض التزامات صارمة على الأنظمة عالية الخطورة، مثل تلك المعتمدة في الخدمات العمومية.
 
خامساً: نحو مسؤولية إدارية رقمية عادلة
في ظل تعقّد المشهد، تبرز الحاجة إلى تصور حديث لـ "المسؤولية الإدارية في العصر الرقمي"، يأخذ بعين الاعتبار:
ضرورة صيانة الحقوق الأساسية للمواطن (الخصوصية، المساواة، الشفافية...)؛
اعتبار الذكاء الاصطناعي مجرد وسيلة لا تُعفي الإدارة من رقابتها؛
إرساء آليات فعالة للمراقبة والمساءلة؛
تبني نظام للخبرة التقنية والقضائية لفهم وتقييم الخوارزميات.
 
خاتمة
الذكاء الاصطناعي، رغم كفاءته العالية، ليس معصوماً من الخطأ أو التحيز. وإذا كانت الإدارة تسعى لاعتماده كأداة للتحديث والفعالية، فإنها ملزمة في المقابل بضمان حماية الحقوق القانونية للمواطن، وبالتحمل الكامل لمسؤوليتها القانونية عند أي تجاوز أو ضرر.
فالخوارزميات لا تحكم، وإنما تُستخدم. ومن يستخدمها يجب أن يُسأل، وأن يُحاسب.
 



الجمعة 26 سبتمبر 2025
MarocDroit منصة مغرب القانون "الأصلية"

تعليق جديد
Twitter