مع التقدم السريع في تقنيات الذكاء الاصطناعي والروبوتات الذكية، تزايدت الأسئلة الأخلاقية والقانونية حول مدى مساءلة هذه الأنظمة عند ارتكابها أفعالاً تضر بالبشر أو بالممتلكات. إن بروز الروبوتات الذكية كفاعلين مستقلين – بدرجات متفاوتة – في المجتمع الرقمي يفرض على المنظومة القانونية تحديات معقدة تتعلق بمفهوم المسؤولية الجنائية، لاسيما أن الروبوت ليس بشخص طبيعي أو اعتباري. هذا المقال يتناول الأطر النظرية والعملية للمسؤولية الجنائية في الجرائم المرتكبة عبر أو بواسطة الروبوت الذكي، رابطًا بين التكنولوجيا الحديثة ومفاهيم القانون الجنائي.<br /><br />أولاً: تعريف الروبوت الذكي وتمييزه عن الأنظمة التقليدية<br />الروبوت الذكي هو نظام مادي إلكتروني مزود بقدرات الذكاء الاصطناعي تتيح له التعلم من البيانات والتفاعل مع البيئة واتخاذ قرارات دون تدخل بشري مباشر. بخلاف البرمجيات الجامدة، فإن هذه الروبوتات تتميز بقدرتها على التعلم التلقائي (Machine Learning) واتخاذ قرارات ديناميكية بناءً على مخرجات متغيرة، ما يجعلها أقرب إلى "الفاعل الرقمي".<br />ثانيًا: الإشكال القانوني – من المسؤول؟<br />تتمثل الإشكالية الجوهرية في تحديد المسؤولية الجنائية في حال ارتكب الروبوت فعلًا مجرَّمًا، مثل:<br />دهس شخص أثناء قيادة ذاتية لسيارة ذكية.<br />اتخاذ قرارات طبية خاطئة تؤدي إلى الوفاة.<br />اختراق بيانات أو تنفيذ أوامر ضارة بناء على تعليمات تعلمها ذاتيًا.<br />الاحتمالات القانونية تشمل:<br />1. مسؤولية المبرمج أو المطوِّر:<br />إذا ثبت أن الخلل في الروبوت ناتج عن خطأ برمجي أو إهمال في التصميم، يمكن مساءلة مطوِّر النظام جنائيًا ضمن قواعد الخطأ أو الإهمال.<br />2. مسؤولية المالك أو المستخدم:<br />عندما يُستخدم الروبوت كأداة لتنفيذ الجريمة من قِبل شخص طبيعي، فإن هذا الشخص يُسأل مباشرة، وقد يُعد الروبوت "وسيلة تنفيذ".<br />3. المسؤولية المستحدثة للروبوت ذاته:<br />بعض الباحثين يدعون إلى إنشاء "شخصية قانونية رقمية" محدودة للروبوتات، بحيث تُمنح مسؤولية مستقلة عن مطورها أو مالكها، وهو أمر يثير جدلاً واسعًا ولا يزال في طور التنظير.<br />ثالثًا: أوجه القصور في التشريعات الحالية<br />العديد من الأنظمة القانونية لا تزال تفتقر إلى نصوص واضحة تنظم المسؤولية عن الأفعال التي تصدر عن الذكاء الاصطناعي. القوانين الحالية بُنيت على افتراض أن الفاعل إمّا إنسان أو كيان قانوني (شركة مثلًا)، ولا تستوعب أنظمة ذات قرارات مستقلة بدون نية جرمية بشرية.<br />رابعًا: دور تخصص تكنولوجيا المعلومات في دعم المنظومة القانونية<br />هنا يظهر دور المتخصصين في تكنولوجيا المعلومات، وخصوصًا الأكاديميين، في الجوانب الآتية:<br />تقديم الرأي الفني للجهات القضائية حول كيفية اتخاذ القرار من قبل الروبوت.<br />تطوير آليات لتتبع سلسلة اتخاذ القرار في الأنظمة الذكية (Explainable AI).<br />المساهمة في صياغة تشريعات تستوعب تطور الذكاء الاصطناعي من خلال لجان مشتركة بين القانونيين والمهندسين.<br />خامسًا: مقترحات لحلول متوازنة<br />1. صياغة تشريع خاص بـ “الجرائم الإلكترونية المؤتمتة” يأخذ في الاعتبار سلوك الذكاء الاصطناعي.<br />2. إنشاء سجل رقمي لكل روبوت ذكي يتضمن سلسلة تحديثاته وقراراته.<br />3. إلزام الشركات المنتجة بتضمين ضوابط أمان أخلاقي في كل نظام ذكي (Ethical AI by Design).<br />4. تطوير أدوات تتبع ومراجعة قرارات الروبوت لتمكين إثبات الركن المعنوي عند اللزوم.<br />خاتمة<br />في ظل تسارع الثورة الصناعية الرابعة، تفرض علينا تقنيات الروبوتات الذكية إعادة النظر في المفاهيم التقليدية للمسؤولية الجنائية. وبينما يحتدم النقاش بين فلاسفة القانون ومهندسي الذكاء الاصطناعي، تقع على عاتق الأكاديميين من كلا التخصصين – لا سيما في التعليم القانوني – مسؤولية صياغة الوعي القانوني الجديد الذي يستوعب هذا الواقع المعقد. فالقانون لا يجب أن يتخلف عن التطور التكنولوجي، بل ينبغي أن يواكبه ويُنظّمه ضمن إطار يحفظ الحقوق ويضمن العدالة.<br /><br />م.م روئ خالد - كلية القانون - جامعة المستقبل<br /><br />جامعة المستقبل الاولى على الجامعات الحكومية والاهلية في العراق<br />