• الرئيسية
  • الأخبار
  • المعرض
  • المكتبة
  • النشاطات
    • النشاطات
    • المقالات
    • الجوائز
    • براءات الاختراع
    • الورش
    • المؤتمرات
    • الاعلانات
  • الأحداث القادمة
  • الكادر
  • البرنامج الأكاديمي
  • مشاريع التخرج
  • المحاضرات
  • تواصل معنا
  • English
default image default image
default image
default image

مقالة علمية بعنوان الذكاء الاصطناعي القابل للتفسير (Explainable AI) (م.م سمر حسين هلال)

21/02/2026
  مشاركة :          
  122

يُعد الذكاء الاصطناعي القابل للتفسير أحد الاتجاهات الحديثة في أبحاث الذكاء الاصطناعي، ويهدف إلى جعل نماذج التعلم الآلي أكثر شفافية وقابلية للفهم من قبل البشر. مع التطور الكبير في تقنيات التعلم العميق، أصبحت العديد من النماذج توصف بأنها “صناديق سوداء” بسبب صعوبة تفسير كيفية اتخاذها للقرارات. وهنا تظهر أهمية الذكاء الاصطناعي القابل للتفسير، الذي يسعى إلى توضيح الآليات الداخلية للنموذج وتقديم تفسيرات منطقية للنتائج. يركز هذا المجال على تطوير أدوات وتقنيات تساعد المستخدمين والباحثين على فهم أسباب التنبؤات أو القرارات التي يصدرها النظام. من بين الأساليب الشائعة استخدام نماذج بديلة مبسطة أو تحليل أهمية السمات (Feature Importance) لتحديد العوامل الأكثر تأثيرًا في القرار. كما تُستخدم تقنيات مثل LIME وSHAP لتفسير مخرجات النماذج المعقدة. تزداد أهمية الذكاء الاصطناعي القابل للتفسير في المجالات الحساسة مثل الرعاية الصحية، والأنظمة المالية، والقضاء، حيث يتطلب اتخاذ القرار درجة عالية من الشفافية والمساءلة. فمثلًا، عند استخدام أنظمة تعتمد على التعلم العميق في تشخيص الأمراض أو تقييم طلبات القروض، يجب أن يكون بالإمكان تفسير سبب اتخاذ القرار لضمان العدالة وتجنب التحيز.

جامعة المستقبل

مؤسسة تعليمية تابعة لوزارة التعليم العالي والبحث العلمي في العراق

روابط مهمة

وزارة التعليم العالي

اللجنة التوجيهية

المدراء

الأكاديميون

الكادر التدريسي

الطلبة

أنظمة الدراسات

عملية التقييم

الهيكل التنظيمي

القواعد واللوائح

معلومات الخريجين

المواقع البحثية

Scopus

Research Gate

Google Scholar

ORCID

Web Of Science

مركز المساعدة

حول الجامعة

الكليات والأقسام

البوبات الألكترونية

دليل الجامعة

تواصل معنا

جامعة المستقبل - جميع الحقوق محفوظة ©2025