تفسير القرارات في أنظمة الذكاء الاصطناعي: مراجعة منهجية لنماذج XAI
د. مصطفى أحمد عبد اللطيف
جامعة بغداد / كلية الهندسةالقسم: قسم هندسة الحاسوب
1- تاريخ استلام البحث: 2025-07-
تاريخ نشر البحث: 2025-08-05
الملخص :
يستعرض هذا البحث الاتجاهات الحديثة في مجال الذكاء الاصطناعي القابل للتفسير (XAI)، مع التركيز على نماذج وتقنيات تفسير القرارات في أنظمة الذكاء الاصطناعي. يهدف إلى تحليل الأساليب المستخدمة لفهم كيفية توصل النماذج إلى نتائجها، وتقييم فعالية هذه الأساليب من حيث الشفافية، القابلية للتفسير، والثقة. تعتمد الدراسة على مراجعة منهجية للأدبيات المنشورة بين عامي 2018 و2024، وتناقش تطبيقات XAI في القطاعات الحيوية مثل الرعاية الصحية، والتمويل، والهندسة الصناعية.,الكلمات المفتاحية : الشفافية، التفسير، النماذج العميقة الذكاء الاصطناعي
Abstract :
research reviews recent trends in Explainable Artificial Intelligence (XAI), focusing on models and techniques used to interpret decisions made by AI systems. It aims to analyze current approaches for understanding model outputs and evaluating their effectiveness in terms of transparency, explainability, and trust. The study provides a systematic literature review of publications from 2018 to 2024 and highlights XAI applications in critical sectors such as healthcare, finance, and industrial engineering.
KeywordsArtificial Intelligence, XAI, Transparency, Explainability, Deep Models