مدونتنا

Blog Thumbnail
الذكاء الاصطناعي

الذكاء الاصطناعي القابل للتفسير- صار الذكاء الاصطناعي شفافا|SHAI

لم يعد الذكاء الاصطناعي معقدا بل سهل فهمه وتطويره من خلال جعله قابلا للتفسير, إذ أصبح قادرا على تفسير كيفية اتخاذ قرار معين مما زاد من ثقة البشر به.

3/3/2025 - 8 دقائق

ما هو الذكاء الاصطناعي القابل للتفسير XAI: كيف يتخذ الذكاء الاصطناعي القرارات

أحدث الذكاء الاصطناعي (AI) ثورة كبيرة في مختلف القطاعات في جميع أنحاء العالم ، حيث قدم كفاءة وقدرات غير مسبوقة. ومع ذلك ، مع تزايد تعقيد نماذج الذكاء الاصطناعي هذه ، تظهر مشكلة "الصندوق الأسود". غالبًا ما تظل الأعمال الداخلية المعقدة لأنظمة الذكاء الاصطناعي مخفية ، مما يؤدي إلى مخاوف بشأن الشفافية والإنصاف والثقة. مجال الذكاء الاصطناعي القابل للتفسير (XAI) هو إجابة لهذا التحدي.


 مفهوم الذكاء الاصطناعي القابل للتفسير(XAI)

الذكاء الاصطناعي (XAI) القابل للتفسير هو جعل الذكاء الاصطناعي مفهوما للبشر بحيث يمكنهم من فهم المنطق والأسباب التي أدت به الى اتخاذ قرارات معينة على عكس الصندوق الأسود، إذا لا يستطيع مصممو الذكاء الاصطناعي من فهم كيفية الوصول الى قرار معين، يشبه الأمر فتح الصندوق الأسود وفهم الأسباب الكامنة وراء مخرجات الذكاء الاصطناعي. [1]

ولكن ما هو الصندوق الأسود؟ 

الصندوق الأسود

هو جزء من خوارزميات تعلم الآلة التي تفتقر إلى الشفافية، بحيث يمكن رؤية مدخلاته ومخرجاته ولكن لا يمكن فهم الكيفية التي يعمل بها والتي تؤدي به إلى اتخاذ قرارات معينة. ولكن لماذا يعتبر فهم كيفية وصوله الى القرارات مهما، لأن بعض قرارات الذكاء الاصطناعي قد تؤثر على البشر بشكل مباشر وبالتالي قد تضر بهم بعض القرارات . [2]



 أهمية الذكاء الاصطناعي القابل للتفسير والتحديات المستقبلية التي تواجهه

يهدف الذكاء الاصطناعي القابل للتفسير إلى فهم الآلية التي يتخذ فيها الذكاء الاصطناعي القرارات مما يساعد على تطويره وتحسينه، وهنا نذكر أهميته: [3]

 أهمية الذكاء الاصطناعي القابل للتفسير

  • الثقة: لكي يزدهر اعتماد الذكاء الاصطناعي ، يحتاج المستخدمون إلى الوثوق في الأنظمة التي يتفاعلون معها، من خلال تقديم رؤى حول قرارات الذكاء الاصطناعي ، تعزز XAI الشعور بالثقة والموثوقية، مثل( الرعاية الصحية). 
  • الإنصاف: يمكن أن تساعد XAI في تحديد وتصحيح التحيزات في قرارات الذكاء الاصطناعي ، وتعزيز العدالة وتجنب التمييز المحتمل.
  • الامتثال التنظيمي: هو مفهوم يشير إلى الالتزام بالقوانين واللوائح والمعايير التنظيمية في مجال معين. في بعض الصناعات مثل صناعة المركبات ذاتية القيادة، يجب أن تكون عمليات اتخاذ القرارات قابلة للتفسير والشرح بغرض التنظيم والامتثال، هنا يأتي دور XAI حيث يمكن لتلك التقنيات مساعدة الأنظمة الذكية مثل المركبات ذاتية القيادة في شرح وتوضيح القرارات التي تتخذها. على سبيل المثال، إذا حدث حادث مع مركبة ذاتية القيادة، يمكن لتقنيات تفسير الذكاء الاصطناعي أن توضح سبب اتخاذ القرارات التي أدت إلى الحادث، مما يسهل تقييم الامتثال للمعايير الأمنية والتنظيمية.


تحديات الذكاء الاصطناعي القابل للتفسير 

لا يزال الذكاء الاصطناعي القابل للتفسير XAI مجالا حديثا لذا لا بد من وجود بعض التحديات والصعوبات التي تواجهه، ومنها: [4] 

  •  وجود تضارب بين التفسير والأداء: تواجه تحديا في تحقيق التوازن بين التفسير (شرح كيفية اتخاذ القرارات) وأداء النموذج. قد تؤدي محاولة جعل النموذج أكثر تفسيرا إلى تقليل دقته.
  • جودة التفسير: من الصعب إنشاء تفسيرات دقيقة ومفهومة بوضوح بالنسبة للمستخدمين، مما يشكل تحديا في توفير تفسيرات مفيدة وسهلة الفهم.
  • صعوبة التدريب والضبط: يمكن أن تكون نماذج الذكاء الاصطناعي القابلة للتفسير أكثر تعقيدا من حيث النمذجة فبالتالي صعوبة عملية التدريب والضبط مقارنة بالنماذج غير التفسيرية.
  • النشر والتطبيق: يمكن أن تتطلب أنظمة الذكاء الاصطناعي القابلة للتفسير تدخلا بشريا في عمليات النشر والتشغيل، مما يجعلها أكثر تعقيدا في بعض الحالات.
  •  الأمان والخصوصية: تحتاج نماذج الذكاء الاصطناعي القابلة للتفسير إلى توفير آليات للحفاظ على أمان وخصوصية البيانات المستخدمة في عمليات التفسير.


تلك هي بعض التحديات الرئيسية التي يواجهها مجال الذكاء الاصطناعي القابل للتفسير في جهوده لجعل نماذج الذكاء الاصطناعي أكثر شفافية وفهما.


 تطبيقات على الذكاء الاصطناعي القابل للتفسير 

يستخدم الذكاء الاصطناعي القابل للتفسير في مجموعة متنوعة من المجالات، بعض هذه التطبيقات تشمل: [5]

  •  الرعاية الصحية: يمكن استخدامه في تشخيص الأمراض وتوجيه العلاج بطرق تشرح الأسباب والقرارات للأطباء والمرضى بوضوح.
  • المركبات ذاتية القيادة: يمكن تطبيقه في تنمية مركبات ذاتية القيادة قادرة على تفسير أسباب قراراتها أثناء القيادة وفي حالات الحوادث.
  • التمويل والاستثمار: يمكن استخدامه لتوجيه القرارات المالية وتفسيرها في سوق الأسهم والاستثمار.
  • القضاء والعدالة: يمكن استخدامه لتوجيه القرارات القانونية وشرحها في النظام القانوني.
  • تحسين تجربة المستخدم: في تصميم واجهات المستخدم والتفاعل بين البشر والأنظمة الذكية.
  • صناعة الألعاب: يمكن تطبيقه في تحسين تجربة الألعاب وتوجيه القرارات داخل اللعبة.
  • مراقبة الجودة والإنتاج: في صناعات مثل التصنيع، حيث يمكن استخدامه لتحسين جودة المنتجات وتفسير سبب الأعطال.
  • تحسين تجربة العملاء: في مجال خدمة العملاء والتفاعل مع العملاء عبر الإنترنت.
  • الأمن السيبراني: يمكن استخدامه للكشف عن الهجمات السيبرانية وتفسير كيفية دخول المتسللين إلى النظام.
  • المساعدات الشخصية الذكية: في تطبيقات مثل مساعدي الصوت مثل Siri و Alexa، حيث يمكن توجيه القرارات وشرحها للمستخدمين.



 تقنيات وطرق تحقيق الذكاء الاصطناعي القابل للتفسير

بعض الطرق المستخدمة لتحقيق الذكاء القابل للتفسير: [6] 

  • التفسيرات المحايدة النموذجية المحلية القابلة للتفسير (LIME): هي أداة شائعة تستخدم لشرح تنبؤات نموذج الذكاء الاصطناعي بطريقة محددة, حيث أن هذا الأسلوب يهدف إلى جعل عملية تفسير أو شرح السبب وراء قرارات النموذج أكثر فهما للبشر. يبدأ LIME بتبسيط النموذج الذكي المعقد باستخدام إنشاء نموذج أبسط وأسهل فهمًا يقترب من سلوك النموذج الأصلي. هذا النموذج البسيط يمكنه تقدير النتائج بسرعة وسهولة، ثم يتم استخدام هذا النموذج البسيط لإجراء تفسيرات حول كيف تأثرت النتائج بتغييرات محددة في الإدخال. على سبيل المثال، إذا كان لديك نموذج ذكاء اصطناعي يتنبأ بسعر المنازل استنادا إلى العديد من المتغيرات مثل الموقع وعدد الغرف والمساحة، يمكن استخدام LIME لشرح لماذا توصل النموذج إلى سعر منزل معين. يمكن أن يظهر LIME كيف تؤثر تغييرات صغيرة في الموقع أو عدد الغرف على التنبؤات. هذا يجعل عملية التفسير أكثر شفافية ويمكن للمستخدمين فهم أفضل لأسباب اتخاذ القرارات من قبل النموذجات الذكية، وهو مهم في تطبيقات تتطلب توضيحا لتحقيق الثقة والامتثال.


  •  شروح مضافة شابلي (SHAP ): هي منهج يستخدم لقياس أهمية الميزات (أي المتغيرات التي يتم استخدامها في التنبؤ والتحليل) في النماذج والنظم التنبؤية. يستند SHAP إلى نظرية الألعاب التعاونية وهو يهدف إلى تقدير القيمة المساهمة لكل ميزة في تنبؤ حالة معينة بالاعتماد على تفاعلها مع الميزات الأخرى بدلا من عزلها بشكل فردي. ببساطة، يعمل SHAP عن طريق تقدير مدى تأثير كل ميزة على توجيه النموذج أو النظام نحو تنبؤ معين، ويعرض هذا التأثير بشكل مفهوم من خلال تخصيص قيم SHAP لكل ميزة. هذا يساعد في فهم أهمية كل ميزة في النموذج ويمكن استخدامها لاختيار الميزات الأكثر أهمية أو لفهم سبب التنبؤ بالنتائج بشكل أفضل.


  •  التفسيرات المضادة: هي نهج يهدف إلى تقديم توضيحات شديدة العمق حول قرارات الذكاء الاصطناعي. تقوم هذه التفسيرات بذلك من خلال تحديد أدنى تغيير من التغييرات في ميزات الإدخال الأصلية التي يمكن أن تؤدي إلى نتائج مختلفة عن قرار الذكاء الاصطناعي. بمعنى آخر، عندما يتخذ نظام الذكاء الاصطناعي قرارا معينا، يمكن للتفسيرات المضادة أن توضح كيف يمكن أن يكون القرار مختلفا إذا تم تغيير بعض الجوانب الدقيقة في المعلومات المُدخلة إلى النظام. هذا يظهر العوامل الدقيقة التي أثرت على القرار ويمكن استخدامها لنفهم بشكل أفضل عمل النظام والعوامل التي تؤثر على اتخاذ القرار بواسطة الذكاء الاصطناعي. 


 

أبرز الفروقات بين الذكاء الاصطناعي(AI) والذكاء الاصطناعي القابل للتفسير(XAI)

الفرق الرئيسي بين الذكاء الاصطناعي (AI) والذكاء الاصطناعي القابل للتفسير (XAI) هو قدرته على تفسير اتخاذه لقرار معين، هذه بعض الفروقات الرئيسية: 

  • التفسير والشفافية:
  1.     AI: الذكاء الاصطناعي العادي قد يكون غامضًا في عمليات اتخاذ القرار، حيث يعتمد على نماذج معقدة غالباً وصعبة التفسير.
  2.     XAI: الذكاء الاصطناعي القابل للتفسير يصمم بطرق تسمح بشرح الأسباب والعمليات التي أدت إلى اتخاذ قرار معين، مما يجعله أكثر شفافية.


  • الأمان والمسؤولية:
  1.     AI: في بعض الحالات، الذكاء الاصطناعي العادي يمكن أن يكون صعبًا في تحديد مسؤولية القرارات التي يتخذها. 
  2.    XAI: الذكاء الاصطناعي القابل للتفسير يمكن أن يساعد في تحديد مسؤولية القرارات بشكل أفضل بفضل التفسيرات المقدمة.


  • أداء النموذج:
  1.     AI: يمكن أن يكون للذكاء الاصطناعي العادي أداء أفضل في بعض الحالات نتيجة استخدام نماذج معقدة.
  2.     XAI: غالبًا ما يأتي الذكاء الاصطناعي القابل للتفسير على حساب بعض الأداء لصالح التفسير والشفافية.


  • تطبيقات:
  1.    AI: يستخدم الذكاء الاصطناعي العادي في مجموعة متنوعة من التطبيقات دون ضرورة شرح القرارات بوضوح.
  2.     XAI: يستخدم الذكاء الاصطناعي القابل للتفسير بشكل أساسي في المجالات التي تتطلب شرحًا وتوضيحًا وشفافية، مثل الرعاية الصحية والمركبات ذاتية القيادة.

بشكل عام، يهدف الذكاء الاصطناعي القابل للتفسير إلى تحقيق توازن بين الأداء والشفافية، حيث يمكن للناس فهم كيفية عمل الأنظمة الذكية والثقة فيها بشكل أكبر.



الخاتمة 

اتضح لنا أن هذا المجال له أهمية كبيرة في تعزيز تبادل المعرفة بين الذكاء الاصطناعي والبشر. يساعدنا الذكاء الاصطناعي القابل للتفسير في فهم خوارزميات اتخاذ القرار والمدخلات التي يعتمد عليها، وبالتالي نحن قادرون على اتخاذ قرارات استنادًا إلى معرفة عميقة بأسباب تفضيلات الذكاء الاصطناعي. رغم التحديات التي تواجه هذا المجال، يعد تطوير الذكاء الاصطناعي القابل للتفسير خطوة هامة نحو بناء مجتمع أكثر شفافية وثقة في الذكاء الاصطناعي.



المصادر 

  1. Explainable artificial intelligence - Wikipedia
  2. Black box - Wikipedia
  3. What is explainable AI? 6 benefits of explainable AI | Engati
  4. Explainable AI (XAI): Challenges & How to Overcome Them | OrboGraph
  5. Explainable AI (XAI): Working and Applications | Analytics Steps
  6. Explainable AI: A Comprehensive Review of the Main Methods | MLearning.ai | Medium
  7. What are the differences between Artificial Intelligence (AI) and Explainable Artificial Intelligence (XAI)? - Blog of Dr. Munim
لايوجد تعليقات بعد!

سجل الدخول ﻹضافة تعليق

العلامات