العلماء يسلطون الضوء على “الصندوق الأسود” للذكاء الاصطناعي

طور الباحثون طريقة مبتكرة لتقييم إمكانية تفسير تقنيات الذكاء الاصطناعي، وتحسين الشفافية والثقة في أدوات التشخيص والتنبؤ التي تعتمد على الذكاء الاصطناعي. يساعد هذا النهج المستخدمين على فهم الأعمال الداخلية لخوارزميات الذكاء الاصطناعي “الصندوق الأسود”، لا سيما في التطبيقات الطبية عالية المخاطر وفي سياق قانون الاتحاد الأوروبي للذكاء الاصطناعي المرتقب.
قام فريق مكون من باحثين من جامعة جنيف (UNIGE) ومستشفيات جامعة جنيف (HUG) وجامعة سنغافورة الوطنية (NUS) بإنشاء نهج رائد لتقييم تقنيات تفسير الذكاء الاصطناعي. الهدف هو الكشف عن أسس عملية صنع القرار المتعلقة بالذكاء الاصطناعي وتحديد التحيزات المحتملة.
طور فريق من الباحثين من جامعة جنيف (UNIGE) ومستشفيات جامعة جنيف (HUG) وجامعة سنغافورة الوطنية (NUS) نهجًا جديدًا لتقييم إمكانية تفسير تقنيات الذكاء الاصطناعي (AI). يمهد هذا الاختراق الطريق لزيادة الشفافية والمصداقية في أدوات التشخيص والتنبؤ التي تعمل بالذكاء الاصطناعي.
تسلط الطريقة الجديدة الضوء على العمليات الغامضة لما يسمى بخوارزميات الذكاء الاصطناعي “الصندوق الأسود”، مما يساعد المستخدمين على فهم ما يؤثر على النتائج التي ينتجها الذكاء الاصطناعي وما إذا كان يمكن الوثوق بالنتائج. هذا مهم بشكل خاص في السيناريوهات التي لها تأثير كبير على صحة الإنسان ورفاهيته، مثل استخدام الذكاء الاصطناعي في التطبيقات الطبية.
يحمل البحث أهمية خاصة في سياق قانون الاتحاد الأوروبي للذكاء الاصطناعي المرتقب والذي يهدف إلى تنظيم تطوير واستخدام الذكاء الاصطناعي داخل الاتحاد الأوروبي. نُشرت النتائج مؤخرًا في مجلة Nature Machine Intelligence .
بيانات السلاسل الزمنية – التي تمثل تطور المعلومات بمرور الوقت – موجودة في كل مكان: على سبيل المثال في الطب، عند تسجيل نشاط القلب باستخدام مخطط كهربية القلب (ECG)؛ في دراسة الزلازل. تتبع أنماط الطقس؛ أو في الاقتصاد لمراقبة الأسواق المالية. يمكن نمذجة هذه البيانات بواسطة تقنيات الذكاء الاصطناعي لبناء أدوات تشخيصية أو تنبؤية.
إن تقدم الذكاء الاصطناعي والتعلم العميق على وجه الخصوص – والذي يتكون من تدريب آلة باستخدام هذه الكميات الكبيرة جدًا من البيانات بهدف تفسيرها وتعلم أنماط مفيدة – يفتح الطريق لأدوات دقيقة بشكل متزايد للتشخيص والتنبؤ. ومع ذلك، مع عدم وجود نظرة ثاقبة حول كيفية عمل الخوارزميات أو ما يؤثر على نتائجها، تثير طبيعة “الصندوق الأسود” لتقنية الذكاء الاصطناعي أسئلة مهمة حول الجدارة بالثقة.
يقول البروفيسور كريستيان لوفيس ، مدير قسم الأشعة والمعلوماتية الطبية في كلية الطب بجامعة UNIGE ورئيس قسم علوم المعلومات الطبية في HUG: “ إن الطريقة التي تعمل بها هذه الخوارزميات مبهمة، على أقل تقدير. الذي شارك في إدارة هذا العمل.
“بالطبع، المخاطر، خاصة المالية، كبيرة للغاية. لكن كيف يمكننا الوثوق بآلة دون فهم أساس منطقها؟ هذه الأسئلة ضرورية، لا سيما في قطاعات مثل الطب، حيث يمكن للقرارات المدعومة بالذكاء الاصطناعي أن تؤثر على صحة الناس وحتى على حياتهم؛ والتمويل، حيث يمكن أن تؤدي إلى خسارة هائلة في رأس المال “.
تهدف طرق التفسير إلى الإجابة على هذه الأسئلة من خلال فك شفرة لماذا وكيف توصل الذكاء الاصطناعي إلى قرار معين والأسباب الكامنة وراءه. يقول الأستاذ المساعد جيانماركو مينغالدو ، مدير MathEXLab في National: “ معرفة العناصر التي ترجح كفة الميزان لصالح أو ضد حل في موقف معين، وبالتالي السماح ببعض الشفافية، يزيد الثقة التي يمكن وضعها فيها. كلية التصميم والهندسة بجامعة سنغافورة، الذي شارك في إدارة العمل.
“ومع ذلك، فإن طرق التفسير الحالية المستخدمة على نطاق واسع في التطبيقات العملية وتدفقات العمل الصناعية تقدم نتائج مختلفة بشكل ملموس عند تطبيقها على نفس المهمة. هذا يثير السؤال المهم: ما هي طريقة التفسير الصحيحة، بالنظر إلى أنه يجب أن تكون هناك إجابة فريدة وصحيحة؟ ومن ثم، فإن تقييم أساليب التفسير لا يقل أهمية عن القابلية للتفسير في حد ذاتها “.
التفريق بين المهم وغير المهم
يعد التمييز بين البيانات أمرًا بالغ الأهمية في تطوير تقنيات الذكاء الاصطناعي القابلة للتفسير. على سبيل المثال، عندما يحلل الذكاء الاصطناعي الصور، فإنه يركز على بعض السمات المميزة.
يشرح طالب الدكتوراه في مختبر البروفيسور لوفيس والمؤلف الأول للدراسة Hugues Turbé: “يمكن للذكاء الاصطناعي، على سبيل المثال، التفريق بين صورة كلب وصورة قطة. ينطبق نفس المبدأ على تحليل التسلسل الزمني: يجب أن تكون الآلة قادرة على تحديد العناصر – القمم الأكثر وضوحًا من غيرها، على سبيل المثال – لتبني منطقها عليها. مع إشارات تخطيط القلب، فهذا يعني التوفيق بين الإشارات من الأقطاب الكهربائية المختلفة لتقييم التنافر المحتمل الذي قد يكون علامة على مرض قلبي معين.
إن اختيار طريقة تفسير من بين كل ما هو متاح لغرض معين ليس بالأمر السهل. غالبًا ما تؤدي طرق تفسير الذكاء الاصطناعي المختلفة إلى نتائج مختلفة جدًا، حتى عند تطبيقها على نفس مجموعة البيانات والمهمة.
لمواجهة هذا التحدي، طور الباحثون طريقتين جديدتين للتقييم للمساعدة في فهم كيفية اتخاذ الذكاء الاصطناعي للقرارات: واحدة لتحديد الأجزاء الأكثر صلة بالإشارة والأخرى لتقييم أهميتها النسبية فيما يتعلق بالتنبؤ النهائي. لتقييم قابلية التفسير، قاموا بإخفاء جزء من البيانات للتحقق مما إذا كانت ذات صلة بعملية صنع القرار في منظمة العفو الدولية.
ومع ذلك، تسبب هذا النهج في بعض الأحيان في حدوث أخطاء في النتائج. لتصحيح ذلك، قاموا بتدريب الذكاء الاصطناعي على مجموعة بيانات مُعزَّزة تتضمن بيانات مخفية ساعدت في الحفاظ على البيانات متوازنة ودقيقة. ثم ابتكر الفريق طريقتين لقياس مدى نجاح طرق التفسير، وإظهار ما إذا كان الذكاء الاصطناعي يستخدم البيانات الصحيحة لاتخاذ القرارات وما إذا كان يتم النظر في جميع البيانات بشكل عادل. يوضح Hugues Turbé: “تهدف طريقتنا بشكل عام إلى تقييم النموذج الذي سيتم استخدامه فعليًا في مجاله التشغيلي، وبالتالي ضمان موثوقيته”.
لتعزيز أبحاثهم، طور الفريق مجموعة بيانات تركيبية، أتاحوها للمجتمع العلمي، من أجل تقييم أي ذكاء اصطناعي جديد يهدف بسهولة إلى تفسير التسلسلات الزمنية.
مستقبل التطبيقات الطبية
من الآن فصاعدًا، يخطط الفريق الآن لاختبار طريقتهم في بيئة سريرية، حيث لا يزال القلق بشأن الذكاء الاصطناعي واسع الانتشار. توضح الدكتورة مينا بيلوغرليك ، التي ترأس فريق التعلم الآلي في قسم البروفيسور لوفيس والمؤلفة الثانية لهذه الدراسة، “إن بناء الثقة في تقييم أنظمة الذكاء الاصطناعي هي خطوة أساسية نحو اعتمادها في البيئات السريرية”. تركز دراستنا على تقييم أنظمة الذكاء الاصطناعي بناءً على السلاسل الزمنية، ولكن يمكن تطبيق نفس المنهجية على أنظمة الذكاء الاصطناعي بناءً على الأساليب الأخرى المستخدمة في الطب، مثل الصور أو النصوص.
المصدر: scitechdaily
شاهد المزيد: