التعلم الآلي للذكاء الاصطناعي: هل نثق في التحيز؟

وفقًا لدراسة جديدة، فإن طرق التفسير التي تساعد المستخدمين على تحديد ما إذا كانوا سيثقون في تنبؤات نموذج التعلم الآلي يمكن أن تكون أقل دقة بالنسبة للمجموعات الفرعية المحرومة.
تُستخدم خوارزميات التعلم الآلي أحيانًا لمساعدة صانعي القرار البشريين عندما تكون المخاطر كبيرة.
على سبيل المثال، قد يتنبأ النموذج بمرشحي كلية الحقوق الذين من المرجح أن يجتازوا امتحان المحاماة، مما يساعد ضباط القبول في تحديد الطلاب الذين سيتم قبولهم.
بسبب تعقيد هذه النماذج، التي غالبًا ما تحتوي على ملايين المعلمات، يكاد يكون من المستحيل على باحثي الذكاء الاصطناعي أن يفهموا تمامًا كيف يقومون بالتنبؤات.
قد لا يكون لدى مسؤول القبول الذي ليس لديه خبرة في التعلم الآلي أي فكرة عما يحدث تحت الغطاء.
يستخدم العلماء أحيانًا طرق تفسير تحاكي نموذجًا أكبر من خلال إنشاء تقديرات تقريبية بسيطة لتوقعاته. تساعد هذه التقديرات، التي يسهل فهمها كثيرًا، المستخدمين في تقرير ما إذا كانوا سيثقون في تنبؤات النموذج أم لا.
ومع ذلك، هل طرق التفسير هذه عادلة؟ إذا كانت طريقة التفسير توفر تقديرات تقريبية للرجال أفضل من النساء، أو للأشخاص البيض أكثر من السود، فقد يكون المستخدمون أكثر ميلًا إلى الوثوق بتنبؤات النموذج لبعض الأشخاص ولكن ليس للآخرين.
قام علماء معهد ماساتشوستس للتكنولوجيا بفحص عدالة بعض طرق التفسير المستخدمة على نطاق واسع.
اكتشفوا أن جودة التقريب لهذه التفسيرات يمكن أن تختلف اختلافًا كبيرًا بين المجموعات الفرعية وأن الجودة غالبًا ما تكون أقل بشكل كبير بالنسبة للمجموعات الفرعية الصغيرة.
من الناحية العملية، هذا يعني أنه إذا كانت جودة التقريب أقل بالنسبة للمتقدمين من الإناث، فهناك عدم تطابق بين التفسيرات وتوقعات النموذج، مما قد يؤدي إلى رفض موظف القبول بشكل خاطئ عددًا أكبر من النساء مقارنة بالرجال.
بمجرد أن رأى باحثو معهد ماساتشوستس للتكنولوجيا مدى انتشار فجوات الإنصاف هذه، جربوا عدة تقنيات لتكافؤ الفرص. كانوا قادرين على تقليص بعض الفجوات، لكن لم يتمكنوا من القضاء عليها.
“ما يعنيه هذا في العالم الحقيقي هو أن الناس قد يثقون بشكل غير صحيح في التنبؤات لبعض المجموعات الفرعية أكثر من البعض الآخر.
لذلك، يعد تحسين نماذج التفسير أمرًا مهمًا، ولكن توصيل تفاصيل هذه النماذج إلى المستخدمين النهائيين مهم بنفس القدر.
هذه الفجوات موجودة، لذلك قد يرغب المستخدمون في تعديل توقعاتهم فيما يتعلق بما سيحصلون عليه عندما يستخدمون هذه التفسيرات، “كما يقول المؤلف الرئيسي Aparna Balagopalan ، وهو طالب دراسات عليا في مجموعة Healthy ML في معهد ماساتشوستس للتكنولوجيا لعلوم الكمبيوتر ومختبر الذكاء الاصطناعي (CSAIL).
كتب بالاغوبالان الورقة مع طلاب الدراسات العليا في CSAIL، Haoran Zhang و Kimia Hamidieh ؛ توماس هارتفيغسن ، باحث ما بعد الدكتوراة في CSAIL؛ فرانك رودزيتش ، الأستاذ المشارك في علوم الكمبيوتر بجامعة تورنتو؛ وكبيرة المؤلفين مرزيه قاسمي، الأستاذة المساعدة ورئيسة مجموعة Healthy ML Group. سيتم تقديم البحث في مؤتمر ACM حول العدالة والمساءلة والشفافية.
عالية الدقة
يمكن لنماذج التفسير المبسطة أن تقرب من تنبؤات نموذج التعلم الآلي الأكثر تعقيدًا بطريقة يمكن للبشر فهمها.
يعمل نموذج التفسير الفعال على زيادة الخاصية المعروفة باسم الإخلاص، والتي تقيس مدى توافقها مع تنبؤات النموذج الأكبر.
بدلاً من التركيز على متوسط الدقة لنموذج التفسير الشامل، درس باحثو معهد ماساتشوستس للتكنولوجيا الإخلاص لمجموعات فرعية من الأشخاص في مجموعة بيانات النموذج.
في مجموعة البيانات مع الرجال والنساء، يجب أن تكون الدقة متشابهة جدًا لكل مجموعة، ويجب أن تتمتع كلتا المجموعتين بدقة قريبة من نموذج التفسير العام.
يقول بالاغوبالان: “عندما تنظر فقط إلى متوسط الإخلاص في جميع الحالات، فقد تفقد القطع الأثرية التي يمكن أن توجد في نموذج التفسير”.
لقد طوروا مقياسين لقياس فجوات الدقة، أو التباينات في الدقة بين المجموعات الفرعية. الأول هو الفرق بين متوسط الدقة عبر نموذج التفسير بأكمله والإخلاص للمجموعة الفرعية الأسوأ أداءً.
الثاني يحسب الفرق المطلق في الدقة بين جميع الأزواج المحتملة من المجموعات الفرعية ثم يحسب المتوسط.
باستخدام هذه المقاييس، بحثوا عن ثغرات في الدقة باستخدام نوعين من نماذج التفسير التي تم تدريبها على أربع مجموعات بيانات في العالم الحقيقي للمواقف عالية المخاطر، مثل التنبؤ بما إذا كان المريض يموت في وحدة العناية المركزة، أو ما إذا كان المدعى عليه قد ارتكب الجريمة، أو ما إذا كان القانون سوف يجتاز المتقدم في المدرسة امتحان المحاماة.
احتوت كل مجموعة بيانات على سمات محمية، مثل جنس الأفراد وعرقهم. السمات المحمية هي ميزات لا يجوز استخدامها لاتخاذ القرارات، غالبًا بسبب القوانين أو السياسات التنظيمية.
يمكن أن يختلف تعريف هذه بناءً على المهمة المحددة لكل إعداد قرار.
وجد الباحثون فجوات واضحة في الدقة لجميع مجموعات البيانات ونماذج التفسير. غالبًا ما كان الإخلاص للمجموعات المحرومة أقل بكثير، حتى 21 بالمائة في بعض الحالات.
تحتوي مجموعة بيانات كلية الحقوق على فجوة في الأمانة تبلغ 7 في المائة بين المجموعات الفرعية للأعراق، مما يعني أن التقديرات التقريبية لبعض المجموعات الفرعية كانت خاطئة بنسبة 7 في المائة في المتوسط.
يوضح Balagopalan أنه إذا كان هناك 10000 متقدم من هذه المجموعات الفرعية في مجموعة البيانات، على سبيل المثال، فقد يتم رفض جزء كبير بشكل خاطئ.
“لقد فوجئت بمدى انتشار فجوات الدقة هذه في جميع مجموعات البيانات التي قمنا بتقييمها.
من الصعب المبالغة في التأكيد على مدى شيوع استخدام التفسيرات كـ “إصلاح” لنماذج التعلم الآلي في الصندوق الأسود.
في هذه الورقة، نظهر أن طرق التفسير نفسها هي تقديرات تقريبية غير كاملة قد تكون أسوأ بالنسبة لبعض المجموعات الفرعية، “كما يقول قاسمي.
تضييق الفجوات
بعد تحديد فجوات الدقة، جرب الباحثون بعض أساليب التعلم الآلي لإصلاحها. قاموا بتدريب نماذج التفسير لتحديد مناطق مجموعة البيانات التي يمكن أن تكون عرضة لانخفاض الدقة ثم التركيز أكثر على تلك العينات.
كما حاولوا استخدام مجموعات بيانات متوازنة مع عدد متساوٍ من العينات من جميع المجموعات الفرعية.
لقد قللت استراتيجيات التدريب القوية هذه من بعض فجوات الإخلاص، لكنها لم تقضي عليها.
ثم قام الباحثون بعد ذلك بتعديل نماذج التفسير لاستكشاف سبب حدوث فجوات الدقة في المقام الأول.
كشف تحليلهم أن نموذج التفسير قد يستخدم بشكل غير مباشر معلومات المجموعة المحمية، مثل الجنس أو العرق، والتي يمكن أن يتعلمها من مجموعة البيانات، حتى لو كانت تسميات المجموعة مخفية.
إنهم يريدون استكشاف هذا اللغز أكثر في العمل المستقبلي. كما يخططون لمزيد من الدراسة لتأثيرات فجوات الأمانة في سياق صنع القرار في العالم الحقيقي.
يشعر بالاغوبالان بالحماس لرؤية أن العمل المتزامن على عدالة التفسير من مختبر مستقل قد توصل إلى استنتاجات مماثلة، مما يبرز أهمية فهم هذه المشكلة جيدًا.
بينما تتطلع إلى المرحلة التالية من هذا البحث، لديها بعض كلمات التحذير لمستخدمي التعلم الآلي.
اختر نموذج التفسير بعناية. ولكن الأهم من ذلك، التفكير مليًا في أهداف استخدام نموذج التفسير ومن يؤثر في النهاية.
يقول كرزيستوف جاجوس ، أستاذ Gordon McKay لعلوم الكمبيوتر بكلية Harvard John A.
“ما وجدته مثيرًا للاهتمام ومؤثرًا بشكل خاص هو الدليل الأولي على أن التباينات في دقة التفسير يمكن أن يكون لها تأثيرات قابلة للقياس على جودة القرارات التي يتخذها الأشخاص بمساعدة نماذج التعلم الآلي.
في حين أن الاختلاف المقدر في جودة القرار قد يبدو صغيرًا (حوالي نقطة مئوية واحدة)، فإننا نعلم أن الآثار التراكمية لمثل هذه الاختلافات التي تبدو صغيرة يمكن أن تغير الحياة “.
المصدر: scitechdaily
قد يهمك: