لدى الذكاء الاصطناعي مشكلة خطيرة في التحيز – وإليك كيفية إدارتها

يوجه الذكاء الاصطناعي الآن العديد من القرارات المتغيرة للحياة، من تقييم طلبات القروض إلى تحديد أحكام السجن.
يجادل مؤيدو هذا النهج بأنه يمكن أن يقضي على التحيزات البشرية، لكن النقاد يحذرون من أن الخوارزميات يمكنها تضخيم تحيزاتنا – دون الكشف عن كيفية توصلهم إلى القرار.
يمكن أن يؤدي ذلك إلى أنظمة الذكاء الاصطناعي التي تؤدي إلى اعتقال السود ظلماً، أو استهداف خدمات الأطفال للأسر الفقيرة بشكل غير عادل. الضحايا هم في كثير من الأحيان من الفئات المهمشة بالفعل.
أليخاندرو سوسيدو، كبير العلماء في معهد الذكاء الاصطناعي الأخلاقي ومدير الهندسة في ML startup Seldon ، يحذر المؤسسات من التفكير مليًا قبل نشر الخوارزميات. أخبر TNW نصائحه حول التخفيف من المخاطر.
التفسير
تحتاج أنظمة التعلم الآلي إلى توفير الشفافية. يمكن أن يكون هذا تحديًا عند استخدام نماذج الذكاء الاصطناعي القوية، والتي لا تكون مدخلاتها وعملياتها ونتائجها واضحة للبشر.
تم الترويج لقابلية التفسير كحل لسنوات، لكن الأساليب الفعالة لا تزال بعيدة المنال.
يقول Saucedo: “يمكن أن تكون أدوات شرح التعلم الآلي متحيزة”. “إذا كنت لا تستخدم الأداة ذات الصلة أو إذا كنت تستخدم أداة معينة بطريقة غير صحيحة أو غير مناسبة للغرض، فإنك تحصل على تفسيرات غير صحيحة.
إنه نموذج البرامج المعتاد للقمامة في، والقمامة. “
على الرغم من عدم وجود حل سحري، إلا أن الإشراف والمراقبة البشرية يمكن أن تقلل من المخاطر.
يوصي Saucedo بتحديد العمليات ونقاط الاتصال التي تتطلب وجود إنسان في الحلقة. يتضمن ذلك استجواب البيانات الأساسية والنموذج المستخدم وأي تحيزات تظهر أثناء النشر.
الهدف هو تحديد نقاط الاتصال التي تتطلب إشرافًا بشريًا في كل مرحلة من مراحل دورة حياة التعلم الآلي.
من الناحية المثالية، سيضمن ذلك أن النظام المختار مناسب للغرض وذو صلة بحالة الاستخدام.

يناقش أليخاندرو سوسيدو تحيزات الذكاء الاصطناعي في 16 يوليو في مؤتمر تي إن دبليو
يمكن لخبراء المجال أيضًا استخدام شارحي التعلم الآلي لتقييم التنبؤ بالنموذج، ولكن من الضروري أن يقوموا أولاً بتقييم مدى ملاءمة النظام.
يقول سوسيدو: “عندما أقول خبراء المجال، فأنا لا أقصد دائمًا علماء البيانات التقنيين”. “يمكن أن يكونوا خبراء في الصناعة، أو خبراء في السياسة، أو أفرادًا آخرين لديهم خبرة في التحدي الذي تتم مواجهته”.
مسئولية
يجب أن يكون مستوى التدخل البشري متناسبًا مع المخاطر. على سبيل المثال، لن تتطلب الخوارزمية التي توصي بالأغاني قدرًا كبيرًا من الإشراف مثل تلك التي تملي شروط الكفالة.
في كثير من الحالات، لن يؤدي النظام المتقدم إلا إلى زيادة المخاطر. نماذج التعلم العميق، على سبيل المثال، يمكن أن تضيف طبقة من التعقيد تسبب مشاكل أكثر مما تحل.
يقول سوسيدو: “إذا لم تستطع فهم جوانب الغموض في الأداة التي تقدمها، لكنك تدرك أن المخاطر تنطوي على مخاطر كبيرة، فهذا يخبرك بأنها مخاطرة لا ينبغي تحملها”.
يجب على مشغلي أنظمة الذكاء الاصطناعي أيضًا تبرير العملية التنظيمية حول النماذج التي يقدمونها.
يتطلب هذا تقييمًا لسلسلة الأحداث بأكملها التي تؤدي إلى اتخاذ قرار، من شراء البيانات إلى الناتج النهائي.
أنت بحاجة إلى إطار عمل للمساءلة
يقول سوسيدو: “هناك حاجة لضمان المساءلة في كل خطوة”. “من المهم التأكد من وجود أفضل الممارسات ليس فقط في مرحلة التفسير، ولكن أيضًا بشأن ما يحدث عندما يحدث خطأ ما.”
يتضمن ذلك توفير وسيلة لتحليل المسار إلى النتيجة، والبيانات التي شارك فيها خبراء المجال، ومعلومات حول عملية التوقيع.
“أنت بحاجة إلى إطار عمل للمساءلة من خلال بنية تحتية قوية وعملية قوية تتضمن خبراء المجال ذوي الصلة بالمخاطر التي تنطوي عليها كل مرحلة من مراحل دورة الحياة.”
حماية
عندما تسوء أنظمة الذكاء الاصطناعي، فإن الشركة التي نشرتها يمكن أن تعاني أيضًا من العواقب.
يمكن أن يكون هذا ضارًا بشكل خاص عند استخدام البيانات الحساسة، والتي يمكن للجهات السيئة سرقتها أو التلاعب بها.
يقول سوسيدو: “إذا تم استغلال القطع الأثرية، فيمكن حقنها بشفرة ضارة”. “هذا يعني أنه عند تشغيلهم في الإنتاج، يمكنهم استخراج الأسرار أو مشاركة متغيرات البيئة.”
تضيف سلسلة توريد البرمجيات المزيد من المخاطر.
تقدم المنظمات التي تستخدم أدوات علوم البيانات الشائعة مثل TensorFlow وPyTorch تبعيات إضافية، والتي يمكن أن تزيد من المخاطر.
قد تتسبب الترقية في تعطل نظام التعلم الآلي، ويمكن للمهاجمين حقن البرامج الضارة على مستوى سلسلة التوريد.
يمكن أن تؤدي العواقب إلى تفاقم التحيزات الموجودة وتسبب إخفاقات كارثية.
يوصي Saucedo مرة أخرى بتطبيق أفضل الممارسات والتدخل البشري للتخفيف من المخاطر.
قد يعد نظام الذكاء الاصطناعي بنتائج أفضل من البشر، ولكن بدون إشرافهم، يمكن أن تكون النتائج كارثية.
المصدر: thenextweb
قد يهمك: