مراجعة نقدية لـ ” المبادئ التوجيهية لأخلاقيات الاتحاد الأوروبي من أجل الذكاء الاصطناعي الجدير بالثقة ”

تمتلك أوروبا بعضًا من أكثر سياسات حوكمة الذكاء الاصطناعي تقدمًا والتي تتمحور حول الإنسان في العالم.
مقارنة بالإشراف الحكومي الثقيل في الصين أو نهج الغرب المتوحش، فإن استراتيجية الاتحاد الأوروبي مصممة لإثارة الابتكار الأكاديمي والشركات مع حماية المواطنين من الأذى والتجاوزات. لكن هذا لا يعني أنه مثالي.
مبادرة 2018
في عام 2018، بدأت المفوضية الأوروبية مبادرتها لتحالف الذكاء الاصطناعي الأوروبي.
تم إنشاء هذا التحالف بحيث يمكن لأصحاب المصلحة المختلفين المشاركة والاستماع بينما ينظر الاتحاد الأوروبي في سياساته المستمرة التي تحكم تطوير ونشر تقنيات الذكاء الاصطناعي.
منذ عام 2018، شارك أكثر من 6000 من أصحاب المصلحة في الحوار من خلال أماكن مختلفة، بما في ذلك المنتديات عبر الإنترنت والفعاليات الشخصية.
تم النظر في التعليقات والمخاوف والمشورة التي قدمها أصحاب المصلحة هؤلاء من قبل “فريق الخبراء رفيع المستوى التابع للاتحاد الأوروبي بشأن الذكاء الاصطناعي”، والذي أنشأ في النهاية أربع وثائق رئيسية تعمل كأساس لمناقشات سياسة الاتحاد الأوروبي بشأن الذكاء الاصطناعي:
1. المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي الجدير بالثقة
2. توصيات السياسة والاستثمار للذكاء الاصطناعي الجدير بالثقة
3. قائمة التقييم للذكاء الاصطناعي الجدير بالثقة
4. اعتبارات قطاعية بشأن توصيات السياسة والاستثمار
تركز هذه المقالة على البند رقم واحد: “إرشادات الاتحاد الأوروبي لأخلاقيات الذكاء الاصطناعي الجدير بالثقة”.
نُشر هذا المستند في عام 2019، ويحدد المخاوف الأخلاقية المجردة وأفضل الممارسات للاتحاد الأوروبي.
على الرغم من أنني لا أسميها بالضبط “وثيقة حية”، إلا أنها مدعومة بنظام تقارير محدث باستمرار عبر مبادرة التحالف الأوروبي للذكاء الاصطناعي.
توفر الإرشادات الأخلاقية للذكاء الاصطناعي الجدير بالثقة “مجموعة من 7 متطلبات رئيسية يجب أن تلبيها أنظمة الذكاء الاصطناعي من أجل اعتبارها جديرة بالثقة”.
الوكالة البشرية والرقابة
حسب المستند:
يجب أن تعمل أنظمة الذكاء الاصطناعي على تمكين البشر، مما يسمح لهم باتخاذ قرارات مستنيرة وتعزيز حقوقهم الأساسية.
في الوقت نفسه، يجب ضمان آليات الرقابة المناسبة، والتي يمكن تحقيقها من خلال نهج الإنسان في الحلقة، والإنسان في الحلقة، والإنسان في القيادة.
تصنيف العصبية: ضعيف
تعد كل من Human in-the-loop، وhuman-on-the-loop، وhuman in-command، كلها مناهج ذاتية إلى حد كبير لحوكمة الذكاء الاصطناعي التي تعتمد دائمًا على استراتيجيات التسويق، ولغة الشركات، والأساليب المخادعة لمناقشة كيفية عمل نماذج الذكاء الاصطناعي. لكي تبدو فعالة.
بشكل أساسي، تتضمن أسطورة “الإنسان في الحلقة” فكرة أن نظام الذكاء الاصطناعي آمن طالما أن الإنسان مسؤول في النهاية عن “الضغط على الزر” أو السماح بتنفيذ وظيفة التعلم الآلي التي قد يكون لها تأثير سلبي على البشر.
المشكلة: يعتمد الإنسان في الحلقة على البشر الأكفاء في كل مستوى من عملية صنع القرار لضمان الإنصاف. لسوء الحظ، تظهر الدراسات أن الآلات تتلاعب بالبشر بسهولة.
نحن أيضًا عرضة لتجاهل التحذيرات كلما أصبحت روتينية.
فكر في الأمر، متى كانت آخر مرة قرأت فيها جميع النصوص الدقيقة على أحد مواقع الويب قبل الموافقة على الشروط المقدمة؟ كم مرة تتجاهل ضوء “فحص المحرك” في سيارتك أو تنبيه “وقت التحديث” على البرنامج عندما لا يزال يعمل بشكل صحيح؟
إن أتمتة البرامج أو الخدمات التي تؤثر على النتائج البشرية بحجة أن وجود “إنسان في الحلقة” كافٍ لمنع الاختلال أو سوء الاستخدام هو، في رأي هذا المؤلف، نهجًا عديم الجدوى للتنظيم يمنح الشركات تفويضًا مطلقًا لتطوير نماذج ضارة طالما لأنها تتناول مطلب “الإنسان في الحلقة” للاستخدام.
كمثال على الخطأ الذي يمكن أن يحدث، كشفت مقالة ProPublica الحائزة على جائزة ” انحياز الآلة ” عن الميل لنموذج الإنسان في الحلقة للتسبب في تحيز إضافي من خلال توضيح كيف يمكن للذكاء الاصطناعي أن يوصي بأحكام جنائية يمكن أن يديم العنصرية ويضخمها.
الحل: يجب على الاتحاد الأوروبي التخلص من فكرة إنشاء “آليات إشراف مناسبة” والتركيز بدلاً من ذلك على إنشاء سياسات تنظم استخدام ونشر أنظمة الذكاء الاصطناعي ذات الصندوق الأسود لمنعها من النشر في المواقف التي قد تتأثر فيها النتائج البشرية ما لم يكن هناك سلطة بشرية يمكن تحميلها المسؤولية النهائية.
المتانة الفنية والسلامة
حسب المستند:
يجب أن تكون أنظمة الذكاء الاصطناعي مرنة وآمنة. يجب أن يكونوا آمنين، وأن يضمنوا خطة احتياطية في حالة حدوث خطأ ما، فضلاً عن كونها دقيقة وموثوقة وقابلة للتكرار.
هذه هي الطريقة الوحيدة لضمان تقليل الضرر غير المقصود ومنعه.
تصنيف العصبية: يحتاج إلى عمل.
بدون تعريف “آمن”، فإن العبارة بأكملها زغب. علاوة على ذلك، فإن “الدقة” مصطلح مرن في عالم الذكاء الاصطناعي والذي يشير دائمًا تقريبًا إلى المعايير التعسفية التي لا تترجم إلى ما وراء المختبرات.
الحل: يجب على الاتحاد الأوروبي أن يضع حدًا أدنى من المتطلبات التي تنص على أن نماذج الذكاء الاصطناعي المنتشرة في أوروبا والتي من المحتمل أن تؤثر على النتائج البشرية يجب أن تثبت المساواة.
يجب اعتبار نموذج الذكاء الاصطناعي الذي يحقق قدرًا أقل من الموثوقية أو “الدقة” في المهام التي تشمل الأقليات غير آمن ولا يمكن الاعتماد عليه.
الخصوصية وحوكمة البيانات
حسب المستند:
إلى جانب ضمان الاحترام الكامل للخصوصية وحماية البيانات، يجب أيضًا ضمان آليات مناسبة لإدارة البيانات، مع مراعاة جودة البيانات وسلامتها، وضمان الوصول المشروع إلى البيانات.
تصنيف Neural: جيد، لكن يمكن أن يكون أفضل.
لحسن الحظ، تقوم اللائحة العامة لحماية البيانات (GDPR) بمعظم الرفع الثقيل هنا. ومع ذلك، فإن مصطلحات “الجودة والسلامة” ذاتية للغاية كما هو الحال بالنسبة لمصطلح “الوصول الشرعي”.
الحل: يجب أن يحدد الاتحاد الأوروبي معيارًا حيث يجب الحصول على البيانات بموافقة ويتم التحقق منها من قبل البشر للتأكد من أن قواعد البيانات المستخدمة لتدريب النماذج تحتوي فقط على البيانات التي تم تصنيفها بشكل صحيح واستخدامها بإذن من الشخص أو المجموعة التي قامت بإنشائها.
الشفافية
حسب المستند:
يجب أن تكون البيانات والنظم ونماذج أعمال الذكاء الاصطناعي شفافة.
يمكن أن تساعد آليات التتبع في تحقيق ذلك. علاوة على ذلك، يجب شرح أنظمة الذكاء الاصطناعي وقراراتها بطريقة تتلاءم مع أصحاب المصلحة المعنيين.
يحتاج البشر إلى إدراك أنهم يتفاعلون مع نظام ذكاء اصطناعي، ويجب أن يكونوا على علم بقدرات النظام وحدوده.
تصنيف العصبية: هذه قمامة ساخنة.
فقط نسبة صغيرة من نماذج الذكاء الاصطناعي قابلة للشفافية. غالبية نماذج الذكاء الاصطناعي في الإنتاج اليوم هي أنظمة “الصندوق الأسود” التي، بحكم طبيعة هندستها المعمارية، تنتج مخرجات باستخدام خطوات كثيرة جدًا من التجريد أو الاستنتاج أو الخلط ليحللها الإنسان.
بمعنى آخر، قد يستخدم نظام AI معين مليارات من المعلمات المختلفة لإنتاج مخرجات.
من أجل فهم سبب إنتاجها لتلك النتيجة المعينة بدلاً من نتيجة مختلفة، يتعين علينا مراجعة كل من هذه المعلمات خطوة بخطوة حتى نتمكن من الوصول إلى نفس النتيجة تمامًا مثل الآلة.
الحل: يجب أن يتبنى الاتحاد الأوروبي سياسة صارمة تمنع نشر أنظمة الذكاء الاصطناعي غير الشفافة أو الصندوق الأسود التي تنتج مخرجات يمكن أن تؤثر على النتائج البشرية ما لم تكن سلطة بشرية معينة مسؤولة بشكل كامل عن النتائج السلبية غير المقصودة.
التنوع وعدم التمييز والإنصاف
حسب المستند:
يجب تجنب التحيز غير العادل، حيث يمكن أن يكون له آثار سلبية متعددة، من تهميش الفئات الضعيفة إلى تفاقم التحيز والتمييز.
تعزيز التنوع، يجب أن تكون أنظمة الذكاء الاصطناعي في متناول الجميع، بغض النظر عن أي إعاقة، وإشراك أصحاب المصلحة المعنيين طوال دورة حياتهم بأكملها.
تصنيف العصبية: ضعيف.
لكي تشرك نماذج الذكاء الاصطناعي “أصحاب المصلحة المعنيين طوال دورة حياتهم بأكملها”، يجب تدريبهم على البيانات التي يتم الحصول عليها من مصادر متنوعة وتطويرها من قبل فرق من أشخاص متنوعين.
الحقيقة هي أن العلوم والتكنولوجيا والهندسة والرياضيات (STEM) يهيمن عليها الذكور البيض ، والمستقيمون، وهناك عدد لا يحصى من الدراسات التي تمت مراجعتها من قبل الأقران توضح كيف أن هذه الحقيقة البسيطة التي يمكن إثباتها تجعل من المستحيل تقريبًا إنتاج أنواع عديدة من نماذج الذكاء الاصطناعي دون تحيز.
الحل: ما لم يكن لدى الاتحاد الأوروبي طريقة لحل مشكلة نقص الأقليات في العلوم والتكنولوجيا والهندسة والرياضيات، يجب أن يركز بدلاً من ذلك على إنشاء سياسات تمنع الشركات والأفراد من نشر نماذج الذكاء الاصطناعي التي تنتج نتائج مختلفة للأقليات.
الرفاه المجتمعي والبيئي
حسب المستند:
يجب أن تفيد أنظمة الذكاء الاصطناعي جميع البشر، بما في ذلك الأجيال القادمة. ومن ثم يجب التأكد من أنها مستدامة وصديقة للبيئة.
علاوة على ذلك، يجب أن تأخذ في الاعتبار البيئة، بما في ذلك الكائنات الحية الأخرى، وينبغي النظر بعناية في تأثيرها الاجتماعي والمجتمعي.
تصنيف العصبية: g reat. لا توجد ملاحظات!
مسئولية
حسب المستند:
يجب وضع آليات لضمان المسؤولية والمساءلة لأنظمة الذكاء الاصطناعي ونتائجها.
تلعب القابلية للتدقيق، والتي تمكن من تقييم الخوارزميات والبيانات وعمليات التصميم، دورًا رئيسيًا فيها، لا سيما في التطبيقات الهامة. علاوة على ذلك، ينبغي ضمان الحصول على تعويض مناسب.
تصنيف Neural: جيد، لكن يمكن أن يكون أفضل.
لا يوجد حاليًا إجماع سياسي حول من المسؤول عندما يحدث خطأ في الذكاء الاصطناعي.
إذا حددت أنظمة التعرف على الوجه في الاتحاد الأوروبي، على سبيل المثال، أحد الركاب عن طريق الخطأ وأدى الاستفسار الناتج إلى ضرر مالي (فقدوا رحلتهم وأية فرص ناجمة عن سفرهم) أو معاناة نفسية غير ضرورية، فلا يوجد أحد يمكن أن يتحمل المسؤولية عن ذلك. خطأ.
الموظفون الذين يتبعون الإجراء بناءً على إشارة منظمة العفو الدولية لتهديد محتمل يقومون فقط بوظائفهم. وعادة ما يكون المطورون الذين دربوا الأنظمة فوق اللوم بمجرد أن تدخل نماذجهم في الإنتاج.
الحل: يجب أن يضع الاتحاد الأوروبي سياسة تنص على وجه التحديد على وجوب محاسبة البشر دائمًا عندما يتسبب نظام الذكاء الاصطناعي في نتيجة غير مقصودة أو خاطئة لإنسان آخر.
تشجع السياسة والاستراتيجية الحالية للاتحاد الأوروبي نهج “إلقاء اللوم على الخوارزمية” الذي يفيد مصالح الشركات أكثر من حقوق المواطنين.
جعل الأساس المتين أقوى
في حين أن التعليق أعلاه قد يكون قاسيًا، أعتقد أن استراتيجية الذكاء الاصطناعي في الاتحاد الأوروبي هي ضوء يقود الطريق.
مع ذلك، من الواضح أن رغبة الاتحاد الأوروبي في التنافس مع سوق الابتكار في وادي السيليكون في قطاع الذكاء الاصطناعي قد دفعت بمعايير التكنولوجيا التي تركز على الإنسان إلى أبعد من ذلك تجاه مصالح الشركات أكثر من مبادرات السياسة التكنولوجية الأخرى للاتحاد.
لن يوقع الاتحاد الأوروبي على طائرة تم إثبات تحطمها رياضيًا في كثير من الأحيان إذا كان الأشخاص السود أو النساء أو الأشخاص المثليون مسافرين أكثر مما كان عليه الحال عندما كان الرجال البيض على متنها.
لا ينبغي أن يسمح لمطوري الذكاء الاصطناعي بالابتعاد عن نشر النماذج التي تعمل بهذه الطريقة أيضًا.
المصدر: thenextweb
قد يهمك:
قالب ووردبريس GoodNews الاخباري
خطوات إنشاء موقع ويب strikingly