AI Weekly: تحركات Microsoft الجديدة في الذكاء الاصطناعي المسؤول

قد نستمتع بالأيام القليلة الأولى من الصيف، ولكن سواء أكانت Microsoft أو Google أو Amazon أو أي شيء آخر مدعوم بالذكاء الاصطناعي، فإن أخبار الذكاء الاصطناعي لا تأخذ استراحة أبدًا للجلوس على الشاطئ أو المشي في الشمس أو إشعال الشواء.
في الواقع، قد يكون من الصعب مواكبة ذلك. خلال الأيام القليلة الماضية، على سبيل المثال، حدث كل هذا:
- أدت إعلانات Amazon’s re: إعلانات MARS إلى انتقاد وسائل الإعلام على نطاق واسع بشأن المخاوف الأخلاقية والأمنية المحتملة (والغرابة الشاملة) حول قدرة Alexa المكتشفة حديثًا على تكرار أصوات الموتى.
- وقع أكثر من 300 باحث رسالة مفتوحة يدينون فيها نشر GPT-4chan.
- أصدرت Google نموذجًا آخر لتحويل النص إلى صورة، Parti .
- لقد حجزت رحلتي إلى سان فرانسيسكو لحضور القمة التنفيذية الشخصية لـ VentureBeat في Transform في 19 يوليو (حسنًا، هذه ليست أخبارًا حقًا، لكنني أتطلع إلى رؤية مجتمع الذكاء الاصطناعي والبيانات يجتمعان أخيرًا مع IRL. أراك هناك؟)
لكن هذا الأسبوع، ركزت على إصدار Microsoft لنسخة جديدة من معيار الذكاء الاصطناعي المسؤول – بالإضافة إلى إعلانها هذا الأسبوع [الاشتراك مطلوب] أنها تخطط لوقف بيع أدوات تحليل الوجه في Azure .
دعنا نحفر.
فاز الذكاء الاصطناعي هذا الأسبوع
كان الذكاء الاصطناعي المسؤول في صميم العديد من إعلانات Microsoft Build هذا العام.
وليس هناك شك في أن Microsoft قد عالجت القضايا المتعلقة بالذكاء الاصطناعي المسؤول منذ عام 2018 على الأقل ودفعت باتجاه تشريع لتنظيم تقنية التعرف على الوجه.
يعتبر إصدار Microsoft هذا الأسبوع من الإصدار 2 من معيار الذكاء الاصطناعي المسؤول خطوة تالية جيدة، كما يقول خبراء الذكاء الاصطناعي، على الرغم من أن هناك المزيد الذي يتعين القيام به.
وعلى الرغم من أنه نادراً ما تم ذكره في المعيار، إلا أن إعلان Microsoft الذي تم تغطيته على نطاق واسع بأنها ستتوقف عن الوصول العام إلى أدوات التعرف على الوجه في Azure – نظرًا للمخاوف المتعلقة بالتحيز والغزو والموثوقية – كان يُنظر إليه على أنه جزء من إصلاح شامل لسياسات Microsoft الخاصة بأخلاقيات الذكاء الاصطناعي.
“خطوة كبيرة إلى الأمام” من Microsoft في معايير محددة للذكاء الاصطناعي
وفقًا لعالم الكمبيوتر بن شنايدرمان، مؤلف كتاب الذكاء الاصطناعي المتمحور حول الإنسان، يعد معيار الذكاء الاصطناعي المسؤول الجديد من Microsoft خطوة كبيرة إلى الأمام من إرشادات Microsoft الثمانية عشر للتفاعل بين الإنسان والذكاء الاصطناعي.
وقال: “المعايير الجديدة أكثر تحديدًا، حيث تتحول من المخاوف الأخلاقية إلى ممارسات الإدارة، وسير عمل هندسة البرمجيات، ومتطلبات التوثيق”.
يوافق أبهيشيك جوبتا، كبير المسؤولين عن الذكاء الاصطناعي في مجموعة بوسطن الاستشارية والباحث الرئيسي في معهد مونتريال لأخلاقيات الذكاء الاصطناعي، على أن المعيار الجديد هو “نفس الهواء النقي الذي تشتد الحاجة إليه، لأنه يتجاوز المبادئ رفيعة المستوى التي لديها إلى حد كبير كانت هي القاعدة حتى الآن “.
وأوضح أن تعيين المبادئ التي تم توضيحها مسبقًا لأهداف فرعية محددة وإمكانية تطبيقها على أنواع أنظمة الذكاء الاصطناعي ومراحل دورة حياة الذكاء الاصطناعي يجعلها وثيقة قابلة للتنفيذ، في حين أنها تعني أيضًا أن الممارسين والمشغلين “يمكنهم تجاوز درجة الغموض الهائلة التي يقومون بها.
تجربة عند محاولة وضع المبادئ موضع التنفيذ “.
مخاطر التحيز والخصوصية التي لم يتم حلها
وأضاف غوبتا أنه بالنظر إلى مخاطر التحيز والخصوصية التي لم يتم حلها في تقنية التعرف على الوجه، فإن قرار Microsoft بالتوقف عن بيع أداة Azure هو “قرار مسؤول للغاية”.
“إنها الخطوة الأولى في اعتقادي أنه بدلاً من عقلية” التحرك بسرعة وكسر الأشياء “، نحتاج إلى تبني عقلية” التطور السريع والمسؤول وإصلاح الأشياء “.”
لكن أنيت زيمرمان، نائبة المحلل في شركة Gartner، تقول إنها تعتقد أن Microsoft تتخلص من ديموغرافيا الوجه واكتشاف المشاعر لمجرد أن الشركة قد لا تتحكم في كيفية استخدامها.
“إنه الموضوع المثير للجدل المستمر المتمثل في اكتشاف الخصائص الديموغرافية، مثل الجنس والعمر، وربما إقرانها بالعواطف واستخدامها لاتخاذ قرار من شأنه التأثير على هذا الفرد الذي تم تقييمه، مثل قرار التوظيف أو بيع قرض”، شرح.
“نظرًا لأن المشكلة الرئيسية هي أن هذه القرارات يمكن أن تكون متحيزة، فإن Microsoft تتخلص من هذه التقنية بما في ذلك الكشف عن المشاعر.”
وأضافت أن منتجات مثل Microsoft، وهي SDKs أو APIs التي يمكن دمجها في تطبيق لا تتحكم فيه Microsoft، تختلف عن الحلول الشاملة والمنتجات المخصصة حيث توجد شفافية كاملة.
وقالت: “المنتجات التي تكتشف المشاعر لأغراض أبحاث السوق أو سرد القصص أو تجربة العملاء – جميع الحالات التي لا تتخذ فيها قرارًا بخلاف تحسين الخدمة – ستظل تزدهر في سوق التكنولوجيا هذا”.
ما هو مفقود في معيار الذكاء الاصطناعي المسؤول من Microsoft
لا يزال هناك المزيد من العمل الذي يتعين على Microsoft القيام به عندما يتعلق الأمر بالذكاء الاصطناعي المسؤول، كما يقول الخبراء.
قال شنايدرمان إن ما ينقص هو متطلبات لأشياء مثل مسارات التدقيق أو التسجيل؛ رقابة مستقلة المواقع العامة للإبلاغ عن الحوادث؛ توافر الوثائق والتقارير لأصحاب المصلحة، بما في ذلك الصحفيين ومجموعات المصلحة العامة والمتخصصين في الصناعة؛ الإبلاغ المفتوح عن المشاكل التي تمت مواجهتها؛ والشفافية حول عملية Microsoft للمراجعة الداخلية للمشاريع.
قال جوبتا إن أحد العوامل التي تستحق مزيدًا من الاهتمام هو مراعاة التأثيرات البيئية لأنظمة الذكاء الاصطناعي، “خاصة بالنظر إلى العمل الذي تقوم به Microsoft تجاه النماذج واسعة النطاق”.
قال: “توصيتي بالبدء في التفكير في الاعتبارات البيئية كمواطن من الدرجة الأولى جنبًا إلى جنب مع الاعتبارات التجارية والوظيفية في تصميم وتطوير ونشر أنظمة الذكاء الاصطناعي”.
مستقبل الذكاء الاصطناعي المسؤول
توقع جوبتا أن تؤدي إعلانات Microsoft إلى اتخاذ إجراءات مماثلة من شركات أخرى خلال الأشهر الـ 12 المقبلة.
“قد نشهد أيضًا إصدار المزيد من الأدوات والإمكانيات داخل النظام الأساسي Azure والتي ستجعل بعض المعايير المذكورة في معيار الذكاء الاصطناعي المسؤول متاحًا على نطاق أوسع لعملاء نظام Azure الأساسي، وبالتالي إضفاء الطابع الديمقراطي على إمكانات RAI تجاه أولئك الذين ليسوا بالضرورة لديهم الموارد للقيام بذلك بأنفسهم، “قال.
قال شنايدرمان إنه يأمل أن تقوم الشركات الأخرى بتطوير لعبتها في هذا الاتجاه، مشيرًا إلى AI Fairness 360 من شركة IBM والنهج ذات الصلة، بالإضافة إلى دليل Google People and AI Research (PAIR).
وقال: “الخبر السار هو أن الشركات الكبيرة والشركات الصغيرة تنتقل من مبادئ أخلاقية غامضة إلى ممارسات تجارية محددة من خلال طلب بعض أشكال التوثيق، والإبلاغ عن المشكلات، ومشاركة المعلومات مع بعض أصحاب المصلحة / العملاء”، مضيفًا أن المزيد من الاحتياجات لجعل هذه الأنظمة مفتوحة للمراجعة العامة.
“أعتقد أن هناك اعترافًا متزايدًا بأن أنظمة الذكاء الاصطناعي الفاشلة تولد اهتمامًا عامًا سلبيًا كبيرًا، مما يجعل أنظمة الذكاء الاصطناعي الموثوقة والآمنة والجديرة بالثقة ميزة تنافسية.”
المصدر: venturebeat
شاهد المزيد: