لماذا تعتبر حوكمة الذكاء الاصطناعي مهمة لبناء ذكاء اصطناعي أكثر جدارة بالثقة وقابلية للتفسير

تجنب الخوارزميات المتحيزة والصحافة السلبية والدعاوى القضائية
في حين أن هذا قد يبدو وكأنه خيال بعيد المنال، وجد تقرير FICO لعام 2021 عن الذكاء الاصطناعي المسؤول أن 65 ٪ من الشركات لا تستطيع في الواقع شرح كيفية اتخاذ قرارات أو تنبؤات نموذجية للذكاء الاصطناعي.
بينما يساعد الذكاء الاصطناعي بلا شك في دفع أعمالنا ومجتمعنا إلى الأمام بسرعة البرق، فقد رأينا أيضًا الآثار السلبية التي يمكن أن يحدثها نقص الإشراف.
أظهرت دراسة تلو الأخرى أن اتخاذ القرار المدفوع بالذكاء الاصطناعي يمكن أن يؤدي إلى نتائج متحيزة، من التنميط العرقي في خوارزميات الشرطة التنبؤية إلى قرارات التوظيف المتحيزة جنسياً.
مع تبني الحكومات والشركات لأدوات الذكاء الاصطناعي بمعدل سريع، ستؤثر أخلاقيات الذكاء الاصطناعي على العديد من جوانب المجتمع.
ومع ذلك، وفقًا لتقرير FICO، قالت 78٪ من الشركات إنها “ضعيفة التجهيز لضمان الآثار الأخلاقية لاستخدام أنظمة الذكاء الاصطناعي الجديدة”، وأن 38٪ فقط لديها خطوات للكشف عن التحيز في البيانات والتخفيف من حدته.
كما هو معتاد مع التقنيات التخريبية، فاقت سرعة تطوير الذكاء الاصطناعي سرعة التنظيم.
ولكن في السباق لاعتماد الذكاء الاصطناعي، ما بدأت العديد من الشركات في إدراكه هو أن الجهات التنظيمية تلحق بالركب الآن.
تم بالفعل رفع عدد من الدعاوى القضائية ضد الشركات إما لتطوير أو ببساطة استخدام خوارزميات الذكاء الاصطناعي المتحيزة.
تشعر الشركات بحرارة تنظيم الذكاء الاصطناعي
كشف الاتحاد الأوروبي هذا العام عن قانون AI Liability Directive ، وهو مشروع قانون سيسهل مقاضاة الشركات على الضرر الذي تسببه، وهو جزء من حملة أوسع لمنع الشركات من تطوير ونشر ذكاء اصطناعي ضار.
يضيف مشروع القانون طبقة إضافية إلى قانون الذكاء الاصطناعي المقترح، والذي سيتطلب فحوصات إضافية للاستخدامات “عالية المخاطر” للذكاء الاصطناعي، مثل استخدام الشرطة أو التوظيف أو الرعاية الصحية.
تم الكشف عن مشروع القانون في وقت سابق من هذا الشهر، ومن المرجح أن يصبح قانونًا في غضون السنوات القليلة المقبلة.
بينما يشعر البعض بالقلق من أن توجيه المسؤولية للذكاء الاصطناعي سيحد من الابتكار، فإن الغرض من ذلك هو مساءلة شركات الذكاء الاصطناعي، ومطالبتهم بشرح كيفية بناء أنظمة الذكاء الاصطناعي الخاصة بهم وتدريبها.
شركات التكنولوجيا التي لا تمتثل ستخاطر بإجراءات على مستوى أوروبا.
بينما كانت الولايات المتحدة أبطأ في تبني سياسات الحماية، أصدر البيت الأبيض أيضًا مخططًا لقانون حقوق الذكاء الاصطناعي في وقت سابق من هذا الشهر والذي يحدد كيفية حماية المستهلكين من الذكاء الاصطناعي الضار:
- يجب أن يكون الذكاء الاصطناعي آمنًا وفعالًا
- يجب ألا تميز الخوارزميات
- يجب حماية خصوصية البيانات
- يجب أن يكون المستهلكون على دراية عند استخدام الذكاء الاصطناعي
- يجب أن يكون المستهلكون قادرين على الانسحاب من استخدامه والتحدث إلى الإنسان بدلاً من ذلك
لكن هناك مشكلة. كتب سيغال صموئيل، كبير المراسلين في Vox: “من المهم أن ندرك أن قانون حقوق الذكاء الاصطناعي ليس تشريعًا ملزمًا”.
“إنها مجموعة من التوصيات التي قد تلتزم بها الوكالات الحكومية وشركات التكنولوجيا طواعية – أو لا تلتزم بها.
هذا لأنه تم إنشاؤه بواسطة مكتب سياسة العلوم والتكنولوجيا، وهي هيئة في البيت الأبيض تقدم المشورة للرئيس ولكنها لا تستطيع تطوير القوانين الفعلية “.
مع وجود لوائح صارمة للذكاء الاصطناعي أو بدونها، واجه عدد من الشركات والمؤسسات التي تتخذ من الولايات المتحدة مقراً لها دعاوى قضائية بسبب ممارسات الذكاء الاصطناعي غير الأخلاقية.
وهي ليست مجرد رسوم قانونية تحتاج الشركات إلى القلق بشأنها. تتضاءل ثقة الجمهور في الذكاء الاصطناعي.
سألت دراسة أجراها مركز بيو للأبحاث 602 من المبتكرين والمطورين وقادة الأعمال والسياسة في مجال التكنولوجيا، “بحلول عام 2030، هل ستستخدم معظم أنظمة الذكاء الاصطناعي التي تستخدمها المؤسسات من جميع الأنواع مبادئ أخلاقية تركز في المقام الأول على الصالح العام؟ ” 68٪ لا يعتقدون ذلك.
سواء خسرت الشركة معركة قانونية أم لا بسبب مزاعم منظمة العفو الدولية المتحيزة، فإن التأثير الذي يمكن أن تحدثه مثل هذه الحوادث على سمعة الشركة يمكن أن يكون ضارًا بنفس القدر.
في حين أن هذا يلقي ضوءًا كئيبًا على مستقبل الذكاء الاصطناعي، لم نفقد كل شيء.
وجد مؤشر تبني الذكاء الاصطناعي العالمي لشركة آي بي إم أن 85٪ من محترفي تكنولوجيا المعلومات يوافقون على أنه من المرجح أن يختار المستهلكون شركة تتمتع بالشفافية حول كيفية بناء نماذج الذكاء الاصطناعي الخاصة بها وإدارتها واستخدامها.
يمكن للشركات التي تتخذ خطوات لتبني ممارسات أخلاقية للذكاء الاصطناعي أن تجني ثمارها. فلماذا يتباطأ الكثيرون في أخذ زمام المبادرة؟
قد تكون المشكلة أنه بينما ترغب العديد من الشركات في تبني ممارسات أخلاقية للذكاء الاصطناعي، لا يعرف الكثير من أين يبدأون.
تحدثنا مع بريا كريشنان، التي تقود فريق إدارة منتجات البيانات والذكاء الاصطناعي في شركة IBM، لاكتشاف كيف يمكن أن يساعد بناء نموذج حوكمة قوي للذكاء الاصطناعي.
حوكمة الذكاء الاصطناعي
وفقًا لشركة IBM، فإن “حوكمة الذكاء الاصطناعي هي عملية تحديد السياسات وإنشاء المساءلة لتوجيه إنشاء ونشر أنظمة الذكاء الاصطناعي في المؤسسة.”
يقول كريشنان: “قبل الحكم، كان الناس ينتقلون مباشرة من التجارب إلى الإنتاج في الذكاء الاصطناعي”. “لكنهم أدركوا بعد ذلك،” حسنًا، انتظروا دقيقة، هذا ليس القرار الذي أتوقع أن يتخذه النظام.
لماذا يحدث هذا؟’ لم يتمكنوا من شرح سبب اتخاذ الذكاء الاصطناعي لقرارات معينة “.
تتعلق حوكمة الذكاء الاصطناعي حقًا بالتأكد من أن الشركات على دراية بما تفعله خوارزمياتها – ولديها الوثائق التي تدعمها.
وهذا يعني تتبع وتسجيل كيفية تدريب الخوارزمية، والمعلمات المستخدمة في التدريب، وأي مقاييس مستخدمة أثناء مراحل الاختبار.
إن وجود هذا في مكانه يجعل من السهل على الشركات فهم ما يحدث تحت سطح أنظمة الذكاء الاصطناعي الخاصة بهم ويسمح لهم بسحب الوثائق بسهولة في حالة التدقيق.
وأشار كريشنان إلى أن هذه الشفافية تساعد أيضًا في كسر صوامع المعرفة داخل الشركة.
“إذا غادر عالم البيانات الشركة ولم تكن لديك المعلومات السابقة مرتبطة بهذه العملية، فمن الصعب جدًا إدارتها.
أولئك الذين يبحثون في النظام لن يعرفوا ما حدث. لذا فإن عملية التوثيق هذه توفر فقط التعقل الأساسي حول ما يحدث وتجعل من السهل شرحه للإدارات الأخرى داخل المنظمة (مثل مديري المخاطر). “
بينما لا تزال اللوائح قيد التطوير، فإن اعتماد حوكمة الذكاء الاصطناعي الآن يعد خطوة مهمة لما يشير إليه كريشنان بـ “تدقيق المستقبل”:
“[اللوائح] تأتي بسرعة وقوة. الآن يقوم الناس بإنتاج وثائق يدوية لأغراض التدقيق بعد وقوعها “، على حد قولها. بدلاً من ذلك، يمكن أن يساعد البدء في التوثيق الآن الشركات في الاستعداد لأي لوائح قادمة.
النقاش حول الابتكار مقابل الحوكمة
قد تواجه الشركات منافسة متزايدة للابتكار بسرعة وتكون أول من يسوق. إذن، ألا يؤدي قضاء الوقت في حوكمة الذكاء الاصطناعي إلى إبطاء هذه العملية وخنق الابتكار؟
يقدم كريشنان حجة مفادها أن حوكمة الذكاء الاصطناعي لا توقف الابتكار أكثر من المكابح التي تمنع شخصًا من القيادة: “هناك تحكم في الجر في السيارة، وهناك مكابح في السيارة.
تم تصميم كل هذه الأشياء لتجعلك تنطلق أسرع وأمان. هكذا أفكر في حوكمة الذكاء الاصطناعي. إنها حقًا الحصول على أقصى قيمة من الذكاء الاصطناعي الخاص بك، مع التأكد من وجود حواجز حماية لمساعدتك أثناء الابتكار “.
وهذا يتماشى مع أكبر سبب على الإطلاق لاعتماد حوكمة الذكاء الاصطناعي: إنه أمر منطقي من الناحية التجارية. لا أحد يريد منتجات وخدمات معيبة.
يمكن أن يساعد وضع معايير التوثيق ونقاط التفتيش وعمليات المراجعة الداخلية الواضحة والشفافة للتخفيف من التحيز الشركات في النهاية على إنشاء منتجات أفضل وتحسين سرعة الوصول إلى السوق.
ما زلت غير متأكد من أين تبدأ؟
هذا الشهر فقط، أطلق عملاق التكنولوجيا IBM AI Governance، وهو حل شامل للشركات التي تكافح من أجل الحصول على فهم أفضل لما يحدث تحت سطح هذه الأنظمة.
تستخدم الأداة برنامجًا آليًا للعمل مع النظام الأساسي لعلوم البيانات في الشركات لتطوير عملية إدارة نموذج حسابي متسقة وشفافة، مع تتبع وقت التطوير والبيانات الوصفية ومراقبة ما بعد النشر وسير العمل المخصص.
يساعد ذلك في تخفيف الضغط عن فرق علوم البيانات، مما يسمح لهم بالتركيز على المهام الأخرى.
تساعد الأداة أيضًا قادة الأعمال في الحصول دائمًا على عرض لنماذجهم، وتدعم التوثيق المناسب في حالة التدقيق.
يعد هذا خيارًا جيدًا بشكل خاص للشركات التي تستخدم الذكاء الاصطناعي عبر المؤسسة ولا تعرف ما الذي يجب التركيز عليه أولاً.
“قبل أن تشتري سيارة، تريد تجربتها. في شركة IBM، استثمرنا في فريق من المهندسين يساعدون عملائنا على اتخاذ حوكمة الذكاء الاصطناعي لاختبار القيادة لمساعدتهم على البدء.
في غضون أسابيع فقط، يمكن لفريق IBM Client Engineering مساعدة الفرق على الابتكار باستخدام أحدث تقنيات وأساليب إدارة الذكاء الاصطناعي باستخدام نماذج الأعمال والبيانات الخاصة بهم.
يقول كريشنان: “إنه استثمار في عملائنا للمشاركة في الإنشاء السريع باستخدام تقنية IBM حتى يتمكنوا من البدء بسرعة”.
المصدر: thenextweb
قد يهمك:
قالب ووردبريس GoodNews الاخباري
خطوات إنشاء موقع ويب strikingly