يقول محامي الذكاء الاصطناعي هذا إن الشركات بحاجة إلى مسؤول رئيسي للذكاء الاصطناعي

عندما بدأ برادفورد نيومان في الدعوة إلى المزيد من الخبرة في مجال الذكاء الاصطناعي في C-suite في عام 2015، “كان الناس يسخرون مني،” قال. 

أضاف نيومان، الذي يقود التعلم الآلي وممارسات الذكاء الاصطناعي في شركة المحاماة العالمية بيكر ماكنزي في مكتب بالو ألتو، أنه عندما أشار إلى حاجة الشركات إلى تعيين مسؤول رئيسي للذكاء الاصطناعي، أجاب الناس عادةً، “ما هذا؟”

ولكن مع انتشار استخدام الذكاء الاصطناعي في جميع أنحاء المؤسسة، ومع انتشار القضايا المتعلقة بأخلاقيات الذكاء الاصطناعي والتحيز والمخاطر والتنظيم والتشريعات في جميع أنحاء عالم الأعمال، أصبحت أهمية تعيين مسؤول رئيسي للذكاء الاصطناعي أكثر وضوحًا من أي وقت مضى، على حد قوله.

أدى هذا الاعتراف إلى تقرير بيكر ماكنزي الجديد، الذي صدر في مارس، بعنوان ” العمل المحفوف بالمخاطر: تحديد النقاط العمياء في إشراف الشركات على الذكاء الاصطناعي.” استطلع التقرير 500 من المديرين التنفيذيين في الولايات المتحدة على مستوى C والذين حددوا أنفسهم كجزء من فريق صنع القرار المسؤول عن تبني مؤسستهم للأدوات التي تدعم الذكاء الاصطناعي واستخدامها وإدارتها. 

قال نيومان في بيان صحفي عقب إصدار الاستطلاع: “نظرًا للزيادة في تشريعات الدولة والإنفاذ التنظيمي، تحتاج الشركات إلى تصعيد لعبتها عندما يتعلق الأمر بالإشراف على الذكاء الاصطناعي والحوكمة لضمان أن يكون الذكاء الاصطناعي لديها أخلاقيًا وتحمي نفسها من المسؤولية عن طريق إدارة تعرضهم للمخاطر وفقًا لذلك. ” 

نقاط عمياء للشركات حول مخاطر الذكاء الاصطناعي

وفقًا لنيومان، وجد الاستطلاع نقاطًا عمياء كبيرة للشركات حول مخاطر الذكاء الاصطناعي. 

لسبب واحد، قام التنفيذيون من المستوى C بتضخيم مخاطر الاختراقات السيبرانية للذكاء الاصطناعي ولكنهم قللوا من مخاطر الذكاء الاصطناعي المتعلقة بانحياز الخوارزمية وسمعتها. 

على الرغم من أن جميع المديرين التنفيذيين الذين شملهم الاستطلاع قالوا إن مجلس إدارتهم لديه بعض الوعي بشأن المخاطر المؤسسية المحتملة للذكاء الاصطناعي، إلا أن 4٪ فقط وصفوا هذه المخاطر بأنها “كبيرة”. 

اعتبر أكثر من النصف أن المخاطر “كبيرة إلى حد ما”. 

وجد الاستطلاع أيضًا أن المؤسسات “تفتقر إلى فهم قوي لإدارة التحيز بمجرد توفر الأدوات التي تدعم الذكاء الاصطناعي.” عند إدارة التحيز الضمني في أدوات الذكاء الاصطناعي داخليًا، على سبيل المثال، لدى 61٪ فقط فريقًا لرفع ترتيب البيانات أو خفضها، بينما يقول 50٪ إنهم يستطيعون تجاوز بعض – وليس كل – النتائج التي يدعمها الذكاء الاصطناعي. 

بالإضافة إلى ذلك، وجدت الدراسة الاستقصائية أن ثلثي الشركات ليس لديها مسؤول ذكاء اصطناعي رئيسي، مما يترك إشراف الذكاء الاصطناعي تحت نطاق كبير المسؤولين التقنيين أو رئيس قسم المعلومات. 

في نفس الوقت، 41٪ فقط من مجالس إدارة الشركات لديها خبراء في الذكاء الاصطناعي. 

نقطة انعطاف في تنظيم الذكاء الاصطناعي

أكد نيومان أن التركيز بشكل أكبر على الذكاء الاصطناعي في C Suite، وخاصة في غرفة الاجتماعات، أمر لا بد منه. 

قال: “نحن في نقطة انعطاف حيث ستقوم أوروبا والولايات المتحدة بتنظيم الذكاء الاصطناعي “. “أعتقد أن الشركات ستكون واقفة بشكل محزن على رد فعلها، لأنهم لا يفهمون ذلك – لديهم شعور زائف بالأمان.”

في حين أنه مناهض للتنظيم في العديد من المجالات، يدعي نيومان أن الذكاء الاصطناعي مختلف تمامًا. 

قال: “يجب أن يكون للذكاء الاصطناعي علامة النجمة بسبب تأثيره”. 

“لا يتعلق الأمر بعلوم الكمبيوتر فحسب، بل يتعلق بأخلاقيات الإنسان … يذهب إلى جوهر هويتنا كبشر وحقيقة أننا مجتمع ديمقراطي ليبرالي غربي يتمتع برؤية قوية للحقوق الفردية.” 

وتابع: من وجهة نظر حوكمة الشركات، يختلف الذكاء الاصطناعي أيضًا: “على عكس، على سبيل المثال، الوظيفة المالية، وهي الدولارات والسنتات التي يتم حسابها والإبلاغ عنها بشكل صحيح داخل هيكل الشركة والإفصاح عنها لمساهمينا والذكاء الاصطناعي والبيانات “العلم يشمل القانون والموارد البشرية والأخلاق”. 

“هناك العديد من الأمثلة على الأشياء المسموح بها قانونًا، ولكنها لا تتوافق مع ثقافة الشركة.” 

ومع ذلك، أوضح أن الذكاء الاصطناعي في المؤسسة يميل إلى أن يكون مجزأًا ومتباينًا. 

“لا يوجد نظام شامل حيث يمكن لهذا الشخص الذي يتمتع بحسن نية أن يذهب إلى C-suite ويقول، ‘نحن بحاجة إلى اتباع هذا. 

نحن بحاجة إلى التدريب. نحن بحاجة إلى الامتثال. لذا، فهو لا يزال نوعًا من النظريات، ولا تستجيب C-suites عادةً للنظرية، “قال. 

أخيرًا، أضاف نيومان، هناك العديد من المكونات السياسية الداخلية حول الذكاء الاصطناعي، بما في ذلك الذكاء الاصطناعي وعلوم البيانات وسلسلة التوريد. قال: “كلهم يقولون، إنه ملكي”. 

الحاجة إلى رئيس منظمة العفو الدولية

قال نيومان إن ما سيساعد هو تعيين مدير تنفيذي للذكاء الاصطناعي (CAIO) – أي مدير تنفيذي على مستوى C-suite يقدم تقاريره إلى الرئيس التنفيذي، في نفس مستوى CIO أو CISO أو CFO. 

سيتحمل CAIO المسؤولية النهائية عن الإشراف على كل ما يتعلق بالذكاء الاصطناعي في الشركة. 

قال: “يريد الكثير من الناس معرفة كيف يمكن لشخص واحد أن يتناسب مع هذا الدور، لكننا لا نقول إن المدير المالي يعرف كل حسابات الجوانب المالية التي تحدث في أعماق الشركة – لكنها ترفع تقاريرها إليها”.

لذا فإن CAIO سيكون مسؤولاً عن تقديم التقارير إلى المساهمين وخارجياً إلى المنظمين والهيئات الإدارية.

وأضاف نيومان: “الأهم من ذلك، سيكون لهم دور في حوكمة الشركات والإشراف والمراقبة والامتثال لكل ما يتعلق بالذكاء الاصطناعي”. 

رغم ذلك، يعترف نيومان بأن فكرة تثبيت CAIO لن تحل كل التحديات المتعلقة بالذكاء الاصطناعي.

“هل ستكون مثالية؟ لا، لا شيء – لكنها ستكون خطوة كبيرة إلى الأمام، “قال.

يجب أن يكون لدى كبير مسؤولي الذكاء الاصطناعي خلفية في بعض جوانب الذكاء الاصطناعي، وعلوم الكمبيوتر، بالإضافة إلى بعض جوانب الأخلاق والقانون.

في حين أن ما يزيد قليلاً عن ثلث المشاركين في استطلاع بيكر ماكنزي قالوا إن لديهم حاليًا “شيء مثل” مسؤول ذكاء اصطناعي رئيسي، يعتقد نيومان أن هذه إحصائية “سخية”. 

قال: “أعتقد أن معظم مجالس الإدارة متأخرة بشكل يرثى له، حيث تعتمد على خليط من كبار مسؤولي المعلومات، أو كبار ضباط الأمن، أو رؤساء الموارد البشرية الذين يجلسون في الجناح C”. 

“إنه مرصوف جدًا معًا وليس وصفًا وظيفيًا حقيقيًا يحمله شخص واحد مع نوع الإشراف ومسؤولية المصفوفة التي أتحدث عنها بقدر ما أتحدث عن CAIO حقيقي.” 

مستقبل رئيس منظمة العفو الدولية

في هذه الأيام، يقول نيومان إن الناس لم يعودوا يسألون “ما هو كبير مسؤولي الذكاء الاصطناعي؟” بقدر. لكن بدلاً من ذلك، تدعي المنظمات أنها “أخلاقية” وأن الذكاء الاصطناعي لديها ليس متحيزًا ضمنيًا.

وتابع: “هناك وعي متزايد بأن الشركة ستضطر إلى الإشراف، بالإضافة إلى شعور زائف بالأمان بأن الإشراف الموجود في معظم المنظمات في الوقت الحالي يكفي”. 

“لن يكون ذلك كافيًا عندما يأتي المنظمون والمنفذون والمحامون المدعون – إذا كنت سأغير جانبي وأبدأ في تمثيل المستهلكين والمدعين، يمكنني إحداث ثغرات كبيرة الحجم في غالبية إشراف الشركات والحوكمة للذكاء الاصطناعي “. 

وشدد على أن المنظمات بحاجة إلى كبير مسؤولي الذكاء الاصطناعي لأن “الأسئلة التي تطرحها هذه التكنولوجيا تتجاوز بكثير الأصفار، والآحاد، ومجموعات البيانات”. 

قال إن المنظمات “تلعب بالذخيرة الحية”. “الذكاء الاصطناعي ليس مجالًا يجب تركه لعالم البيانات فقط.” 

المصدر: venturebeat

شاهد ايضا:

إنشاء حساب باي بال

إنشاء حساب هوتميل

ترجمة عربي سويدي

إنشاء موقع ويب

إنشاء حساب فيسبوك

قوالب ووردبريس

سيو

محركات البحث

ترجمة عربي هولندي

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي