يجب أن يكون الذكاء الاصطناعي المسؤول أولوية – الآن

يجب تضمين الذكاء الاصطناعي المسؤول في الحمض النووي للشركة. 

“لماذا يعتبر التحيز في الذكاء الاصطناعي أمرًا نحتاج جميعًا إلى التفكير فيه اليوم؟ قال ميريام فوجل، الرئيس والمدير التنفيذي لشركة EqualAI ، لجمهور البث المباشر خلال حدث Transform 2022 هذا الأسبوع، هذا لأن الذكاء الاصطناعي يغذي كل ما نقوم به اليوم.

ناقشت Vogel موضوعات انحياز الذكاء الاصطناعي والذكاء الاصطناعي المسؤول بعمق في محادثة بجانب المدفأة بقيادة فيكتوريا إسبينيل من المجموعة التجارية The Software Alliance . 

تتمتع Vogel بخبرة واسعة في التكنولوجيا والسياسة، بما في ذلك في البيت الأبيض ووزارة العدل الأمريكية (DOJ) وفي منظمة EqualAI غير الربحية، والتي تكرس جهودها للحد من التحيز اللاواعي في تطوير واستخدام الذكاء الاصطناعي. 

كما أنها تشغل منصب رئيس اللجنة الاستشارية الوطنية للذكاء الاصطناعي (NAIAC) التي تم إطلاقها مؤخرًا، والتي فوضها الكونغرس لتقديم المشورة للرئيس والبيت الأبيض بشأن سياسة الذكاء الاصطناعي.

كما أشارت، أصبح الذكاء الاصطناعي أكثر أهمية في حياتنا اليومية – وتحسينها بشكل كبير – ولكن في الوقت نفسه، علينا أن نفهم المخاطر العديدة الكامنة في الذكاء الاصطناعي. 

يجب على الجميع – البنائين والمبدعين والمستخدمين على حدٍ سواء – أن يجعلوا الذكاء الاصطناعي “شريكًا لنا”، بالإضافة إلى الكفاءة والفعالية والجدارة بالثقة. 

قال Vogel: “لا يمكنك بناء الثقة مع تطبيقك إذا لم تكن متأكدًا من أنه آمن لك، وأنه مصمم لك”. 

الان هو الوقت

قال فوغل، يجب علينا معالجة مسألة الذكاء الاصطناعي المسؤول الآن، لأننا ما زلنا نرسي “قواعد الطريق”. ما يشكل الذكاء الاصطناعي يظل نوعًا من “المنطقة الرمادية”.

وإذا لم يتم تناولها؟ قد تكون العواقب وخيمة. قد لا يحصل الناس على الرعاية الصحية أو فرص العمل المناسبة نتيجة لانحياز الذكاء الاصطناعي، وحذر فوغل من أن “التقاضي سيأتي، وسيأتي التنظيم”. 

عندما يحدث ذلك، “لا يمكننا فك أنظمة الذكاء الاصطناعي التي أصبحنا نعتمد عليها كثيرًا، والتي أصبحت متشابكة”، قالت. 

“الآن، اليوم، هو الوقت المناسب لنا لكي نكون مدركين تمامًا لما نقوم ببنائه ونشره، والتأكد من أننا نقوم بتقييم المخاطر، والتأكد من أننا نقوم بتقليل تلك المخاطر.”

نظافة جيدة باستخدام الذكاء الاصطناعي

يجب على الشركات التعامل مع الذكاء الاصطناعي المسؤول الآن من خلال إنشاء ممارسات وسياسات حوكمة قوية وإنشاء ثقافة آمنة وتعاونية ومرئية. 

قال فوغل أن هذا يجب أن “يتم التعامل معه من خلال الرافعات” وأن يتم التعامل معه بحذر وبشكل متعمد. 

على سبيل المثال، في التوظيف، يمكن للشركات أن تبدأ ببساطة بالسؤال عما إذا كانت المنصات قد تم اختبارها من أجل التمييز. 

قال فوغل: “هذا السؤال الأساسي فقط قوي للغاية”. 

يجب أن يكون فريق الموارد البشرية في المؤسسة مدعومًا بالذكاء الاصطناعي الشامل والذي لا يستبعد أفضل المرشحين من التوظيف أو التقدم. 

قال فوغل إنها مسألة “نظافة جيدة للذكاء الاصطناعي”، وتبدأ مع C-suite. 

“لماذا سي سويت؟ لأنه في نهاية اليوم، إذا لم يكن لديك قبول على أعلى المستويات، فلن تتمكن من وضع إطار عمل الحوكمة، ولا يمكنك الحصول على استثمار في إطار الحوكمة، ولا يمكنك الحصول على قال فوغل: 

أيضًا، يعد اكتشاف التحيز عملية مستمرة: بمجرد إنشاء إطار عمل، يجب أن تكون هناك عملية طويلة الأجل للتقييم المستمر لما إذا كان التحيز يعيق الأنظمة أم لا. 

قال فوغل: “يمكن أن يتم تضمين التحيز في كل نقطة اتصال بشرية”، من جمع البيانات، إلى الاختبار، إلى التصميم، إلى التطوير والنشر. 

الذكاء الاصطناعي المسؤول: مشكلة على المستوى البشري

أشار Vogel إلى أن الحديث عن انحياز الذكاء الاصطناعي ومسؤولية الذكاء الاصطناعي كان في البداية مقصورًا على المبرمجين – لكن Vogel يشعر أنه “غير عادل”. 

قالت: “لا يمكننا أن نتوقع منهم أن يحلوا مشاكل الإنسانية بأنفسهم”. 

إنها طبيعة بشرية: غالبًا ما يتخيل الناس على نطاق واسع فقط بالقدر الذي تسمح به تجربتهم أو إبداعهم. 

لذلك، كلما زاد عدد الأصوات التي يمكن جلبها، كان ذلك أفضل لتحديد أفضل الممارسات والتأكد من أن قضية التحيز القديمة لا تتغلغل في الذكاء الاصطناعي. 

قال فوغل إن هذا جاري بالفعل، مع قيام الحكومات في جميع أنحاء العالم بصياغة أطر تنظيمية. 

على سبيل المثال، ينشئ الاتحاد الأوروبي لائحة شبيهة باللوائح العامة لحماية البيانات للذكاء الاصطناعي.

بالإضافة إلى ذلك، في الولايات المتحدة، أصدرت لجنة تكافؤ فرص العمل في البلاد ووزارة العدل مؤخرًا بيانًا مشتركًا “غير مسبوق” بشأن الحد من التمييز عندما يتعلق الأمر بالإعاقات – وهو أمر يمكن أن يزيده الذكاء الاصطناعي وخوارزمياته سوءًا إذا لم تتم مشاهدته.

 كما تم تفويض المعهد الوطني للمعايير والتكنولوجيا في الكونغرس لإنشاء إطار عمل لإدارة المخاطر للذكاء الاصطناعي. 

قال فوغل: “يمكننا أن نتوقع الكثير من الولايات المتحدة فيما يتعلق بتنظيم الذكاء الاصطناعي”. 

وهذا يشمل اللجنة التي تم تشكيلها مؤخرًا والتي تترأسها الآن. 

قالت “سيكون لدينا تأثير”.

المصدر: venturebeat

قد يهمك:

شركة سيو

قالب ووردبريس صحيفة Sahifa

قالب استرا Astra

قالب متجر إلكتروني ووردبريس

إنشاء متجر الكتروني

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي