كيف سيتم استخدام الذكاء الاصطناعي أخلاقيا في المستقبل؟ مختبر مسؤولية الذكاء الاصطناعي لديه خطة

مع نمو استخدام الذكاء الاصطناعي في جميع الصناعات وتقريبًا كل جانب من جوانب المجتمع، هناك حاجة واضحة بشكل متزايد إلى وجود ضوابط مطبقة للذكاء الاصطناعي المسؤول.
يتعلق الذكاء الاصطناعي المسؤول بالتأكد من استخدام الذكاء الاصطناعي بطريقة غير أخلاقية، تساعد على احترام الخصوصية الشخصية وتتجنب التحيز بشكل عام.
هناك على ما يبدو تدفق لا نهاية له من الشركات والتقنيات والباحثين الذين يعالجون القضايا المرتبطة بالذكاء الاصطناعي المسؤول.
تنضم الآن مختبرات مسؤولية الذكاء الاصطناعي (AIRL) التي تحمل اسمًا مناسبًا إلى المعركة، حيث أعلنت عن 2 مليون دولار في التمويل الأولي، إلى جانب إطلاق معاينة لمنصة برنامج التحكم في المهام كخدمة (SaaS) للشركة.
يقود AIRL الرئيس التنفيذي للشركة رامزي براون، الذي تم تدريبه كعالم أعصاب حسابي في جامعة جنوب كاليفورنيا، حيث أمضى الكثير من الوقت في العمل على رسم خرائط للعقل البشري.
عُرفت شركته الناشئة الأولى في الأصل باسم مختبرات الدوبامين، والتي أعيدت تسميتها باسم Boundless Mind، مع التركيز على الهندسة السلوكية وكيفية استخدام التعلم الآلي لعمل تنبؤات حول كيفية تصرف الناس. استحوذت Thrive Global على Boundless Mind في عام 2019.
في AIRL، يتعامل براون وفريقه مع قضايا أمان الذكاء الاصطناعي، والتأكد من استخدام الذكاء الاصطناعي بشكل مسؤول بطريقة لا تضر بالمجتمع أو المنظمات التي تستخدم التكنولوجيا.
قال براون: “لقد أسسنا الشركة وقمنا ببناء منصة برمجية لـ Mission Control للبدء بمساعدة فرق علوم البيانات على أداء وظيفتهم بشكل أفضل وأكثر دقة وأسرع”.
“عندما ننظر حول مجتمع الذكاء الاصطناعي المسؤول، هناك بعض الأشخاص الذين يعملون في مجال الحوكمة والامتثال، لكنهم لا يتحدثون إلى فرق علوم البيانات ويكتشفون ما هو مؤلم بالفعل.”
ما هي فرق علوم البيانات التي تحتاجها لإنشاء ذكاء اصطناعي مسؤول
صرح براون بشكل قاطع أنه من غير المحتمل أن تقوم أي منظمة ببناء ذكاء اصطناعي متحيز عن قصد ويستخدم البيانات بطريقة غير أخلاقية.
بدلاً من ذلك، ما يحدث عادةً في تطور معقد مع العديد من القطع المتحركة والأشخاص المختلفين هو إساءة استخدام البيانات عن غير قصد أو نماذج التعلم الآلي المدربة على بيانات غير كاملة.
عندما سأل براون وفريقه علماء البيانات عما هو مفقود وما الذي يضر بجهود التنمية، أخبره المستجيبون أنهم يبحثون عن برنامج إدارة المشروع أكثر من إطار الامتثال.
قال: “كانت تلك لحظة” الهاء “الكبيرة لدينا. “الشيء الذي فات الفرق في الواقع ليس أنهم لا يفهمون اللوائح، بل أنهم لم يعرفوا ما الذي تفعله فرقهم.”
أشار براون إلى أنه قبل عقدين من الزمن، حدثت ثورة في هندسة البرمجيات مع تطوير أدوات لوحة القيادة مثل Atlassian’s Jira ، والتي ساعدت المطورين على بناء البرامج بشكل أسرع.
الآن، يأمل أن تكون وحدة التحكم في مهام AIRL هي لوحة القيادة في علم البيانات لمساعدة فرق البيانات على بناء تقنيات بممارسات الذكاء الاصطناعي المسؤولة.
العمل مع أطر عمل AI وMLops الحالية
هناك العديد من الأدوات التي يمكن للمؤسسات استخدامها اليوم للمساعدة في إدارة عمليات سير عمل التعلم الآلي والذكاء الاصطناعي، والتي يتم تجميعها أحيانًا معًا ضمن فئة الصناعة من MLops.
تشمل التقنيات الشائعة AWS Sagemaker و Google VertexAI و Domino Data Lab و BigPanda .
قال براون إن أحد الأشياء التي تعلمتها شركته أثناء إنشاء خدمة التحكم في المهام هو أن فرق علوم البيانات لديها العديد من الأدوات المختلفة التي يفضلون استخدامها.
قال إن AIRL لا تتطلع إلى التنافس مع MLops وأدوات الذكاء الاصطناعي الحالية، بل لتوفير تراكب في الأعلى للاستخدام المسؤول للذكاء الاصطناعي.
ما قامت به AIRL هو تطوير نقطة نهاية مفتوحة لواجهة برمجة التطبيقات بحيث يمكن للفريق الذي يستخدم التحكم في المهمة تمرير أي بيانات من أي نظام أساسي وجعلها في نهاية المطاف جزءًا من عمليات المراقبة.
يوفر نظام التحكم في المهام من AIRL إطارًا للفرق لاتخاذ ما كانوا يفعلونه في مناهج مخصصة وإنشاء عمليات موحدة للتعلم الآلي وعمليات الذكاء الاصطناعي.
قال براون إن Mission Control تمكن المستخدمين من أخذ دفاتر علوم البيانات وتحويلها إلى عمليات قابلة للتكرار ومهام سير عمل تعمل ضمن المعلمات المكونة للاستخدام المسؤول للذكاء الاصطناعي.
في مثل هذا النموذج، يتم توصيل البيانات بنظام مراقبة يمكنه تنبيه منظمة إذا كان هناك انتهاك للسياسات.
على سبيل المثال، أشار إلى أنه إذا استخدم عالم البيانات مجموعة بيانات لا تسمح السياسة باستخدامها في عملية معينة للتعلم الآلي، فيمكن لـ Mission Control التقاط ذلك تلقائيًا، ورفع علامة إلى المديرين وإيقاف سير العمل مؤقتًا.
قال براون: “إن مركزية المعلومات هذه تخلق تنسيقاً ورؤية أفضل”. “كما أنه يقلل من احتمالية أن تنتهي الأنظمة ذات النتائج الشائكة وغير المرغوب فيها حقًا في الإنتاج.”
التطلع إلى عام 2027 ومستقبل الذكاء الاصطناعي المسؤول
بالنظر إلى عام 2027، تمتلك AIRL خطة خارطة طريق للمساعدة في التعامل مع المخاوف الأكثر تقدمًا حول استخدام الذكاء الاصطناعي وإمكانية الذكاء العام الاصطناعي (AGI).
ينصب تركيز الشركة لعام 2027 على تمكين جهد تسميه بروتوكول تحفيز العمالة الاصطناعية (SLIP).
الفكرة الأساسية هي الحصول على شكل من أشكال العقد الذكي لاستخدام العمالة المدعومة بالذكاء الاصطناعي العام في الاقتصاد.
قال براون: “إننا نتطلع إلى ظهور الذكاء الاصطناعي العام، باعتباره مصدر قلق لوجستي على مستوى الأعمال والمجتمع يجب التحدث عنه ليس بعبارة” مصطلحات الخيال العلمي “، ولكن من منظور إدارة الحوافز العملية”.
المصدر: venturebeat
شاهد المزيد: