استخدمنا نظرية الألعاب لتحديد مشاريع الذكاء الاصطناعي التي يجب تنظيمها

غالبًا ما يتجاهل مطورو الذكاء الاصطناعي الأخلاق في سعيهم لتحقيق اختراق
منذ أن قام الذكاء الاصطناعي (AI) بالانتقال من النظرية إلى الواقع، كانت مراكز البحث والتطوير في جميع أنحاء العالم تتعجل للتوصل إلى اختراق كبير للذكاء الاصطناعي.
تسمى هذه المنافسة أحيانًا “سباق الذكاء الاصطناعي”. لكن من الناحية العملية، هناك المئات من “سباقات الذكاء الاصطناعي” التي تتجه نحو أهداف مختلفة.
تتسابق بعض مراكز الأبحاث لإنتاج الذكاء الاصطناعي للتسويق الرقمي، على سبيل المثال، بينما يتسابق البعض الآخر لإقران الذكاء الاصطناعي بالأجهزة العسكرية. بعض السباقات بين الشركات الخاصة والبعض الآخر بين البلدان.
نظرًا لأن باحثي الذكاء الاصطناعي يتنافسون للفوز بالسباق الذي اختاروه، فقد يتغاضون عن مخاوف السلامة من أجل التفوق على منافسيهم.
لكن إنفاذ السلامة عبر اللوائح غير مطور، وقد يكون الإحجام عن تنظيم الذكاء الاصطناعي مبررًا بالفعل: فقد يخنق الابتكار، ويقلل من الفوائد التي يمكن أن يقدمها الذكاء الاصطناعي للبشرية.
سعى بحثنا الأخير، الذي تم إجراؤه جنبًا إلى جنب مع زميلنا فرانسيسكو سي سانتوس، إلى تحديد سباقات الذكاء الاصطناعي التي يجب تنظيمها لأسباب تتعلق بالسلامة، وأيها يجب تركها دون تنظيم لتجنب خنق الابتكار.
لقد فعلنا ذلك باستخدام محاكاة نظرية اللعبة.
تفوق الذكاء الاصطناعي
يجب أن يأخذ تنظيم الذكاء الاصطناعي في الاعتبار أضرار وفوائد التكنولوجيا.
تشمل الأضرار التي قد تسعى اللوائح إلى إصدار تشريعات ضدها إمكانية قيام الذكاء الاصطناعي بالتمييز ضد المجتمعات المحرومة وتطوير أسلحة مستقلة.
لكن فوائد الذكاء الاصطناعي، مثل التشخيص الأفضل للسرطان والنمذجة الذكية للمناخ، قد لا تكون موجودة إذا كان تنظيم الذكاء الاصطناعي صعبًا للغاية.
من شأن تنظيم الذكاء الاصطناعي المعقول أن يزيد من فوائده ويخفف من أضراره.
ولكن مع تنافس الولايات المتحدة مع الصين وروسيا لتحقيق “تفوق الذكاء الاصطناعي” – وهي ميزة تكنولوجية واضحة على المنافسين – فقد تراجعت اللوائح حتى الآن.
وقد دفعنا هذا، وفقًا للأمم المتحدة، إلى ” منطقة أخلاقية غير مقبولة “.
دعا باحثو الذكاء الاصطناعي وهيئات الحوكمة، مثل الاتحاد الأوروبي، إلى لوائح عاجلة لمنع تطور الذكاء الاصطناعي غير الأخلاقي.
مع ذلك، فقد أقر الكتاب الأبيض الصادر عن الاتحاد الأوروبي بشأن هذه القضية أنه من الصعب على هيئات الحوكمة معرفة أي سباق للذكاء الاصطناعي سينتهي بذكاء اصطناعي غير أخلاقي، وأي سباق سينتهي بذكاء اصطناعي مفيد.
أتطلع قدما
أردنا معرفة سباقات الذكاء الاصطناعي التي يجب أن تحظى بالأولوية في التنظيم، لذلك أنشأ فريقنا نموذجًا نظريًا لمحاكاة سباقات الذكاء الاصطناعي الافتراضية.
ثم أجرينا هذه المحاكاة في مئات التكرارات، وقمنا بتعديل المتغيرات للتنبؤ بكيفية ظهور سباقات الذكاء الاصطناعي في العالم الحقيقي.
يتضمن نموذجنا عددًا من الوكلاء الافتراضيين، يمثلون المنافسين في سباق الذكاء الاصطناعي – مثل شركات التكنولوجيا المختلفة، على سبيل المثال.
تم تعيين سلوك لكل وكيل بشكل عشوائي، لتقليد سلوك هؤلاء المنافسين في سباق حقيقي للذكاء الاصطناعي.
على سبيل المثال، يفكر بعض الوكلاء بعناية في جميع البيانات ومخاطر الذكاء الاصطناعي، لكن البعض الآخر يخاطر بشكل غير مبرر بتخطي هذه الاختبارات.
اعتمد النموذج نفسه على نظرية اللعبة التطورية، والتي تم استخدامها في الماضي لفهم كيفية تطور السلوكيات على نطاق المجتمعات أو الناس أو حتى جيناتنا.
يفترض النموذج أن الفائزين في لعبة معينة – في حالتنا سباق الذكاء الاصطناعي – يأخذون كل الفوائد، كما يجادل علماء الأحياء في التطور.
من خلال إدخال اللوائح في محاكاتنا – معاقبة السلوك غير الآمن ومكافأة السلوك الآمن – يمكننا بعد ذلك ملاحظة اللوائح التي نجحت في تعظيم الفوائد، والتي انتهى بها الأمر إلى خنق الابتكار.
دروس الحوكمة
كان المتغير الذي وجدنا أنه مهم بشكل خاص هو ” طول ” السباق – الوقت الذي استغرقته سباقات المحاكاة للوصول إلى هدفها (منتج فعال للذكاء الاصطناعي).
عندما وصلت سباقات الذكاء الاصطناعي إلى هدفها بسرعة، وجدنا أن المنافسين الذين قمنا بترميزهم يتغاضون دائمًا عن احتياطات السلامة هم الفائزون دائمًا.
في هذه السباقات السريعة للذكاء الاصطناعي، أو “سباقات الذكاء الاصطناعي”، يتم اكتساب الميزة التنافسية من خلال السرعة، وأولئك الذين يتوقفون لبرهة للنظر في السلامة والأخلاق يخسرون دائمًا.
سيكون من المنطقي تنظيم سباقات الذكاء الاصطناعي هذه، بحيث تكون منتجات الذكاء الاصطناعي التي يختتمون بها آمنة وأخلاقية.
من ناحية أخرى، وجدت المحاكاة التي أجريناها أن مشاريع الذكاء الاصطناعي طويلة المدى، أو “ماراثون الذكاء الاصطناعي”، تتطلب لوائح بشكل أقل إلحاحًا.
ذلك لأن الفائزين في سباقات الذكاء الاصطناعي لم يكونوا دائمًا من تغاضى عن السلامة. بالإضافة إلى ذلك، وجدنا أن تنظيم سباقات الذكاء الاصطناعي منعهم من تحقيق إمكاناتهم.
بدا هذا وكأنه خنق مفرط في التنظيم – النوع الذي يمكن أن يعمل في الواقع ضد مصالح المجتمع.
بالنظر إلى هذه النتائج، سيكون من المهم للمنظمين تحديد المدة التي من المحتمل أن تستمر فيها سباقات الذكاء الاصطناعي المختلفة، وتطبيق لوائح مختلفة بناءً على الجداول الزمنية المتوقعة.
تشير النتائج التي توصلنا إليها إلى أن قاعدة واحدة لجميع سباقات الذكاء الاصطناعي – من سباقات السرعة إلى سباقات الماراثون – ستؤدي إلى بعض النتائج بعيدة عن المثالية.
لم يفت الأوان بعد لتجميع لوائح ذكية ومرنة لتجنب الذكاء الاصطناعي غير الأخلاقي والخطير مع دعم الذكاء الاصطناعي الذي يمكن أن يفيد البشرية.
لكن مثل هذه اللوائح قد تكون ملحة: تقترح المحاكاة التي أجريناها أن سباقات الذكاء الاصطناعي التي من المقرر أن تنتهي في أقرب وقت ستكون الأكثر أهمية للتنظيم.
المصدر: thenextweb
قد يهمك: