مع تنامي مخاطر الذكاء الاصطناعي، يدعو الإنسان إلى زيادة تمويل المعهد القومي للمعايير والتكنولوجيا (NIST)

مع نمو سرعة ونطاق ابتكار الذكاء الاصطناعي والمخاطر المرتبطة به، تطالب شركة أبحاث الذكاء الاصطناعي Anthropic بتقديم 15 مليون دولار لتمويل المعهد الوطني للمعايير والتكنولوجيا (NIST) لدعم جهود الوكالة في قياس الذكاء الاصطناعي والمعايير.
نشرت أنثروبيك مذكرة دعوة لاتخاذ إجراء أمس، بعد يومين من الاستماع إلى الميزانية حول تمويل 2024 من وزارة التجارة الأمريكية حيث كان هناك دعم من الحزبين للحفاظ على القيادة الأمريكية في تطوير التقنيات الحيوية.
عملت NIST، وهي وكالة تابعة لوزارة التجارة الأمريكية، لسنوات على قياس أنظمة الذكاء الاصطناعي وتطوير المعايير التقنية، بما في ذلك اختبار بائع التعرف على الوجوه وإطار إدارة مخاطر الذكاء الاصطناعي الأخير.
ذكرت المذكرة أن زيادة التمويل الفيدرالي لـ NIST هي “واحدة من أفضل الطرق لتوجيه هذا الدعم … بحيث تكون في وضع جيد للقيام بعملها لتعزيز الابتكار التكنولوجي الآمن.”
نهج مخاطر الذكاء الاصطناعي “الجاهز لمجرفة”
بينما كانت هناك مقترحات طموحة أخرى مؤخرًا – دعوات إلى ” وكالة دولية ” للذكاء الاصطناعي، ومقترحات تشريعية لـ ” نظام تنظيمي ” للذكاء الاصطناعي، وبالطبع رسالة مفتوحة “لإيقاف” تطوير الذكاء الاصطناعي مؤقتًا – قالت مذكرة أنثروبيك إن الدعوة إلى تمويل NIST هي فكرة أبسط و “جاهزة للتجول” متاحة لواضعي السياسات.
قال جاك كلارك، الشريك المؤسس للأنثروبي في مقابلة مع VentureBeat: “هذا شيء يمكننا القيام به اليوم لا يتطلب أي شيء شديد الوحشية”.
أضاف كلارك، الذي كان نشطًا في عمل سياسة الذكاء الاصطناعي لسنوات (بما في ذلك فترة عمله في OpenAI)، أن “هذا هو العام الذي يجب أن تكون فيه طموحة بشأن هذا التمويل، لأن هذا هو العام الذي بدأ فيه معظم صانعي السياسات في الاستيقاظ على الذكاء الاصطناعي واقتراح الأفكار.”
الساعة تدق في التعامل مع مخاطر الذكاء الاصطناعي
اعترف كلارك بأن شركة مثل Anthropic التي تمولها Google ، والتي تعد واحدة من أفضل الشركات التي تبني نماذج لغة كبيرة (LLMs)، فإن اقتراح هذه الأنواع من الإجراءات “غريب بعض الشيء”.
وأوضح قائلاً: “ليس هذا نموذجيًا، لذا أعتقد أن هذا يوضح ضمنيًا أن عقارب الساعة تدق” عندما يتعلق الأمر بمعالجة مخاطر الذكاء الاصطناعي.
لكنه أضاف أنه تجربة أيضًا: “نحن ننشر المذكرة لأنني أريد أن أرى رد الفعل في كل من العاصمة وعلى نطاق أوسع، لأنني آمل أن يقنع ذلك الشركات والأكاديميين الآخرين وغيرهم بقضاء المزيد من الوقت في نشر هذا النوع من الأشياء.”
وأشار إلى أنه إذا تم تمويل المعهد القومي للمعايير والتكنولوجيا (NIST) بشكل أفضل، “فسنحصل على عمل أكثر قوة في القياس والتقييم في مكان يجمع بشكل طبيعي بين الحكومة والأوساط الأكاديمية والصناعة.”
من ناحية أخرى، إذا لم يتم تمويلها، فسيتم إجراء المزيد من عمليات التقييم والقياس “فقط من قبل الجهات الفاعلة في الصناعة، لأنهم هم من ينفقون الأموال.
تعد محادثة الذكاء الاصطناعي أفضل مع وجود المزيد من الأشخاص على الطاولة، وهذه مجرد طريقة منطقية لجذب المزيد من الأشخاص إلى المائدة “.
سلبيات “الاستحواذ الصناعي” في الذكاء الاصطناعي
من الجدير بالملاحظة أنه في الوقت الذي يسعى فيه Anthropic المليارات للاستيلاء على OpenAI ، وكان مرتبطًا بشكل مشهور بانهيار إمبراطورية التشفير التي أسسها Sam Bankman-Fried ، يتحدث كلارك عن سلبيات ” الاستحواذ الصناعي “.
قال: “في العقد الماضي، انتقلت أبحاث الذكاء الاصطناعي من كونها تمرينًا أكاديميًا في الغالب إلى تمرين صناعي، إذا نظرت إلى أين يتم إنفاق الأموال”.
“هذا يعني أن الكثير من الأنظمة التي تكلف الكثير من المال تقودها هذه الأقلية من الجهات الفاعلة، التي يوجد معظمها في القطاع الخاص.”
وأوضح كلارك أن إحدى الطرق المهمة لتحسين ذلك هي إنشاء بنية تحتية حكومية تمنح الحكومة والأوساط الأكاديمية طريقة لتدريب الأنظمة على الحدود وبناءها وفهمها بأنفسهم.
“بالإضافة إلى ذلك، يمكن أن يكون لديك المزيد من الأشخاص الذين يطورون القياسات وأنظمة التقييم لمحاولة إلقاء نظرة فاحصة على ما يحدث في الحدود واختبار النماذج.”
محادثة على مستوى المجتمع يحتاج صانعو السياسات إلى تحديد أولوياتها
مع زيادة الأحاديث حول مخاطر مجموعات البيانات الضخمة التي تدرب نماذج اللغة الكبيرة الشائعة مثل ChatGPT ، قال كلارك إن البحث حول سلوك مخرجات أنظمة الذكاء الاصطناعي، وإمكانية التفسير، ومستوى الشفافية الذي يجب أن يبدو أمرًا مهمًا.
قال “آمل واحدًا هو أن مكانًا مثل NIST يمكن أن يساعدنا في إنشاء نوع من مجموعات البيانات العامة ذات المعيار الذهبي، والتي ينتهي الأمر باستخدامها كجزء من النظام أو كمدخل في النظام”.
بشكل عام، قال كلارك إنه انخرط في عمل سياسة الذكاء الاصطناعي لأنه رأى أهميته المتزايدة “محادثة عملاقة على مستوى المجتمع”.
عندما يتعلق الأمر بالعمل مع صانعي السياسات، أضاف أن معظمه يتعلق بفهم الأسئلة التي لديهم ومحاولة أن يكونوا مفيدًا.
الأسئلة هي أشياء مثل “أين مرتبة الولايات المتحدة مع الصين في أنظمة الذكاء الاصطناعي؟” أو “ما هو الإنصاف في سياق أنظمة نصية الذكاء الاصطناعي التوليدية؟” “أنت تحاول فقط مقابلتهم أينما كانوا والإجابة على [هذه] الأسئلة، ثم استخدامها للتحدث عن قضايا أوسع – أعتقد حقًا أن الناس أصبحوا أكثر دراية بهذا المجال بسرعة كبيرة.”
المصدر: venturebeat
قد يهمك: