يضيف معيار MLPerf 3.0 LLMs ويظهر ارتفاعًا كبيرًا في أداء تدريب AI

مع استمرار الضجيج والزخم وراء الذكاء الاصطناعي التوليدي في النمو، كذلك يستمر أداء الأنظمة الأساسية التي تتيح تدريب التعلم الآلي (ML).
أعلنت MLCommons اليوم عن أحدث مجموعة من النتائج لمعيار MLPerf للتدريب 3.0. يهدف هذا إلى توفير مجموعة قياسية من القياسات الصناعية لأداء تدريب نموذج ML. MLCommons هو اتحاد هندسي مفتوح يركز على معايير ML، ومجموعات البيانات وأفضل الممارسات لتسريع تطوير الذكاء الاصطناعي.
لدى المجموعة سلسلة من معايير ML بما في ذلك استدلال MLPerf ، والذي تم تحديثه آخر مرة في أبريل. تم إصدار نتائج MLPerf Training 2.1 في نوفمبر 2022.
التضمين الجديد الكبير مع MLPerf Training 3.0 هو تقديم اختبار لتدريب نماذج اللغات الكبيرة (LLMs)، بدءًا من GPT-3 تحديدًا.
تأتي إضافة LLM إلى مجموعة المعايير في وقت حرج حيث تقوم المؤسسات ببناء تقنيات الذكاء الاصطناعي التوليدية.
بشكل عام، تتضمن الجولة الأخيرة من معايير التدريب أكثر من 250 نتيجة أداء مختلفة من 16 بائعًا بما في ذلك: ASUSTek و Microsoft Azure و Dell و Fujitsu وGIGABYTE وH3C وIEI و Intel و Habana Labs و Krai و Lenovo و Nvidia و CoreWeave + Nvidia وتقنية كوانتا كلاود، سوبرمايكرو وإكس فيوجن .
تفوق قدرات ML على قانون مور
بشكل أساسي، ما تظهره نتائج اختبار MLPerf Training 3.0 المعياري عبر جميع النتائج هو تعزيز كبير في الأداء يكشف كيف تتفوق قدرات ML على قانون مور.
“كصناعة، قانون مور هو ما يدفعنا إلى الأمام؛ هذا هو المقياس الذي يستخدمه كثير من الناس في التفكير في التقدم في مجال الإلكترونيات، “قال المدير التنفيذي لشركة MLCommons ، ديفيد كانتر ، خلال مؤتمر صحفي.
“مكاسب الأداء التي شهدناها منذ عام 2018 هي شيء في حي من 30 إلى 50X، وهو أمر لا يصدق، وهذا أسرع بحوالي 10 أضعاف من قانون مور.”
بالنظر على وجه التحديد إلى بيانات MLPerf Training خلال العام الماضي وحده، قال كانتر إن جميع النتائج قد شهدت مكاسب تتراوح بين 5 ٪ في النهاية المنخفضة و54 ٪ في النهاية العليا.
لماذا يزداد تدريب ML بشكل أسرع

هناك عدد من الأسباب التي تجعل تدريب تعلم الآلة يزداد سرعة، وبمعدل يفوق قانون مور.
أحد الروافع الأساسية لجعل التدريب أسرع هو السيليكون المُحسَّن، وهو أمر كان بائعو الصناعة بما في ذلك Nvidia و Intel يكررونه بقوة.
لاحظ كانتر أنه عندما بدأت معايير MLPerf ، استخدم السيليكون الأكثر تقدمًا عملية 16 نانومتر. على النقيض من ذلك، فإن الأكثر تقدمًا اليوم هو 5 نانومتر، مما يوفر كثافة وأداء أكبر نتيجة لذلك.
وراء هذه الأجهزة الخوارزميات والبرمجيات. وأشار كانتر إلى أن البائعين والباحثين يطورون باستمرار طرقًا جديدة وفعالة لتنفيذ العمليات.
بالإضافة إلى ذلك، هناك تحسينات عامة في سلسلة أدوات التطوير مع المكونات الأساسية مثل برامج التحويل البرمجي للكود. ثم هناك مسألة الحجم: بناء أنظمة أكبر مع مزيد من عرض النطاق الترددي للاتصال.
قامت Nvidia ببناء اتصالها القائم على InfiniBand في السنوات الأخيرة لدعم النطاق الترددي للاتصالات عالية السرعة. من جانبها، تعمل إنتل على تحسين إيثرنت لدعم الأداء المتزايد لعمليات ML.
قال جوردان بلاونر ، كبير مديري منتجات الذكاء الاصطناعي في إنتل خلال المكالمة الصحفية لـ MLCommons: “لقد أظهرنا أنه مع [Intel] Xeon ، يمكنك الحصول على 97 إلى 100٪ من التحجيم باستخدام نسيج إيثرنت قياسي مضبوط بدقة”.
تدريب LLM المعياري ليس بالمهمة السهلة
لم تكن الخطوة لدمج معيار تدريب LLM خصيصًا لـ GPT-3 مهمة صغيرة لـ MLCommons
. GPT-3 هو نموذج 175 مليار معلمة؛ في المقابل، فإن نموذج BERT لمعالجة اللغة الطبيعية (NLP) أصغر بكثير عند 340 مليون معلمة.
قال كانتر: “هذا إلى حد بعيد هو الأكثر تطلبًا من الناحية الحسابية من معاييرنا”.
حتى بالنسبة إلى Nvidia ، استغرق معيار LLM قدرًا ملحوظًا من الجهد لإجراء التقييم.
في إيجاز، أوضح مدير تقييم الذكاء الاصطناعي والسحابة Dave Salvator في Nvidia أن شركته قدمت عرضًا مشتركًا جنبًا إلى جنب مع مزود النظام الأساسي السحابي CoreWeave للمعيار.
استخدم التقييم 3484 وحدة معالجة رسومات عبر العديد من معايير MLPerf Training 3.0.
أشار سالفاتور إلى أن CoreWeave قد أعلنت عن التوفر العام لمثيلاتها الضخمة من GPU في حدث Nvidia GTC في مارس. وأضاف أن CoreWeave كان المحرك الأول لإتاحة مثيلات HGX H100 بشكل عام.
قال سالفاتور: “من خلال هذا التعاون، إما أن نضع أو نحطم الأرقام القياسية في كل عبء عمل تقريبًا”. “الشيء المثير للاهتمام أيضًا في هذا هو أن المثال هو مثال تجاري مباشر.”
يتم أيضًا استخدام مثيلات CoreWeave HGX H100 المستخدمة لمعايير MLPerf بواسطة بدء التشغيل Inflection AI، الذي طور الذكاء الاصطناعي الخاص به والذي يطلق عليه Pi.
أشار سالفاتور إلى أن Inflection AI ساعد أيضًا Nvidia و CoreWeave في بعض الضبط الدقيق لمثيلات وحدة معالجة الرسومات.
قال سالفاتور: “نتائج الاختبار التي نحصل عليها في MLPerf ليست نوعًا من المختبر المعقم المعقم بالهواء الذي لا يمثل بيئة حقيقية”.
“هذا مثال متوفر تجاريًا في العالم الحقيقي جدًا حيث نشهد هذه النتائج، ولدينا عميل مثل Inflection AI الذي يعمل على LLM متطور ويستخدم نفس الحالة ويحقق نتائج رائعة.”
المصدر: venturebeat
قد يهمك: