ماذا يعني تطوير أفضل ممارسات LLM للمؤسسة

تعد نماذج اللغات الكبيرة (LLMs) والذكاء الاصطناعي متعدد الوسائط من أحدث ابتكارات الذكاء الاصطناعي، مع وصول التطبيقات إلى المؤسسة من “Googles” و “OpenAIs” في العالم. نشهد حاليًا وابلًا من إعلانات نموذج LLM والذكاء الاصطناعي متعدد الوسائط، بالإضافة إلى التطبيقات التجارية التي تم إنشاؤها حولها.

تطبيقات الطاقة LLMs التي تتراوح من إنشاء الكود إلى ملاحظات العملاء. في الوقت نفسه، يقودون الذكاء الاصطناعي متعدد الوسائط ويؤججون النقاش حول حدود الذكاء الاصطناعي واستخدامه. 

في عام 2019، اعتبرت شركة أوبن إيه آي ” GPT-2″ أنها “خطيرة للغاية بحيث لا يمكن إصدارها”. اليوم، يتم إطلاق نماذج أقوى بكثير من GPT-2. 

في كلتا الحالتين، يبدو التقييم تعسفيًا. ومع ذلك، بالأمس، ربما تم اتخاذ خطوة أولى نحو أفضل الممارسات على مستوى الصناعة لنشر نموذج لغة الذكاء الاصطناعي.

تعاونت Cohere وOpenAI وAI21 Labs في مجموعة أولية من أفضل الممارسات المطبقة على أي منظمة تقوم بتطوير أو نشر LLMs. 

يوصي الثلاثي بمبادئ أساسية لمساعدة مزودي LLM على التخفيف من مخاطر هذه التكنولوجيا من أجل تحقيق وعدها الكامل لزيادة القدرات البشرية.

مدعوم على نطاق واسع

وقد حظيت هذه الخطوة بدعم من Anthropic ومركز الأمان والتكنولوجيا الناشئة وGoogle Cloud Platform ومركز ستانفورد لأبحاث النماذج الأساسية. 

تعمل مختبرات AI21 وAnthropic وCohere وGoogle وOpenAI على تطوير LLM بشكل تجاري، لذا قد يشير اعتماد أفضل الممارسات هذه إلى ظهور نوع من الإجماع حول نشرها.

تتمحور التوصية المشتركة لنشر نموذج اللغة حول مبادئ حظر إساءة الاستخدام وتخفيف الضرر غير المقصود والتعاون بشكل مدروس مع أصحاب المصلحة.

أشار Cohere وOpenAI وAI21 Labs إلى أنه بينما تم تطوير هذه المبادئ بشكل خاص بناءً على خبرتهم في توفير LLM من خلال واجهة برمجة التطبيقات، فإنهم يأملون أن تكون مفيدة بغض النظر عن استراتيجية الإصدار (مثل المصادر المفتوحة أو الاستخدام داخل الشركة).

وأشار الثلاثي أيضًا إلى أنهم يتوقعون أن تتغير هذه التوصيات بشكل كبير بمرور الوقت لأن الاستخدامات التجارية لـ LLM واعتبارات السلامة المصاحبة جديدة ومتطورة. 

أضافوا أن تعلم ومعالجة قيود LLM وسبل إساءة الاستخدام مستمر، بينما دعوا الآخرين لمناقشة هذه المبادئ والمساهمة فيها والتعلم منها واعتمادها.

حظر إساءة استخدام النماذج اللغوية الكبيرة

لمحاولة منع إساءة استخدام هذه التكنولوجيا، توصي المجموعة بنشر إرشادات الاستخدام وشروط استخدام LLM بطريقة تحظر الضرر المادي للأفراد والمجتمعات والمجتمع. 

أيضًا لبناء الأنظمة والبنية التحتية لفرض إرشادات الاستخدام. هذا شيء رأينا أن OpenAI يدرجه في شروط الاستخدام، على سبيل المثال.

يجب أن تحدد إرشادات الاستخدام أيضًا المجالات التي يتطلب فيها استخدام LLM تدقيقًا إضافيًا وتحظر حالات الاستخدام عالية الخطورة غير المناسبة، مثل تصنيف الأشخاص بناءً على الخصائص المحمية. 

قد يتضمن فرض إرشادات الاستخدام حدودًا للمعدلات، وتصفية المحتوى، والموافقة على التطبيق قبل الوصول إلى الإنتاج، ومراقبة النشاط الشاذ وعمليات التخفيف الأخرى.

التخفيف من الضرر غير المقصود

لمحاولة التخفيف من الضرر غير المتعمد، فإن الممارسات الموصى بها هي للتخفيف بشكل استباقي من سلوك النموذج الضار، وتوثيق نقاط الضعف ونقاط الضعف المعروفة.

تعد بطاقات نماذج Google مبادرة حالية من قِبل Google، تم الاستعانة بها في نموذج PaLM الذي تم الإعلان عنه مؤخرًا، والذي قد يتيح ذلك.

تشمل أفضل الممارسات للتخفيف من الضرر غير المتعمد تقييم نموذج شامل لتقييم القيود بشكل صحيح، وتقليل المصادر المحتملة للتحيز في هيئة التدريب، وتقنيات لتقليل السلوك غير الآمن مثل التعلم من ردود الفعل البشرية.

التعاون بشكل مدروس مع أصحاب المصلحة

لتشجيع التعاون المدروس مع أصحاب المصلحة، فإن التوصيات هي بناء فرق من خلفيات متنوعة، والكشف علنًا عن الدروس المستفادة فيما يتعلق بسلامة LLM وإساءة الاستخدام، ومعاملة جميع العمالة في سلسلة التوريد الخاصة بنموذج اللغة باحترام. 

قد يكون هذا هو الجزء الأصعب من التوصيات التي يجب اتباعها: سلوك Google في القضية التي أدت إلى إقالة الرؤساء السابقين لفريق أخلاقيات الذكاء الاصطناعي هو حالة عامة للغاية.

في بيان دعمها للمبادرة، أكدت Google على أهمية الاستراتيجيات الشاملة لتحليل النموذج وبيانات التدريب للتخفيف من مخاطر الضرر والتحيز والتحريف. 

أشار إلى أن هذه خطوة مدروسة اتخذها مقدمو الذكاء الاصطناعي لتعزيز المبادئ والتوثيق من أجل سلامة الذكاء الاصطناعي.

أفضل الممارسات مقابل العالم الحقيقي

كمزودي LLM، أشار Cohere وOpenAI وAI21 Labs إلى أن نشر هذه المبادئ يمثل خطوة أولى في التوجيه التعاوني لتطوير ونشر نموذج لغة كبيرة أكثر أمانًا. 

أكد الثلاثي أيضًا أنهم متحمسون لمواصلة العمل مع بعضهم البعض ومع الأطراف الأخرى لتحديد الفرص الأخرى لتقليل الضرر غير المقصود من الاستخدام الضار للنماذج اللغوية ومنعها.

هناك طرق عديدة للنظر في هذه المبادرة والدعم الذي حصلت عليه. تتمثل إحدى الطرق في رؤية هذا على أنه اعتراف بالمسؤولية الكبيرة التي تأتي كجزء لا يتجزأ من القوة العظيمة التي تمنحها ماجستير في القانون. 

في حين أن هذه التوصيات قد تكون ذات معنى جيد، إلا أنه من المفيد أن تتذكر أنها مجرد توصيات. فهي تظل مجردة إلى حد ما، ولا توجد طريقة حقيقية لفرضها، حتى بين أولئك الذين وقعوا عليها.

من ناحية أخرى، من المرجح أن يواجه البائعون الذين يقومون ببناء وإصدار LLM قريبًا مطلب الالتزام باللوائح. 

تمامًا مثل اللائحة الأوروبية لعام 2018 التي كان لها تأثير مضاعف عالميًا على خصوصية البيانات، يمكن توقع تأثير مماثل في حوالي عام 2025 بموجب قانون الاتحاد الأوروبي للذكاء الاصطناعي

ربما يكون مقدمو LLM على دراية بهذا الأمر، ويمكن اعتبار هذه المبادرة كوسيلة لمواءمة أنفسهم من أجل “الامتثال الناعم” في وقت مبكر.

والجدير بالذكر في هذا الصدد هو أن قانون الاتحاد الأوروبي للذكاء الاصطناعي هو عمل مستمر

الباعة ومنظمات المجتمع المدني، وكذلك أصحاب المصلحة الآخرين، مدعوون للإدلاء بآرائهم. 

في حين أن التنظيم في شكله الحالي سيكون قابلاً للتطبيق حصريًا على صانعي LLM، فإن منظمات مثل مؤسسة Mozilla تجادل لصالح توسيع نطاق تطبيقه ليشمل التطبيقات النهائية أيضًا.

بشكل عام، يمكن اعتبار هذه المبادرة جزءًا من “حركة” أخلاقيات الذكاء الاصطناعي الأوسع نطاقًا / “حركة” جديرة بالثقة للذكاء الاصطناعي. 

على هذا النحو، من المهم طرح الأسئلة ذات الصلة، والتعلم من خبرة الأشخاص الذين كانوا في طليعة أخلاقيات الذكاء الاصطناعي.

المصدر: venturebeat

قد يهمك:

إنشاء حساب باي بال

إنشاء حساب هوتميل

ترجمة عربي سويدي

إنشاء موقع ويب

إنشاء حساب فيسبوك

قوالب ووردبريس

سيو

محركات البحث

ترجمة عربي هولندي

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي