3 أشياء تحتاجها النماذج اللغوية الكبيرة في عصر الضجيج “الواعي” للذكاء الاصطناعي

لقد انفجر كل الجحيم في عالم الذكاء الاصطناعي بعد أن ذكرت صحيفة واشنطن بوست الأسبوع الماضي أن مهندسًا في Google يعتقد أن LaMDA ، أحد نماذج اللغة الكبيرة للشركة (LLM)، كان واعيًا.
أعقب الأخبار موجة من المقالات ومقاطع الفيديو ومناقشات وسائل التواصل الاجتماعي حول ما إذا كانت أنظمة الذكاء الاصطناعي الحالية تفهم العالم كما نفعل نحن، وما إذا كانت أنظمة الذكاء الاصطناعي يمكن أن تكون واعية، وما هي متطلبات الوعي، وما إلى ذلك.
نحن حاليًا في حالة أصبحت فيها نماذج اللغة الكبيرة لدينا جيدة بما يكفي لإقناع العديد من الأشخاص – بما في ذلك المهندسين – بأنهم على قدم المساواة مع الذكاء الطبيعي.
في الوقت نفسه، لا يزالون سيئين بما يكفي لارتكاب أخطاء غبية، كما تظهر هذه التجارب التي أجراها عالم الكمبيوتر إرنست ديفيس.
ما يثير القلق هو أن البحث والتطوير في LLM يتم التحكم فيه في الغالب من قبل شركات التكنولوجيا الكبيرة التي تتطلع إلى تسويق تقنيتها من خلال دمجها في التطبيقات التي يستخدمها مئات الملايين من المستخدمين.
ومن المهم أن تظل هذه التطبيقات آمنة وقوية لتجنب إرباك المستخدمين أو إلحاق الأذى بهم.
فيما يلي بعض الدروس المستفادة من الضجيج والارتباك المحيط بنماذج اللغة الكبيرة والتقدم في الذكاء الاصطناعي.
المزيد من الشفافية
على عكس المؤسسات الأكاديمية، ليس لدى شركات التكنولوجيا عادة إطلاق نماذج الذكاء الاصطناعي الخاصة بها للجمهور. إنهم يعاملونها كأسرار تجارية يجب إخفاؤها عن المنافسين.
هذا يجعل من الصعب للغاية دراستها بحثًا عن الآثار غير المرغوب فيها والأضرار المحتملة.
لحسن الحظ، حدثت بعض التطورات الإيجابية في الأشهر الأخيرة. في مايو، أصدرت Meta AI أحد LLMs كمشروع مفتوح المصدر ( مع بعض التحذيرات) لإضافة الشفافية والانفتاح على تطوير نماذج اللغة الكبيرة.
يمكن أن يساعد توفير الوصول إلى أوزان النموذج وبيانات التدريب وسجلات التدريب والمعلومات المهمة الأخرى حول نماذج التعلم الآلي الباحثين في اكتشاف نقاط الضعف لديهم والتأكد من استخدامها في المناطق التي تكون فيها قوية.
جانب آخر مهم للشفافية هو إبلاغ المستخدمين بوضوح بأنهم يتفاعلون مع نظام ذكاء اصطناعي لا يفهم بالضرورة العالم كما يفعلون.
تعد أنظمة الذكاء الاصطناعي الحالية جيدة جدًا في أداء المهام الضيقة التي لا تتطلب معرفة واسعة بالعالم. لكنهم يبدأون في الانهيار بمجرد أن يواجهوا مشاكل تتطلب معرفة منطقية غير مدرجة في النص.
بقدر ما تقدمت نماذج اللغات الكبيرة، فإنها لا تزال بحاجة إلى الإمساك باليد. من خلال معرفة أنهم يتفاعلون مع وكيل الذكاء الاصطناعي، سيتمكن المستخدمون من تكييف سلوكهم لتجنب توجيه المحادثة إلى تضاريس غير متوقعة.
المزيد من التحكم البشري
يشير التفكير الشائع إلى أنه كلما أصبح الذكاء الاصطناعي أكثر تقدمًا، يجب أن نمنحه مزيدًا من التحكم في اتخاذ القرارات.
ولكن على الأقل حتى نتوصل إلى كيفية إنشاء ذكاء اصطناعي على المستوى البشري (وهذا أمر مهم)، يجب علينا تصميم أنظمة الذكاء الاصطناعي الخاصة بنا لاستكمال الذكاء البشري، وليس استبداله.
باختصار، لمجرد أن LLM أصبحت أفضل بشكل ملحوظ في معالجة اللغة لا يعني أن البشر يجب أن يتفاعلوا معهم فقط من خلال chatbot.
يتمثل الاتجاه الواعد للبحث في هذا الصدد في الذكاء الاصطناعي المتمحورة حول الإنسان (HCAI)، وهو مجال عمل يشجع تصميم أنظمة الذكاء الاصطناعي التي تضمن الإشراف والمراقبة البشرية.
يقدم عالم الكمبيوتر بن شنايدرمان إطارًا كاملاً لـ HCAI في كتابه الذكاء المرتكز على الإنسان على سبيل المثال، حيثما كان ذلك ممكنًا، يجب أن توفر أنظمة الذكاء الاصطناعي درجات ثقة تشرح مدى موثوقية مخرجاتها.
تتضمن الحلول الممكنة الأخرى اقتراحات إخراج متعددة، ومزلقات تكوين، وأدوات أخرى توفر للمستخدمين التحكم في سلوك نظام الذكاء الاصطناعي الذي يستخدمونه.
مجال آخر للعمل هو الذكاء الاصطناعي القابل للتفسير، والذي يحاول تطوير أدوات وتقنيات للتحقيق في قرارات الشبكات العصبية العميقة.
بطبيعة الحال، يصعب تفسير الشبكات العصبية الكبيرة جدًا مثل LaMDA و LLMs الأخرى. ولكن مع ذلك، يجب أن تظل القابلية للتفسير معيارًا حاسمًا لأي نظام ذكاء اصطناعي مطبق.
في بعض الحالات، يمكن أن يؤدي امتلاك نظام ذكاء اصطناعي قابل للتفسير وأداء أقل قليلاً من نظام ذكاء اصطناعي معقد إلى قطع شوط طويل نحو التخفيف من أنواع الارتباك التي تسببها LLM.
المزيد من الهيكل
منظور مختلف ولكن أكثر عملية هو ذلك الذي اقترحه ريتشارد هايمان، كبير مسؤولي الذكاء الاصطناعي في Cybraics، في كتابه Doing AI.
يقترح Heimann أنه لكي تكون “الذكاء الاصطناعي أولاً”، يجب على المنظمات أن “تستمر في العمل بالذكاء الاصطناعي”.
بدلاً من محاولة تبني أحدث تقنيات الذكاء الاصطناعي في تطبيقاتهم، يجب على المطورين البدء بالمشكلة التي يريدون حلها واختيار الحل الأكثر كفاءة.
هذه فكرة تتعلق مباشرة بالضجيج المحيط بـ LLM، حيث يتم تقديمها غالبًا كأدوات عامة لحل المشكلات يمكن تطبيقها على مجموعة واسعة من التطبيقات.
لكن العديد من التطبيقات لا تحتاج إلى شبكات عصبية كبيرة جدًا ويمكن تطويرها بحلول أبسط بكثير تم تصميمها وتنظيمها لهذا الغرض المحدد.
على الرغم من أنها ليست جذابة مثل النماذج اللغوية الكبيرة، إلا أن هذه الحلول الأبسط غالبًا ما تكون أكثر كفاءة في استخدام الموارد وقوة ويمكن التنبؤ بها.
اتجاه مهم آخر للبحث هو الجمع بين الرسوم البيانية المعرفية وأشكال أخرى من المعرفة المنظمة مع نماذج التعلم الآلي.
هذا خروج عن الاتجاه الحالي لحل مشاكل الذكاء الاصطناعي من خلال إنشاء شبكات عصبية أكبر ومجموعات بيانات تدريب أكبر.
مثال على ذلك هو Jurassic-X من A121 Labs، وهو نموذج لغة رمزية عصبية يربط الشبكات العصبية بموفري المعلومات المنظمة للتأكد من أن إجاباتها تظل متسقة ومنطقية.
اقترح علماء آخرون بنيات تجمع بين الشبكات العصبية وتقنيات أخرى للتأكد من أن استنتاجاتهم ترتكز على المعرفة الواقعية.
ومن الأمثلة على ذلك “العملاء الأذكياء الموهوبون باللغة” (LEIA) الذي اقترحته مارجوري ماكشين وسيرجي نيرنبرج، وهما عالمان في معهد Rensselaer Polytechnic، في كتابهما الأخير “علم اللغة لعصر الذكاء الاصطناعي“.
LEIA عبارة عن بنية معالجة لغوية من ست طبقات تجمع بين الأنظمة القائمة على المعرفة ونماذج التعلم الآلي لإنشاء تعريفات قابلة للتنفيذ وقابلة للتفسير للنص. في حين أن LEIA لا يزال قيد التنفيذ، فإنه يعد بحل بعض المشاكل التي تعاني منها النماذج اللغوية الحالية.
بينما يواصل العلماء والباحثون والفلاسفة مناقشة ما إذا كان ينبغي منح أنظمة الذكاء الاصطناعي الشخصية والحقوق المدنية، يجب ألا ننسى كيف ستؤثر أنظمة الذكاء الاصطناعي هذه على الأشخاص الحقيقيين الذين سيستخدمونها.
المصدر: venturebeat
شاهد المزيد: