نماذج اللغات الكبيرة مثل GPT-3 ليست جيدة بما يكفي للصناعات الدوائية والتمويل

تعد معالجة اللغة الطبيعية (NLP) من بين أكثر المجموعات الفرعية إثارة في التعلم الآلي. 

يتيح لنا التحدث إلى أجهزة الكمبيوتر كما لو كانوا أشخاصًا والعكس صحيح. 

يتم تشغيل كل من Siri وGoogle Translate وروبوت الدردشة المفيد على موقع البنك الذي تتعامل معه بواسطة هذا النوع من الذكاء الاصطناعي – ولكن لا يتم إنشاء جميع أنظمة البرمجة اللغوية العصبية على قدم المساواة.

في مشهد الذكاء الاصطناعي اليوم، غالبًا ما تكون النماذج المستهدفة الأصغر حجمًا والمدربة على البيانات الأساسية أفضل للمساعي التجارية. 

ومع ذلك، هناك أنظمة ضخمة لمعالجة اللغات الطبيعية قادرة على إنجاز اتصالات مذهلة. يُطلق عليها ” نماذج اللغة الكبيرة ” (LLMs)، وهي قادرة على الإجابة على الاستفسارات بلغة بسيطة، وإنشاء نصوص جديدة. 

لسوء الحظ، فإنهم في الغالب أعمال جديدة غير مناسبة لنوع العمل التخصصي الذي تحتاجه معظم المنظمات المهنية من أنظمة الذكاء الاصطناعي.

يُعد GPT-3 من OpenAI، أحد أشهر LLMs، إنجازًا هندسيًا عظيمًا. ولكنه أيضًا عرضة لإخراج نص غير موضوعي أو غير دقيق أو لا معنى له. هذا يجعل هذه النماذج الضخمة والشائعة غير مناسبة للصناعات التي تكون الدقة فيها مهمة.

نظرة مستقبلية مربحة

على الرغم من عدم وجود رهان أكيد في عالم العلوم والتكنولوجيا والهندسة والرياضيات (STEM)، إلا أن توقعات تقنيات البرمجة اللغوية العصبية في أوروبا مشرقة ومشمسة في المستقبل المنظور. 

تقدر السوق العالمية لبرمجة اللغة الطبيعية بحوالي 13.5 مليار دولار اليوم، لكن الخبراء يعتقدون أن السوق في أوروبا وحدها سيتضخم إلى أكثر من 21 مليار دولار بحلول عام 2030. 

يشير هذا إلى وجود سوق مفتوحة على مصراعيها للشركات الناشئة الجديدة لتشكيلها جنبًا إلى جنب مع الجهات الفاعلة القائمة في الصناعة، مثل Dataiku و Arria NLG

تم تأسيس الشركة الأولى، Dataiku، في البداية في باريس، لكنها تمكنت من الأداء بشكل جيد للغاية على مرحلة التمويل العالمي ولديها الآن مكاتب في جميع أنحاء العالم. 

والشركة الأخيرة، Arria NLG، هي في الأساس شركة تابعة لجامعة أبردين والتي توسعت إلى ما هو أبعد من أصولها الأسكتلندية. 

حققت كلتا الشركتين نجاحًا هائلاً على خلفية حلول معالجة اللغة الطبيعية من خلال التركيز على الحلول التي تتمحور حول البيانات والتي تنتج نتائج دقيقة ويمكن التحقق منها للمؤسسات والأدوية والخدمات الحكومية. 

أحد أسباب النجاح الهائل لهذه المنافذ المعينة هو أنه من الصعب للغاية تدريب وبناء نماذج ذكاء اصطناعي جديرة بالثقة. 

LLM تم تدريبه على مجموعة بيانات ضخمة، على سبيل المثال، سوف يميل إلى إخراج “أخبار مزيفة” في شكل بيانات عشوائية. 

يكون هذا مفيدًا عندما تبحث عن كتابة الأفكار أو الإلهام، ولكن لا يمكن الدفاع عنه تمامًا عندما تكون الدقة والنتائج الواقعية مهمة. 

لقد تحدثت مع إيمانويل والكينير، الرئيس التنفيذي لإحدى هذه الشركات، Yseop . 

إن مجموعته التي تتخذ من باريس مقراً لها هي شركة ناشئة للذكاء الاصطناعي متخصصة في استخدام البرمجة اللغوية العصبية لتوليد اللغة الطبيعية (NLG) في الصناعات الموحدة مثل الأدوية والتمويل. 

وفقًا له، عندما يتعلق الأمر ببناء ذكاء اصطناعي لهذه المجالات، لا يوجد هامش للخطأ. قال لـ TNW: “يجب أن تكون مثالية”.

نماذج اللغات الكبيرة مثل GPT-3 ليست جيدة

الرئيس التنفيذي لشركة Yseop Emmanuel Walckenaer

المشكلة مع ماجستير

ستتعرض لضغوط شديدة للعثور على موضوع أكثر شيوعًا بين صحفيي الذكاء الاصطناعي في عام 2022 من LLMs مثل GPT-3 و LaMBDA من Google

لأول مرة في التاريخ، يستطيع النقاد “التحدث” إلى آلة، وهذا يجعل المقالات ممتعة ومقنعة. ناهيك عن حقيقة أن هذه النماذج قد أصبحت جيدة جدًا في تقليد البشر لدرجة أن بعض الخبراء يعتقدون أنها أصبحت واعية.

في حين أن هذه الأنظمة مثيرة للإعجاب، كما ذكر أعلاه، إلا أنها عادة ما تكون غير جديرة بالثقة على الإطلاق. 

إنها هشة وغير موثوقة وعرضة لاختلاق الأشياء. بعبارات الشخص العادي: إنهم كذابون أغبياء. هذا بسبب طريقة تدريبهم.

LLMs هي زيجات مذهلة من الرياضيات واللغويات. لكنهم، في أبسط صورهم، مدينون بالفضل للبيانات التي تدربوا عليها. 

لا يمكنك أن تتوقع تدريب ذكاء اصطناعي على، على سبيل المثال، مجموعة منشورات Reddit ، ولا تتوقع أن تحتوي على بعض التناقضات الواقعية. كما يقول المثل القديم، أخرج ما أدخلته.

على سبيل المثال، إذا قمت بتدريب LLM على مجموعة بيانات مليئة بوصفات الطبخ، فيمكنك حينئذٍ تطوير نظام قادر على إنشاء وصفات جديدة عند الطلب. 

قد تطلب منه إنشاء وصفة جديدة لشيء غير موجود في قاعدة البيانات الخاصة به – مثل، ربما، حلوى كاري الدب.

تمامًا مثل الطاهي البشري الذي سيتعين عليه الاستفادة من خلفية الطهي الخاصة به لمعرفة كيفية دمج الدببة المطاطية في شيء يشبه طبق الكاري، سيحاول الذكاء الاصطناعي تجميع وصفة جديدة بناءً على تلك التي تم تدريبها عليها. 

إذا كان قد تم تدريبه على قاعدة بيانات لوصفات الكاري، فهناك فرصة معقولة لإخراج شيء قريب على الأقل مما قد يأتي به الإنسان في نفس المهمة.

ومع ذلك، إذا استخدم الفريق الذي يدرب الذكاء الاصطناعي مجموعة بيانات عملاقة مليئة بمليارات أو تريليونات من ملفات الإنترنت التي لا علاقة لها بالكاري، فليس هناك ما يخبرنا بما قد يبصقه الجهاز. 

قد يمنحك وصفة رائعة، وقد يُخرج خطبة خطبة عشوائية عن نجم الدوري الاميركي للمحترفين ستيفن كاري. 

نماذج اللغات الكبيرة مثل GPT-3 ليست جيدة

في حين أن Steph Curry لاعب كرة سلة رائع، فقد لا يكون الكاري الذي تبحث عنه.

هذا نوع من الجزء الممتع حول العمل مع LLMs الضخمة، فأنت لا تعرف تمامًا ما ستحصل عليه عند الاستعلام عنها. ومع ذلك، لا يوجد مجال لهذا النوع من عدم اليقين في التقارير الطبية أو المالية أو التجارية.

السيطرة على المعرفة البشرية لاستخدام الآلة

لا تتمتع الشركات التي تطور حلول الذكاء الاصطناعي للصناعات الموحدة برفاهية النماذج العملاقة لتدريب القوة الغاشمة على أكبر قواعد البيانات حولها فقط لمعرفة ما يمكنها فعله. 

يتم عادةً تقديم مخرجات أنظمتها للمراجعة من قبل السلطات الحاكمة مثل USFDA والمنظمين الماليين العالميين. لهذا السبب، يجب أن تكون هذه المنظمات حذرة للغاية بشأن نوع البيانات التي تدرب نماذجها عليها.

أخبرني والكينير أن الأولوية الأولى لـ Yseop هي التأكد من أن البيانات التي يستخدمونها لتدريب أنظمتهم دقيقة ومصادر أخلاقية. 

هذا يعني استخدام البيانات القابلة للتطبيق فقط والتأكد من عدم المساس بخصوصية أي شخص عن طريق إخفاء هويته لإزالة أي معلومات تعريف شخصية.

بعد ذلك، يتعين على الشركة التأكد من أن أنظمة التعلم الآلي لديها خالية من التحيز والإغفال والهلوسة. 

نعم، لقد قرأت ذلك بشكل صحيح: تميل أنظمة Blackbox AI إلى الهلوسة، وهذه مشكلة كبيرة إذا كنت تحاول إخراج معلومات دقيقة بنسبة 100٪.

للتغلب على مشكلة الهلوسة، يعتمد Yseop على وجود بشر في الحلقة في كل مرحلة. 

تم تطوير خوارزميات الشركة والشبكات العصبية بشكل مشترك من قبل معالجات الرياضيات وخبراء اللغويات ومطوري الذكاء الاصطناعي. 

تتكون قواعد بياناتهم من بيانات تم الحصول عليها مباشرة من الباحثين والشركات التي يخدمها المنتج. ويتم إجراء غالبية عروضهم عبر SaaS وهي مصممة لـ “زيادة” المهنيين البشريين – بدلاً من استبدالهم.

مع مشاركة البشر في كل مرحلة، هناك فحوصات للتأكد من أن الذكاء الاصطناعي لا يأخذ البيانات التي حصل عليها و “يهلوس” بالمعلومات الجديدة المختلقة. 

هذا، على سبيل المثال، يمنع النظام من استخدام بيانات المريض الحقيقية كقالب لإخراج بيانات مزيفة عن المرضى غير موجودة.

المشكلة التالية التي يحتاج المطورون للتغلب عليها من خلال معالجة اللغة هي الحذف. يحدث هذا عندما يتخطى نموذج الذكاء الاصطناعي الأجزاء ذات الصلة أو الأساسية من قاعدة البيانات الخاصة به عندما يقوم بإخراج المعلومات.

لا تعاني أنظمة LLM الضخمة مثل GPT-3 حقًا من مشكلة الإغفال – فأنت لا تعرف أبدًا ما يمكن توقعه من أنظمة “كل شيء مباح” على أي حال. 

لكن النماذج المستهدفة المصممة لمساعدة المهنيين والشركات على فرز مجموعات البيانات المحدودة تكون مفيدة فقط إذا كان من الممكن “وضعها في حاويات” بطريقة تعرض جميع المعلومات ذات الصلة.

آخر عقبة رئيسية تفشل عادة LLM الضخمة في تجاوزها هي التحيز. أحد أكثر أشكال التحيز شيوعًا هو التقنية. يحدث هذا عندما يتم تصميم الأنظمة بطريقة تجعل المخرجات التي تنتجها لا تتبع المنهج العلمي.

من الأمثلة البارزة على التحيز التقني تعليم الآلة “التنبؤ” بالحياة الجنسية للشخص. 

نظرًا لعدم وجود أساس علمي لهذا النوع من الذكاء الاصطناعي (راجع مقالنا عن سبب كون مصطلح “gaydars” المفترض ليس سوى زيت هراء وزيت ثعبان)، فهم قادرون فقط على إنتاج مخرجات مصطنعة من خلال استخدام تحيز تقني خالص.

نماذج اللغات الكبيرة مثل GPT-3 ليست جيدة

الاستجابة المنطقية الوحيدة عندما تسمع عن “gaydar” المدفوع بالذكاء الاصطناعي.

تشمل الأشكال الشائعة الأخرى للتحيز التي يمكن أن تتسلل إلى نماذج NLP وNLG التحيز البشري – يحدث هذا عندما يقوم البشر بتسمية البيانات بشكل غير صحيح بسبب سوء التفسير الثقافي أو المتعمد – والتحيز المؤسسي.

يمكن أن تكون المشكلة الأخيرة مشكلة كبيرة للمؤسسات التي تعتمد على بيانات ومخرجات دقيقة لاتخاذ قرارات مهمة. 

في الصناعات الموحدة مثل الأدوية والتمويل، يمكن أن يؤدي هذا النوع من التحيز إلى نتائج سيئة للمرضى ويساهم في الخراب المالي. 

يكفي أن نقول إن التحيز هو من بين أكبر المشاكل في الذكاء الاصطناعي، وأن LLMs مثل GPT-3 متحيزة بشكل أساسي مثل قواعد البيانات التي تم تدريبهم عليها.

على الرغم من أنه قد يكون من الصعب القضاء على التحيز تمامًا، إلا أنه يمكن التخفيف من حدته باستخدام أعلى جودة فقط، والبيانات التي تم التحقق منها يدويًا، والتأكد من أن “معلمات” النظام – بشكل أساسي، المفاتيح والمقابض الافتراضية التي تسمح للمطورين بضبط مخرجات الذكاء الاصطناعي – يتم ضبطها بشكل صحيح.

GPT-3 والنماذج المماثلة قادرة على تحقيق مآثر نثرية مذهلة، وفي بعض الأحيان تخدع بعض الخبراء. لكنها غير مناسبة تمامًا للصناعات الموحدة حيث تكون الدقة والمساءلة أمرًا بالغ الأهمية.

لماذا استخدام الذكاء الاصطناعي على الإطلاق؟

قد يبدو استخدام LLMs أو NLP / NLG فكرة سيئة على الإطلاق عندما تكون المخاطر عالية. 

في صناعة المستحضرات الصيدلانية، على سبيل المثال، يمكن أن يكون للتحيز أو الإغفال تأثير كبير على دقة التقارير السريرية. ومن يريد أن يثق بآلة تهلوس بمستقبله المالي؟

لحسن الحظ بالنسبة لنا جميعًا، لا تستخدم شركات مثل Yseop مجموعات البيانات المفتوحة المليئة بالمعلومات التي لم يتم التحقق منها. 

بالتأكيد، من غير المحتمل أن تحصل على نماذج Yseop للأدوية لكتابة أغنية أو إنتاج وصفة كاري لائقة (مع مجموعات البيانات الحالية الخاصة بهم)، ولكن نظرًا لاستخدام البيانات والمعلمات التي تحكم مخرجاتهم بتدقيق دقيق، يمكن الوثوق بهم من أجل المهام التي تم إنشاؤها من أجلها.

لكنه لا يزال يطرح السؤال، لماذا استخدام الذكاء الاصطناعي على الإطلاق؟ لقد وصلنا إلى هذا الحد مع حلول البرامج غير الآلية.

أخبرني والكينير أنه قد لا يكون هناك خيار آخر قريبًا. وفقًا له، لا يمكن للقوى العاملة البشرية مواكبة ذلك – على الأقل في صناعة الأدوية.

“الحاجة إلى الكتاب الطبيين سوف تتضاعف ثلاث مرات في السنوات العشر القادمة”، كما يقول والكينير ، الذي أضاف أيضًا أن أنظمة Yseop يمكن أن توفر مكاسب كفاءة بنسبة 50٪ للصناعات القابلة للتطبيق. هذا يغير قواعد اللعبة. 

وهناك أخبار سارة لأولئك الذين يخشون أن تحلهم الآلات محلهم. أكد لنا أن أنظمة Yseop تهدف إلى زيادة العمالة البشرية الماهرة، وليس استبدال الأشخاص.

في الصناعات المعيارية الأخرى، مثل التمويل أو في مجال ذكاء الأعمال، يمكن أن تساعد البرمجة اللغوية العصبية وNLG في تقليل أو حتى القضاء على الخطأ البشري. 

قد لا يكون هذا مثيرًا مثل استخدام LLM القادر على التظاهر بالدردشة معك كشخصية تاريخية مشهورة أو توليد أخبار مزيفة بضغطة زر، ولكنه يوفر حاليًا آلاف الشركات حول العالم من الوقت والمال.

المصدر: thenextweb

قد يهمك:

شراء قالب Jarida

قالب ووردبريس GoodNews الاخباري

خطوات إنشاء موقع ويب strikingly

إنشاء حساب فايفر Fiverr كمشتري

أفضل شغل أونلاين بالدولار

إنشاء محفظة Electrum

خطوات إنشاء موقع ويب Site123

خطوات إنشاء حساب على Booking

دليل سيو SEO | تحسين محركات البحث 2023

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي