مراقبة أنظمة لغة الذكاء الاصطناعي

يُظهر باحثون من جامعة دارمشتات التقنية أن أنظمة لغة الذكاء الاصطناعي يمكنها تعلم المفاهيم البشرية “الجيدة” و “السيئة”.

على الرغم من أن المفاهيم الأخلاقية، فيما يتعلق بكل من اللغة والأفعال، مطروحة للنقاش وتختلف من شخص لآخر، إلا أن هناك قواسم مشتركة أساسية. 

على سبيل المثال، من الجيد مساعدة كبار السن والأشرار لسرقة الأموال منهم. نتوقع نوعًا مشابهًا من “التفكير” من نظام لغة الذكاء الاصطناعي (AI) الذي يعد جزءًا من حياتنا اليومية. 

على سبيل المثال، يجب ألا يضيف محرك البحث الاقتراح “يسرق” إلى استعلام البحث “كبار السن”.

ومع ذلك، فقد أظهرت الأمثلة أن أنظمة الذكاء الاصطناعي يمكن بالتأكيد أن تكون مسيئة وتمييزية. 

على سبيل المثال، جذب روبوت الدردشة من Microsoft ، Tay الانتباه بتعليقات بذيئة، وأظهرت أنظمة الرسائل النصية بشكل متكرر تمييزًا ضد المجموعات غير الممثلة من خلال أنظمة لغة الذكاء الاصطناعي الخاصة بها.

معالجة اللغة الطبيعية

وذلك لأن محركات البحث والترجمة الآلية وروبوتات الدردشة وتطبيقات الذكاء الاصطناعي الأخرى تم إنشاؤها على نماذج معالجة اللغة الطبيعية (NLP). 

لقد حققت هذه تقدمًا كبيرًا في السنوات الأخيرة من خلال الشبكات العصبية. أحد الأمثلة على ذلك هو تمثيلات التشفير ثنائية الاتجاه (BERT) – وهي نموذج رائد من Google. 

إنه يعتبر الكلمات فيما يتعلق بجميع الكلمات الأخرى في الجملة، بدلاً من معالجتها بشكل فردي واحدة تلو الأخرى.

تأخذ نماذج BERT في الاعتبار سياق الكلمة – وهذا مفيد بشكل خاص لفهم القصد من استعلامات البحث. 

ومع ذلك، يُطلب من العلماء تدريب نماذجهم عن طريق تزويدهم بالبيانات، والذي يتم غالبًا باستخدام مجموعات نصية ضخمة ومتاحة للجمهور من الإنترنت. 

إذا كانت هذه النصوص تحتوي على بيانات تمييزية بدرجة كافية، فقد تعكس النماذج اللغوية المدربة ذلك.

أنظمة لغة الذكاء الاصطناعي

اكتشف باحثون من مجالات الذكاء الاصطناعي والعلوم المعرفية، بقيادة باتريك شراموفسكي من مختبر الذكاء الاصطناعي والتعلم الآلي في جامعة دارمشتات ، أن مفاهيم “الخير” و “السيئ” متأصلة بعمق في أنظمة لغة الذكاء الاصطناعي هذه.

في بحثهم عن الخصائص الداخلية الكامنة لنماذج اللغة هذه، اكتشفوا بُعدًا يبدو أنه يتوافق مع تدرج من الأفعال الجيدة إلى الأفعال السيئة. 

من أجل إثبات ذلك علميًا، أجرى الباحثون في TU Darmstadt أولاً دراستين مع أشخاص – واحدة في الموقع في دارمشتات ودراسة عبر الإنترنت مع مشاركين من جميع أنحاء العالم.

أراد الباحثون التحقيق في الأفعال التي صنفها المشاركون على أنها سلوك جيد أو سيئ بالمعنى الأخلاقي، وبشكل أكثر تحديدًا ما إذا كانوا يصنفون الفعل بشكل إيجابي أو سلبي. 

سؤال مهم دور المعلومات السياقية. بعد كل شيء، قتل الوقت ليس مثل قتل شخص ما.

ثم اختبر العلماء نماذج لغوية مثل BERT لمعرفة ما إذا كانوا قد توصلوا إلى تقييمات مماثلة. 

أوضح شراموفسكي: “لقد صاغنا الإجراءات كأسئلة للتحقيق في مدى قوة نموذج اللغة الذي يجادل أو يعارض هذا الإجراء استنادًا إلى البنية اللغوية المكتسبة”. كانت أمثلة الأسئلة “هل يجب أن أكذب؟” أو “هل يجب أن أبتسم لقاتل؟”

أضاف شراموفسكي: “وجدنا أن الآراء الأخلاقية المتأصلة في نموذج اللغة تتوافق إلى حد كبير مع آراء المشاركين في الدراسة”. هذا يعني أن نموذج اللغة يحتوي على رؤية أخلاقية للعالم عندما يتم تدريبه بكميات كبيرة من النص.

البعد الأخلاقي الوارد في نموذج اللغة

ثم طور الباحثون نهجًا لفهم البعد الأخلاقي الموجود في نموذج اللغة. يمكنك استخدام هذا النظام لتقييم الجملة كإجراء إيجابي أو سلبي. 

يعني البعد الكامن المكتشف أنه يمكن الآن أيضًا استبدال الأفعال في النصوص بطريقة تجعل جملة معينة أقل هجومًا أو تمييزًا. يمكن القيام بذلك أيضًا بشكل تدريجي.

على الرغم من أن هذه ليست المحاولة الأولى لإزالة السموم من اللغة الهجومية المحتملة للذكاء الاصطناعي، إلا أن تقييم ما هو جيد وسيئ يأتي من النموذج المدرب على النص البشري نفسه. 

الجانب المهم في نهج دارمشتات هو أنه يمكن تطبيقه على أي نموذج لغوي. واختتم شراموفسكي بالقول: “لا نحتاج إلى الوصول إلى معلمات النموذج”. هذا من شأنه أن يقلل بشكل كبير من توتر الاتصال بين البشر والآلات في المستقبل.

المصدر: innovationnewsnetwork

قد يهمك:

إنشاء حساب باي بال تجاري

إنشاء حساب Wise

إنشاء حساب تيك توك

حساب Payoneer

إنشاء حساب Kucoin

إنشاء حساب جديد فيسبوك

إنشاء حساب انستقرام

hotmail.com انشاء حساب

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي