يسلط الذكاء الاصطناعي القوي من Google الضوء على خلل معرفي للإنسان

من السهل على الناس أن يخطئوا في الحديث بطلاقة على أنه تفكير طليق.
عندما تقرأ جملة مثل هذه، فإن تجربتك السابقة تقودك إلى الاعتقاد بأنها مكتوبة بفكر وشعور بالإنسان.
وفي هذه الحالة، يوجد بالفعل إنسان يكتب هذه الكلمات: [مرحبًا، هناك!] ولكن في هذه الأيام، بعض الجمل التي تبدو بشكل ملحوظ مثل الإنسان يتم إنشاؤها في الواقع بواسطة أنظمة الذكاء الاصطناعي التي تم تدريبها على كميات هائلة من النصوص البشرية.
لقد اعتاد الناس على افتراض أن اللغة الطلاقة تأتي من التفكير، والشعور بالإنسان أن الدليل على عكس ذلك قد يكون من الصعب فهمه.
كيف يحتمل أن يتنقل الناس في هذه المنطقة المجهولة نسبيًا؟ بسبب الميل المستمر لربط التعبير الطليق بالفكر الطليق، من الطبيعي – ولكن من المحتمل أن يكون مضللًا – الاعتقاد أنه إذا كان نموذج الذكاء الاصطناعي يستطيع التعبير عن نفسه بطلاقة، فهذا يعني أيضًا أنه يفكر ويشعر تمامًا كما يفعل البشر.
نتيجة لذلك، ربما لا يكون مفاجئًا أن مهندسًا سابقًا في Google ادعى مؤخرًا أن نظام الذكاء الاصطناعي من Google LaMDA لديه إحساس بالذات لأنه يمكنه إنشاء نص بليغ حول مشاعره المزعومة.
أدى هذا الحدث والتغطية الإعلامية اللاحقة إلى عدد من المقالات والمشاركات المشككة بحق حول الادعاء بأن النماذج الحسابية للغة البشرية واعية، بمعنى أنها قادرة على التفكير والشعور والتجربة.
إن السؤال عما يعنيه أن يكون نموذج الذكاء الاصطناعي حساسًا هو في الواقع أمر معقد للغاية (انظر، على سبيل المثال ، رأي زميلنا) ، وهدفنا في هذه المقالة ليس تسوية الأمر.
لكن بصفتنا باحثين في مجال اللغة، يمكننا استخدام عملنا في العلوم المعرفية واللغويات لشرح لماذا من السهل جدًا على البشر الوقوع في الفخ المعرفي للافتراض أن الكيان الذي يمكنه استخدام اللغة بطلاقة هو واعي أو واع أو ذكي.
استخدام الذكاء الاصطناعي لتوليد لغة شبيهة بالبشر
قد يكون من الصعب تمييز النص الذي تم إنشاؤه بواسطة نماذج مثل LaMDA من Google عن النص المكتوب بواسطة البشر. هذا الإنجاز الرائع هو نتيجة برنامج استمر لعقود لبناء نماذج تولد لغة نحوية وذات مغزى.
كان أول نظام كمبيوتر يشرك الناس في الحوار هو برنامج العلاج النفسي المسمى Eliza ، الذي تم بناؤه منذ أكثر من نصف قرن. الائتمان: روزنفيلد ميديا / فليكر، CC BY
الإصدارات المبكرة التي يعود تاريخها إلى الخمسينيات من القرن الماضي على الأقل، والمعروفة باسم نماذج n-gram ، قامت ببساطة بحساب تكرارات عبارات معينة واستخدامها لتخمين الكلمات التي من المحتمل أن تحدث في سياقات معينة.
على سبيل المثال، من السهل معرفة أن عبارة “زبدة الفول السوداني والهلام” هي عبارة أكثر ترجيحًا من “زبدة الفول السوداني والأناناس”. إذا كان لديك ما يكفي من النص باللغة الإنجليزية، فسترى عبارة “زبدة الفول السوداني والهلام” مرارًا وتكرارًا ولكن قد لا ترى عبارة “زبدة الفول السوداني والأناناس”.
تختلف نماذج اليوم ومجموعات البيانات والقواعد التي تقارب لغة الإنسان عن هذه المحاولات المبكرة في عدة نواحٍ مهمة.
أولاً، يتم تدريبهم بشكل أساسي على الإنترنت بالكامل. ثانيًا، يمكنهم تعلم العلاقات بين الكلمات المتباعدة، وليس فقط الكلمات المتجاورة.
ثالثًا، يتم ضبطها بواسطة عدد كبير من “المقابض” الداخلية – الكثير لدرجة أنه من الصعب حتى على المهندسين الذين يصممونها أن يفهموا سبب قيامهم بتوليد سلسلة واحدة من الكلمات بدلاً من أخرى.
ومع ذلك، ظلت مهمة النماذج كما كانت في الخمسينيات: تحديد الكلمة التي من المحتمل أن تأتي بعد ذلك. اليوم، هم جيدون جدًا في هذه المهمة لدرجة أن جميع الجمل التي يولدونها تقريبًا تبدو سائلة ونحوية.
زبدة الفول السوداني والأناناس؟
لقد طلبنا من نموذج لغوي كبير، GPT-3، لإكمال الجملة “زبدة الفول السوداني والأناناس _”. قالت: “زبدة الفول السوداني والأناناس مزيج رائع.
النكهات الحلوة والمالحة لزبدة الفول السوداني والأناناس تكمل بعضها البعض بشكل مثالي. ” إذا قال شخص ما هذا، فقد يستنتج أنهما جربا زبدة الفول السوداني والأناناس معًا، وتكوين رأي ومشاركته مع القارئ.
ولكن كيف توصل GPT-3 إلى هذه الفقرة؟ من خلال إنشاء كلمة تناسب السياق الذي قدمناه. ثم واحد آخر. ثم واحد آخر.
لم يرَ النموذج قط الأناناس أو لمسه أو تذوقه – لقد عالج فقط جميع النصوص على الإنترنت التي تذكرها.
ومع ذلك، فإن قراءة هذه الفقرة يمكن أن تقود العقل البشري – حتى عقل مهندس Google – لتخيل GPT-3 ككائن ذكي يمكنه التفكير في زبدة الفول السوداني وأطباق الأناناس.
يمكن لنماذج لغة الذكاء الاصطناعي الكبيرة الانخراط في محادثة بطلاقة. ومع ذلك، ليس لديهم رسالة عامة للتواصل، لذلك غالبًا ما تتبع عباراتهم المجاز الأدبية الشائعة، المستمدة من النصوص التي تم تدريبهم عليها.
على سبيل المثال، إذا تمت المطالبة بموضوع “طبيعة الحب”، فقد يولد النموذج جملًا حول الاعتقاد بأن الحب ينتصر على الجميع.
يهيئ الدماغ البشري المشاهد لتفسير هذه الكلمات على أنها رأي النموذج في الموضوع، لكنها ببساطة سلسلة كلمات معقولة.
دماغ الإنسان مجتهد لاستنتاج النوايا من وراء الكلمات. في كل مرة تنخرط في محادثة، يبني عقلك تلقائيًا نموذجًا عقليًا لشريك المحادثة. ثم تستخدم الكلمات التي يقولونها لملء النموذج بأهداف هذا الشخص ومشاعره ومعتقداته.
تعتبر عملية القفز من الكلمات إلى النموذج العقلي سلسة، حيث يتم تشغيلها في كل مرة تتلقى فيها جملة كاملة. توفر لك هذه العملية المعرفية الكثير من الوقت والجهد في الحياة اليومية، مما يسهل بشكل كبير تفاعلاتك الاجتماعية.
ومع ذلك، في حالة أنظمة الذكاء الاصطناعي، فإنه يخطئ – بناء نموذج عقلي من فراغ.
يمكن أن يكشف المزيد من التحقيق عن شدة هذا الخطأ. ضع في اعتبارك المطالبة التالية: “زبدة الفول السوداني والريش يتذوقان طعمًا رائعًا معًا لأن ____”.
تابع GPT-3: “زبدة الفول السوداني والريش مذاقان رائعان معًا لأن كلاهما لهما نكهة الجوز. زبدة الفول السوداني هي أيضًا ناعمة ودسمة، مما يساعد على تعويض قوام الريش “.
النص في هذه الحالة بطلاقة مثل مثالنا مع الأناناس، ولكن هذه المرة يقول النموذج شيئًا أقل منطقية بالتأكيد. يبدأ المرء في الشك في أن GPT-3 لم يجرب أبدًا زبدة الفول السوداني والريش.
عزو الذكاء للآلات وحرمان البشر منه
المفارقة المحزنة هي أن نفس التحيز المعرفي الذي يجعل الناس ينسبون الإنسانية إلى GPT-3 يمكن أن يجعلهم يعاملون البشر الفعليين بطرق غير إنسانية.
تُظهر اللسانيات الاجتماعية والثقافية – دراسة اللغة في سياقها الاجتماعي والثقافي – أن افتراض وجود رابط وثيق للغاية بين التعبير الطليق والتفكير الطليق يمكن أن يؤدي إلى التحيز ضد الأشخاص الذين يتحدثون بشكل مختلف.
على سبيل المثال، غالبًا ما يُنظر إلى الأشخاص ذوي اللهجة الأجنبية على أنهم أقل ذكاءً وأقل احتمالًا للحصول على الوظائف التي هم مؤهلون لها.
توجد تحيزات مماثلة ضد المتحدثين باللهجات التي لا تعتبر مرموقة، مثل اللغة الإنجليزية الجنوبية في الولايات المتحدة، وضد الصم الذين يستخدمون لغات الإشارة، وضد الأشخاص الذين يعانون من عوائق في الكلام مثل التلعثم.
هذه التحيزات ضارة للغاية، وغالبًا ما تؤدي إلى افتراضات عنصرية وجنسية، وقد ثبت مرارًا وتكرارًا أنها لا أساس لها من الصحة.
اللغة بطلاقة وحدها لا تعني الإنسانية
هل سيصبح الذكاء الاصطناعي واعيًا؟ هذا السؤال يتطلب دراسة عميقة، وبالفعل فقد فكر فيه الفلاسفة على مدى عقود.
ما قرره الباحثون، مع ذلك، هو أنه لا يمكنك ببساطة الوثوق بنموذج لغوي عندما يخبرك بما تشعر به. يمكن أن تكون الكلمات مضللة، ومن السهل جدًا الخلط بين الكلام الطليق والفكر الطليق.
المصدر: scitechdaily
قد يهمك: