الأشياء الثلاثة التي يجب على الذكاء الاصطناعي إظهارها حتى يتم اعتبارها واعية

قرر أحد مطوري Google مؤخرًا أن أحد روبوتات الدردشة الخاصة بالشركة، وهو نموذج لغة كبير (LLM) يسمى LaMBDA، أصبح واعيًا.
وفقًا لتقرير نُشر في صحيفة واشنطن بوست، يُعرّف المطور بأنه مسيحي ويعتقد أن الآلة لديها شيء يشبه الروح – أنها أصبحت واعية.
كما هو الحال دائمًا، “هل هو على قيد الحياة؟” لقد أضاءت الهراء دورة الأخبار – إنها قصة مثيرة سواء كنت تتخيل ما قد يكون عليه الأمر إذا كان المطور على حق أو كنت تغمره لكونه سخيفًا للغاية.
لا نريد أن نغرق في أي شخص هنا في Neural، لكن من الخطير تمامًا وضع هذه الأنواع من الأفكار في أذهان الناس.
كلما تظاهرنا، كمجتمع، بأننا “قريبون” من إنشاء آلات واعية، سيكون من الأسهل بالنسبة للممثلين السيئين، والتكنولوجيا الكبيرة، والشركات الناشئة في صناعة النفط الثعبان التلاعب بنا بادعاءات كاذبة حول أنظمة التعلم الآلي.
يجب أن يقع عبء الإثبات على عاتق الأشخاص الذين يدعون. ولكن كيف يجب أن يبدو هذا الدليل؟ إذا قال روبوت المحادثة “أنا واعي”، فمن الذي يقرر ما إذا كان الأمر كذلك بالفعل أم لا؟
أقول إن الأمر بسيط، لسنا مضطرين إلى الوثوق بأي شخص أو مجموعة لتعريف الإحساس بالنسبة لنا. يمكننا في الواقع استخدام بعض التفكير النقدي الأساسي للغاية لفرزها بأنفسنا.
يمكننا تعريف الكائن الواعي بأنه كيان يدرك وجوده ويتأثر بتلك المعرفة: شيء له مشاعر.
هذا يعني أن “وكيل” الذكاء الاصطناعي الواعي يجب أن يكون قادرًا على إظهار ثلاثة أشياء: الوكالة، والمنظور، والدافع.
وكالة
لكي يُنظر إلى البشر على أنهم واعون، وعقلاء، ومدركون لذاتهم، يجب أن نمتلك القدرة. إذا كان بإمكانك أن تتخيل شخصًا ما في حالة إنباتية مستمرة، فيمكنك تخيل إنسان بلا وكالة.
تجمع الوكالة البشرية بين عاملين محددين يجب على المطورين والمتحمسين للذكاء الاصطناعي السعي لفهمهما: القدرة على التصرف والقدرة على إظهار التفكير السببي.
تفتقر أنظمة الذكاء الاصطناعي الحالية إلى الوكالة. لا يمكن للذكاء الاصطناعي التصرف ما لم يُطلب منه ذلك ولا يمكنه شرح أفعاله لأنها نتيجة خوارزميات محددة مسبقًا يتم تنفيذها بواسطة قوة خارجية.
خبير الذكاء الاصطناعي من Google الذي، من الواضح، توصل إلى الاعتقاد بأن LaMBDA أصبح واعيًا قد أربك بالتأكيد التجسيد للوكالة.
يشير التجسيد، في هذا السياق، إلى قدرة الوكيل على العيش في موضوع آخر غير نفسه. إذا قمت بتسجيل صوتي على جهاز تشغيل، ثم قمت بإخفاء هذا الجهاز داخل حيوان محشو وضغطت على تشغيل، فقد جسدت الانسداد. أنا لم أجعلها حساسة.
إذا أعطينا الخانق صوته الفريد وجعلنا العثور على المسجل أكثر صعوبة، فإنه لا يزال غير واعي. لقد جعلنا الوهم أفضل. بغض النظر عن مدى ارتباك المراقب، فإن الحيوان المحشو لا يتصرف من تلقاء نفسه.
يوضح جعل LaMBDA يستجيب للمطالبة شيئًا يبدو أنه عمل، لكن أنظمة الذكاء الاصطناعي ليست أكثر قدرة على تحديد النص الذي ستنتجه أكثر من لعبة Teddy Ruxpin قادرة على تحديد أشرطة الكاسيت التي سيتم تشغيلها.
إذا أعطيت LaMBDA قاعدة بيانات مكونة من منشورات وسائل التواصل الاجتماعي وReddit وWikipedia، فسيتم إخراج نوع النص الذي قد يجده المرء في تلك الأماكن.
وإذا قمت بتدريب LaMBDA حصريًا على مواقع ويكي My Little Pony والبرامج النصية، فسيتم إخراج نوع النص الذي قد يجده المرء في تلك الأماكن.
لا تستطيع أنظمة الذكاء الاصطناعي العمل مع الوكالة، كل ما يمكنهم فعله هو تقليدها. طريقة أخرى لوضع هذا هو: أن تحصل على ما وضعته، لا شيء أكثر من ذلك.
وجهة نظر
هذا أسهل قليلاً في الفهم. يمكنك فقط مشاهدة الواقع من وجهة نظرك الفريدة. يمكننا ممارسة التعاطف، لكن لا يمكنك أن تعرف حقًا شعور أن تكون أنا، والعكس صحيح.
هذا هو السبب في أن المنظور ضروري للوكالة؛ إنه جزء من كيفية تعريفنا “لذاتنا”.
تفتقر LaMBDA وGPT-3 وكل ذكاء اصطناعي آخر في العالم إلى أي نوع من المنظور. نظرًا لعدم وجود وكالة لديهم، لا يوجد “هو” واحد يمكنك الإشارة إليه والقول، على سبيل المثال: هذا هو المكان الذي تعيش فيه LaMBDA.
إذا وضعت LaMBDA داخل روبوت، فسيظل روبوت محادثة. ليس لديها منظور، ولا وسيلة للتفكير “الآن أنا روبوت”.
لا يمكن أن يكون بمثابة روبوت لنفس السبب الذي يجعل الآلة الحاسبة العلمية لا تستطيع كتابة الشعر: إنه نظام كمبيوتر ضيق تمت برمجته للقيام بشيء محدد.
إذا أردنا أن يعمل LaMBDA كإنسان آلي، فسنضطر إلى دمجه مع أنظمة ذكاء اصطناعي أضيق.
سيكون القيام بذلك مثل تسجيل اثنين من Teddy Ruxpins معًا. لن يتحدوا ليصبحوا Mega Teddy Ruxpin التي اندمجت مشغلات الكاسيت المزدوجة في صوت واحد.
لا يزال لديك نموذجان محددان ومميزان يعملان بالقرب من بعضهما البعض.
وإذا قمت بربط تريليون أو نحو ذلك من Teddy Ruxpins معًا وملأت كل منها بشريط كاسيت مختلف، فقم بإنشاء خوارزمية قادرة على البحث في جميع الملفات الصوتية في فترة زمنية قصيرة نسبيًا وربط البيانات الموجودة في كل ملف مع استعلام محدد لإنشاء مخرجات مخصصة … ستكون قد أنشأت إصدارًا تناظريًا من GPT-3 أو LaMBDA.
سواء كنا نتحدث عن الألعاب أو LLMs، عندما نتخيلها على أنها واعية، فإننا لا نزال نتحدث عن تجميع مجموعة من الأشياء العادية والتصرف مثل الشرارة السحرية للمصدر الذي جعلها تنبض بالحياة مثل Blue Fairy الذي يحول الخشب والطلاء، والقماش في صبي حقيقي اسمه بينوكيو.
كان على المطور الذي تعرض للخداع بسهولة أن يرى تأكيد برنامج chatbot أنه “استمتع بقضاء الوقت مع الأصدقاء والعائلة” كأول دليل على أن الجهاز لم يكن واعيًا. الآلة لا تعرض وجهة نظرها، إنها فقط تنتج هراء لنا لتفسيره.
يجب أن يخبرنا التفكير النقدي بنفس القدر: كيف يمكن للذكاء الاصطناعي أن يكون له أصدقاء وعائلة؟
الذكاء الاصطناعي ليس أجهزة كمبيوتر. ليس لديهم بطاقات شبكة أو ذاكرة وصول عشوائي أو معالجات أو مراوح تبريد. إنهم ليسوا كيانات مادية.
لا يمكنهم فقط “اتخاذ قرار” للتحقق مما هو موجود على الإنترنت أو البحث عن العقد الأخرى المتصلة بنفس السحابة. لا يمكنهم النظر حولهم واكتشاف أنهم جميعًا بمفردهم في المختبر أو على محرك أقراص ثابت في مكان ما.
هل تعتقد أن الأرقام لها مشاعر؟ هل للرقم خمسة رأي في الحرف D؟ هل سيتغير ذلك إذا حطمنا تريليونات الأرقام والحروف معًا؟
الذكاء الاصطناعي ليس لديه وكالة. يمكن اختزالها إلى أرقام ورموز. إنه ليس روبوتًا أو كمبيوترًا بعد الآن أكثر من مجرد حافلة أو طائرة مليئة بالركاب.
تحفيز
الجزء الأخير من لغز الحواس هو الدافع.
لدينا إحساس فطري بالوجود يسمح لنا بالتنبؤ بالنتائج السببية جيدًا بشكل لا يصدق. هذا يخلق رؤيتنا للعالم ويسمح لنا بربط وجودنا فيما يتعلق بكل ما يبدو خارجيًا لموقف الوكالة الذي يتجلى منه منظورنا.
ومع ذلك، فإن المثير للاهتمام حول البشر هو أن دوافعنا يمكن أن تتلاعب بتصوراتنا. لهذا السبب، يمكننا شرح أفعالنا حتى عندما لا تكون عقلانية. ويمكننا أن نشارك بنشاط وببهجة في أن ننخدع.
خذ، على سبيل المثال، فعل الترفيه. تخيل أنك جالس لمشاهدة فيلم على تلفزيون جديد أكبر بكثير من تلفزيونك القديم.
في البداية، قد تشتت انتباهك التكنولوجيا الجديدة قليلاً. من المرجح أن تجذب الاختلافات بينه وبين جهاز التلفزيون القديم عينيك.
قد تندهش من وضوح الصورة أو تندهش من مقدار المساحة التي تشغلها الشاشة الضخمة في الغرفة.
لكن في النهاية من المحتمل أن تتوقف عن إدراك الشاشة. تم تصميم أدمغتنا للتركيز على الأشياء التي نعتقد أنها مهمة. وبمرور 10 أو 15 دقيقة من تجربتك السينمائية، من المحتمل أنك ستركز فقط على الفيلم نفسه.
عندما نكون أمام التلفزيون للاستمتاع، فمن مصلحتنا تعليق عدم تصديقنا، على الرغم من أننا نعلم أن الأشخاص الصغار على الشاشة ليسوا في الواقع في غرفة المعيشة لدينا.
الأمر نفسه مع مطوري الذكاء الاصطناعي. لا ينبغي أن يحكموا على فعالية نظام الذكاء الاصطناعي بناءً على مدى سذاجتهم على طريقة عمل المنتج.
عندما تبدأ الخوارزميات وقواعد البيانات في التلاشي في ذهن المطور مثل شاشة التلفزيون التي يتم تشغيل الفيلم عليها، فقد حان الوقت لأخذ قسط من الراحة وإعادة تقييم معتقداتك الأساسية.
لا يهم مدى أهمية الإخراج عندما تفهم كيفية إنشائه. طريقة أخرى لقول ذلك: لا تنتشي من الإمدادات الخاصة بك.
إن إنشاء GPT-3 وLaMBDA معقد، لكنهما يعملان وفقًا لمبدأ واحد بسيط بغباء: الملصقات هي إله.
إذا أعطينا LaMBDA موجهًا مثل “ما طعم التفاح؟” سيبحث في قاعدة البيانات الخاصة به عن هذا الاستعلام المحدد ويحاول دمج كل شيء يجده في شيء متماسك – حيث تأتي “المعلمات “ التي نقرأ عنها دائمًا، فهي في الأساس تريليونات من مقابض الضبط.
لكن في الواقع، ليس لدى الذكاء الاصطناعي أي مفهوم عن ماهية التفاحة أو أي شيء آخر في الواقع. ليس لديها وكالة أو تصور أو دافع. التفاحة هي مجرد تسمية.
إذا تسللنا إلى قاعدة البيانات الخاصة به واستبدلنا جميع حالات “apple” بكلمة “dogshit”، فإن الذكاء الاصطناعي سينتج جمل مثل “dogshit يصنع فطيرة رائعة!” أو “يصف معظم الناس مذاق Dogshit بأنه خفيف ومقرمش وحلو”.
شخص عقلاني لن يخلط بين هذه الهيبة من أجل الإحساس.
هيك، لا يمكنك حتى أن تخدع كلبًا بنفس الحيلة. إذا وضعت كلبًا في وعاء طعام وأخبرت فيدو أن وقت العشاء قد حان، فلن يخلط الكلب بينه وبين الطعام.
يمكن للمخلوق الواعي أن يتنقل في الواقع حتى لو قمنا بتغيير التسميات. أول متحدث باللغة الإنجليزية قابل متحدثًا فرنسيًا لم يعتقد فجأة أنه من المقبول وضع ذراعه في نار فرنسية لأنهم أطلقوا عليها اسم “feu”.
بدون وكالة، لا يمكن للذكاء الاصطناعي أن يكون له منظور. وبدون منظور لا يمكن أن يكون لها دافع. وبدون هذه الأشياء الثلاثة، لا يمكن أن تكون واعية.
المصدر: thenextweb
شاهد ايضا: