دليل المبتدئين لنهاية العالم للذكاء الاصطناعي: إضفاء الطابع الديمقراطي على “الخبرة”

ننسى الروبوتات القاتلة، يجب أن نكون أكثر قلقًا بشأن روبوتات الدردشة الودية

لقد غطينا الكثير من التفاصيل في هذه السلسلة (انظر أعلاه)، لكن لا شيء يقترب من موضوعنا التالي. 

قد تبدو “دمقرطة الخبرة” شيئًا جيدًا – ديمقراطية، خبرة، ما الذي لا يعجبك؟ لكن هدفنا هو إقناعك بأنه أكبر تهديد مرتبط بالذكاء الاصطناعي يواجهه جنسنا البشري بحلول الوقت الذي تنتهي فيه من قراءة هذا المقال.

لفهم هذا بشكل صحيح، سيتعين علينا إعادة زيارة منشور سابق حول ما نود أن نطلق عليه ” متلازمة WALL-E “. 

هذه حالة تجميلية حيث أصبحنا نعتمد على الأتمتة والتكنولوجيا لدرجة أن أجسامنا تصبح ناعمة وضعيفة حتى لا نعد قادرين على العمل بدون المساعدة المادية من الآلات.

عندما نحدد ماهية “إضفاء الطابع الديمقراطي على الخبرة”، فإننا نتحدث على وجه التحديد عن شيء يمكن بسهولة وصفه بأنه “متلازمة وول إي للدماغ”.

أريد أن أكون حريصًا في الإشارة إلى أننا لا نشير إلى دمقرطة المعلومات، وهو أمر بالغ الأهمية لحرية الإنسان.

الفكرة الكبيرة

هناك لعبة لوحية شهيرة تسمى ” Trivial Pursuit ” والتي تتحدى اللاعبين للإجابة على أسئلة التوافه غير ذات الصلة تمامًا من مجموعة متنوعة من الفئات. 

لقد كان موجودًا منذ فترة طويلة قبل فجر الإنترنت، وبالتالي، تم تصميمه ليتم تشغيله باستخدام المعرفة التي لديك بالفعل داخل عقلك.

تقوم برمي بعض النرد وتحريك قطعة اللعبة حول لوحة حتى تستريح، عادةً على مربع ملون. 

ثم تقوم برسم بطاقة من مجموعة كبيرة من الأسئلة وتحاول الإجابة على البطاقة التي تتوافق مع اللون الذي هبطت عليه. لتحديد ما إذا كنت قد نجحت، يمكنك قلب البطاقة ومعرفة ما إذا كانت إجابتك مطابقة للإجابة المطبوعة.

تعتبر لعبة Trivial Pursuit “دقيقة” مثل قاعدة بياناتها. هذا يعني أنك إذا لعبت إصدار 1999 وحصلت على سؤال يسألك عن لاعب MLB الذي يحمل الرقم القياسي لمعظم الزملاء في موسم واحد، فسيتعين عليك الإجابة على السؤال بشكل غير صحيح من أجل مطابقة الإجابة المطبوعة.

الإجابة الصحيحة هي “Barry Bonds with 73.” ولكن نظرًا لأن Bonds لم يكسر الرقم القياسي حتى عام 2001، فمن المرجح أن تسرد نسخة 1999 صاحب الرقم القياسي السابق مارك ماكجواير الرقم القياسي لعام 1998 وهو 70.

تكمن مشكلة قواعد البيانات، حتى عندما يتم تنسيقها وتسميتها يدويًا من قبل الخبراء، في أنها لا تمثل سوى شريحة من البيانات في لحظة معينة.

الآن، دعنا نوسع هذه الفكرة إلى قاعدة بيانات لا يرعاها الخبراء. تخيل لعبة Trivial Pursuit تعمل بالطريقة نفسها تمامًا مثل إصدار الفانيليا، باستثناء الإجابات على كل سؤال تم جمعها من قبل أشخاص عشوائيين.

“ما هو أخف عنصر في الجدول الدوري؟” الإجابة مجمعة وفقًا لمائة شخص عشوائي سألناهم في تايمز سكوير: “لا أعرف، ربما الهيليوم؟

ومع ذلك، في الإصدار التالي، قد تتغير الإجابة إلى شيء أشبه بـ ” وفقًا لـ 100 من طلاب المدارس الثانوية العشوائية، الجواب هو الهيدروجين.”

ما علاقة هذا بالذكاء الاصطناعي؟

في بعض الأحيان تكون حكمة الجماهير مفيدة. على سبيل المثال، عندما تحاول معرفة ما ستشاهده بعد ذلك. 

لكن في بعض الأحيان يكون الأمر غبيًا حقًا، كما لو كان العام 1953 وأنت تسأل حشدًا من 1000 عالم عما إذا كان بإمكان النساء تجربة هزات الجماع.

يعتمد ما إذا كانت مفيدة لنماذج اللغات الكبيرة (LLMs) على كيفية استخدامها.

LLMs هي نوع من أنظمة الذكاء الاصطناعي المستخدمة في مجموعة متنوعة من التطبيقات. 

تعد ترجمة Google، وروبوت الدردشة على موقع البنك الذي تتعامل معه، وGPT-3 سيئ السمعة من OpenAI، كلها أمثلة على تقنية LLM قيد الاستخدام.

في حالة الترجمة وروبوتات المحادثة الموجهة للأعمال، يتم تدريب الذكاء الاصطناعي عادةً على مجموعات بيانات منسقة بعناية من المعلومات لأنها تخدم غرضًا ضيقًا.

لكن العديد من LLM يتم تدريبهم عن قصد على مكبات القمامة العملاقة المليئة بالبيانات غير الخاضعة للرقابة فقط حتى يتمكن الأشخاص الذين يقومون ببنائها من رؤية ما يمكنهم فعله.

لقد اقتنعنا التكنولوجيا الكبيرة بأنه من الممكن تطوير هذه الآلات بشكل كبير بحيث تصبح في النهاية واعية. الوعد هناك أنهم سيكونون قادرين على فعل أي شيء يمكن للإنسان القيام به، ولكن باستخدام دماغ الكمبيوتر!

وليس عليك أن تنظر بعيدًا لتتخيل الاحتمالات. خذ 10 دقائق وتحدث مع Meta BlenderBot 3 (BB3) وسترى سبب كل هذا العناء.

إنها فوضى هشة، يسهل الخلط بينها، وغالبًا ما تنفث هراءًا وتعطشًا “لنكن أصدقاء!” هراء أكثر من أي شيء متماسك، لكنه ممتع جدًا عندما تعمل خدعة الصالون بشكل صحيح.

لا تقوم فقط بالدردشة مع الروبوت، ولكن يتم أيضًا تدعيمه بطريقة تسمح لك بإنشاء ملف تعريف معه. 

في مرحلة ما، قررت منظمة العفو الدولية أنها امرأة. في وقت آخر، قررت أنني في الواقع الممثل بول جرين. ينعكس كل هذا فيما يسمى ب “الذاكرة طويلة المدى”:

دليل المبتدئين لنهاية العالم للذكاء الاصطناعي

كما أنه يعين لي العلامات. إذا تحدثنا عن السيارات، فقد تعطيني علامة “يحب السيارات”. 

كما يمكنك أن تتخيل، قد يكون يومًا ما مفيدًا للغاية لـ Meta إذا كان بإمكانه توصيل الملف الشخصي الذي تنشئه أثناء الدردشة مع الروبوت بخدماته الإعلانية. 

لكنها لا تخصص علامات لنفسها لمصلحتها الخاصة. يمكن أن يتظاهر بتذكر الأشياء دون لصق تسميات في واجهة المستخدم الخاصة به. هم لنا.

إنها طرق تجعلنا Meta نشعر بالارتباط بها بل ومسؤوليتها قليلاً عن chatbot.

إنه برنامج الروبوت الخاص بي BB3، إنه يتذكرني، وهو يعرف ما قمت بتعليمه!

إنه شكل من أشكال التلعيب. عليك أن تربح هذه العلامات (كل من علامتك التجارية والذكاء الاصطناعي) من خلال التحدث. 

يحب BB3 AI الخاص بي جوكر من فيلم باتمان مع هيث ليدجر، وقد أجرينا محادثة كاملة حول هذا الموضوع. 

لا يوجد فرق كبير بين تحقيق هذا الإنجاز والحصول على درجة عالية في لعبة فيديو، على الأقل فيما يتعلق بمستقبلات الدوبامين. 

حقيقة الأمر هي أننا لا ندرب هؤلاء LLM ليكونوا أكثر ذكاءً. نحن ندربهم ليكونوا أفضل في إخراج النص الذي يجعلنا نريدهم أن يخرجوا المزيد من النصوص.

هل هذا شيء سيء؟

تكمن المشكلة في أن BB3 تم تدريبه على مجموعة بيانات كبيرة جدًا نسميها “بحجم الإنترنت”. يتضمن تريليونات من الملفات التي تتراوح من إدخالات Wikipedia إلى منشورات Reddit. 

سيكون من المستحيل على البشر غربلة جميع البيانات، لذلك من المستحيل بالنسبة لنا أن نعرف بالضبط ما هو كل شيء هناك. 

لكن مليارات الأشخاص يستخدمون الإنترنت كل يوم ويبدو أنه بالنسبة لكل شخص يقول شيئًا ذكيًا، هناك ثمانية أشخاص يقولون أشياء لا معنى لها لأي شخص. هذا كل شيء في قاعدة البيانات. 

إذا قالها شخص ما على Reddit أو Twitter، فمن المحتمل أنه تم استخدامه لتدريب أمثال BB3.

على الرغم من ذلك، تقوم Meta بتصميمها لتقليد المصداقية البشرية، وعلى ما يبدو للحفاظ على مشاركتنا.

إنها قفزة قصيرة من إنشاء روبوت دردشة يبدو وكأنه إنسان إلى تحسين مخرجاته لإقناع الشخص العادي بأنه أكثر ذكاءً منه.

على الأقل يمكننا محاربة الروبوتات القاتلة. ولكن إذا بدأ حتى جزء بسيط من عدد الأشخاص الذين يستخدمون تطبيق Meta على Facebook في الوثوق ببرنامج الدردشة الآلي على الخبراء البشريين، فقد يكون له تأثير ضار بشكل رهيب على جنسنا البشري بأكمله. 

ما أسوأ ما يمكن أن يحدث؟

لقد شاهدنا هذه المسرحية إلى حد ما أثناء عمليات الإغلاق الجائحة. قرر ملايين الأشخاص الذين لم يتلقوا أي تدريب طبي تجاهل المشورة الطبية القائمة على أيديولوجيتهم السياسية.

عندما واجهوا خيارًا للاعتقاد بالسياسيين الذين لم يتلقوا تدريبًا طبيًا أو الإجماع الساحق والمراجع والمدعوم بالبحوث للمجتمع الطبي العالمي، قرر الملايين أنهم “يثقون” بالسياسيين أكثر من العلماء.

إضفاء الطابع الديمقراطي على الخبرة، فكرة أن أي شخص يمكن أن يكون خبيرًا إذا كان لديه إمكانية الوصول إلى البيانات الصحيحة في الوقت المناسب، هو تهديد خطير لجنسنا البشري. 

يعلمنا أن نثق في أي فكرة طالما يعتقد الجمهور أنها منطقية.

إنها الطريقة التي توصلنا بها إلى الاعتقاد بأن Pop Rocks وCoca Cola مزيج قاتل، والثيران يكرهون اللون الأحمر، ويمكن للكلاب أن ترى فقط بالأبيض والأسود، والبشر يستخدمون 10 في المائة فقط من أدمغتهم. 

كل هذه أساطير، ولكن في مرحلة ما من تاريخنا، كان كل منها يعتبر “معرفة عامة”.

وعلى الرغم من أن نشر المعلومات المضللة بدافع الجهل قد يكون أمرًا شبيهًا بالبشر، إلا أن إضفاء الطابع الديمقراطي على الخبرة على نطاق ميتا قادر على الوصول (ما يقرب من ثلث الأشخاص على وجه الأرض يستخدمون Facebook على أساس شهري) تأثير كارثي على قدرة البشرية على التفريق بين الهراء والشينولا .

بعبارة أخرى: لا يهم مدى ذكاء أذكى الناس على وجه الأرض إذا وضع عامة الناس ثقته في روبوت محادثة تم تدريبه على البيانات التي أنشأها عامة الناس. 

نظرًا لأن هذه الآلات تصبح أكثر قوة وأفضل في تقليد الكلام البشري، فإننا سنقترب من نقطة انعطاف مروعة حيث قدرتها على إقناعنا بأن ما تقوله منطقي سيتجاوز قدرتنا على اكتشاف الهراء.

إن إضفاء الطابع الديمقراطي على الخبرة هو ما يحدث عندما يعتقد الجميع أنهم خبراء. تقليديا، يميل سوق الأفكار إلى فرز الأمور عندما يدعي شخص ما أنه خبير ولكن لا يبدو أنه يعرف ما الذي يتحدثون عنه.

نرى هذا كثيرًا على وسائل التواصل الاجتماعي عندما يحصل شخص ما على نسبة “ تقسيم شيء ما إلى شخص يعرف الكثير عن الموضوع أكثر مما يعرف.

ماذا يحدث عندما يحصل جميع خبراء الكراسي بذراعين على رفيق ذكاء اصطناعي لإثارة إعجابهم؟

إذا كان بإمكان تطبيق Facebook أن يطلب الكثير من انتباهنا لدرجة أننا ننسى أن نلتقط أطفالنا في المدرسة أو ينتهي بنا الأمر إلى إرسال الرسائل النصية أثناء القيادة لأنه يتجاوز مراكزنا المنطقية، فما الذي تعتقد أن Meta يمكن أن تفعله باستخدام روبوت محادثة متطور تم تصميمه ليخبر كل مجنون على هذا الكوكب بما يريد أن يسمعه؟

المصدر: thenextweb

قد يهمك:

شراء قالب Divi مدفوع

شراء قالب Jannah مدفوع

قوالب WordPress

قالب Flatsome

قالب ادفورست

شراء قالب Digiqole

قالب Foxiz الإخباري

شراء قالب ووردبريس WoodMart

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي