Chatbot: إدراك الوعي في الذكاء الاصطناعي للمحادثة

في مجال الذكاء الاصطناعي (AI)، يعتبر تطوير الذكاء الاصطناعي العام (AGI) بمثابة “الكأس المقدسة” للتعلم الآلي. 

يعكس الذكاء الاصطناعي العام (AGI) قدرة الكمبيوتر على حل المهام وتطوير استقلالية مستقلة على قدم المساواة مع العامل البشري. 

في ظل تفسير “قوي” للذكاء الاصطناعي العام، ستظهر الآلة خصائص الوعي التي تظهر في كائن حساس. 

على هذا النحو، يوفر الذكاء الاصطناعي العام القوي الأساس لمزيج مسكر من الرؤى الفاضلة أو البائسة للغد التي تولدها هوليوود. 

فكر في Ex Machina وBlade Runner وStar Wars saga للحصول على أمثلة للآلات المستقلة ذات الإدراك الذاتي.

اختبار تورينج

تم تحديد الاختبار الأساسي لتمييز الذكاء الاصطناعي العام من قبل آلان تورينج في بحثه الأساسي، الذي نُشر عام 1950، بعنوان ” أولاً – آلات الحوسبة والذكاء. 

افترض تورينج اختبارًا يسمى “لعبة التقليد”، حيث يتم تكليف محقق بشري بتقييم الإجابات على سلسلة من الأسئلة التي يقدمها كل من المستجيبين البشري والآلي لتحديد أي إجابة هي الآلة وأيها الانسان. 

يتم اجتياز الاختبار بواسطة الآلة عندما يكون المحقق البشري غير قادر على تمييز هوية المستفتى، دون معرفة مسبقة عن المستفتى هو الإنسان.

من الإنصاف القول إن إمكانية إنشاء AGI حقيقي – آلة تفكير مستقلة – هو الذي يقسم المشاركين في أبحاث الذكاء الاصطناعي.

الانبهار بفكرة الآلات التي تحاكي نفسية الإنسان يؤدي حتمًا إلى ضجة إعلامية عند ادعاء اختراقات جديدة، أو عند نشر أفكار مثيرة للجدل. 

لقد احتل التعليق المبلغ عنه لمهندس برمجيات Google بزعم ادعائه أن برنامج الدردشة LaMDA التابع للشركة سلوكًا حساسًا، لا محالة، عناوين الصحف في جميع أنحاء العالم. 

ومع ذلك، فإن فهم كيفية إنشاء روبوتات المحادثة يساعد في توضيح الفرق بين استجابات LaMDA الاصطناعية والآلة ذات الروح.

هناك أيضًا الدرس التاريخي المستفاد من برنامج Tay chatbot من Microsoft ، والذي تم إتلافه في عام 2016 من خلال بيانات التدريب من مستخدمي Twitter والتي حولت مخرجات المحادثة المرغوبة، المشابهة لفتاة تبلغ من العمر 19 عامًا، إلى مخرجات محادثة عنصرية.

كيف تعمل روبوتات المحادثة

روبوتات المحادثة هي مثال على تطبيق معالجة اللغة الطبيعية (NLP) كشكل من أشكال التعلم الآلي. روبوتات الدردشة مألوفة لأي شخص يتعامل مع وكيل افتراضي عند التفاعل مع مؤسسة عبر موقعها على الويب. 

تفسر خوارزمية chatbot الجانب البشري من “المحادثة” وتختار الرد المناسب بناءً على مجموعة الكلمات المكتشفة. 

يتوقف نجاح روبوت المحادثة في تبادل المحادثة مع المشارك البشري، ومستوى التقليد البشري الذي تم تحقيقه، على بيانات التدريب المستخدمة لتطوير الخوارزمية والتعلم المعزز الذي تم الحصول عليه من خلال محادثات متعددة.

إذن كيف يمكن لـ LaMDA تقديم استجابات قد يراها المستخدم البشري كفكر واعٍ أو استبطان؟ ومن المفارقات، أن هذا يرجع إلى مجموعة بيانات التدريب المستخدمة لتدريب LaMDA والترابط بين الأسئلة البشرية المحتملة واستجابات الآلة المحتملة. 

كل ذلك يتلخص في الاحتمالات. السؤال هو: كيف تتطور هذه الاحتمالات بحيث يمكن الخلط بين المحقق البشري العقلاني فيما يتعلق بوظيفة الآلة؟

مشكلة العلاقات العامة التحادثية للذكاء الاصطناعي

يقودنا هذا إلى الحاجة إلى ” قابلية شرح ” محسنة في الذكاء الاصطناعي. الشبكات العصبية الاصطناعية المعقدة، وهي الأساس لمجموعة متنوعة من أنظمة الذكاء الاصطناعي المفيدة، قادرة على حوسبة الوظائف التي تتجاوز قدرات الإنسان. 

في كثير من الحالات، تتضمن الشبكة العصبية وظائف التعلم التي تمكن من التكيف مع المهام خارج التطبيق الأولي الذي تم تطوير الشبكة من أجله. 

ومع ذلك، فإن الأسباب التي تجعل الشبكة العصبية توفر ناتجًا محددًا استجابة لمدخل معين غالبًا ما تكون غير واضحة، وحتى غير مدركة، مما يؤدي إلى انتقاد الاعتماد البشري على الآلات التي لا يُفهم منطقها الجوهري بشكل صحيح.

يُدخل حجم ونطاق بيانات التدريب أيضًا تحيزًا لأنظمة الذكاء الاصطناعي المعقدة، مما يؤدي إلى مخرجات غير متوقعة أو خاطئة أو مربكة لبيانات الإدخال في العالم الحقيقي. 

تمت الإشارة إلى هذا على أنه مشكلة “الصندوق الأسود” حيث لا يستطيع المستخدم البشري، أو مطور الذكاء الاصطناعي، تحديد سبب تصرف نظام الذكاء الاصطناعي على هذا النحو.

لا تختلف حالة وعي LaMDA المدرك عن حالة عنصرية تاي المكتسبة. بدون تدقيق وفهم كافيين لكيفية تدريب أنظمة الذكاء الاصطناعي، وبدون معرفة كافية لماذا تولد أنظمة الذكاء الاصطناعي مخرجاتها من بيانات الإدخال المقدمة، فمن الممكن حتى للمستخدم الخبير أن يكون غير متأكد من سبب استجابة الآلة كما تفعل.

ما لم تكن الحاجة إلى تفسير سلوك الذكاء الاصطناعي مضمنة في تصميم وتطوير واختبار ونشر الأنظمة التي سنعتمد عليها غدًا، فسوف نستمر في خداعنا باختراعاتنا، مثل المحقق الأعمى في لعبة تورينج للخداع.

ريتشارد سيرل هو نائب الرئيس للحوسبة السرية في  Fortanix .

المصدر: venturebeat

شاهد ايضا:

تسجيل دخول حساب باي بال تجاري

إنشاء حساب Wise

إنشاء حساب تيك توك

خطوات إنشاء حساب Payoneer

إنشاء حساب Kucoin

إنشاء حساب جديد فيسبوك

إنشاء حساب انستقرام

hotmail.com انشاء حساب

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي