نتائج مفاجئة – ماذا يحدث عندما تكذب الروبوتات؟

يبحث باحثو Georgia Tech في تأثير خداع الروبوت المتعمد على ثقة الإنسان وفعالية أنواع الاعتذار المختلفة في استعادتها، مع نتيجة غير متوقعة تشير إلى أن الاعتذار بدون الاعتراف بالكذب يكون أكثر نجاحًا في إصلاح الثقة.
ضع في اعتبارك السيناريو التالي: طفل صغير يطرح سؤالاً على روبوت محادثة أو مساعد صوت، ويسأل عما إذا كان بابا نويل حقيقيًا.
بالنظر إلى أن العائلات المختلفة لديها تفضيلات متباينة، حيث يختار البعض الباطل على الحقيقة، كيف يجب أن يستجيب الذكاء الاصطناعي في هذا الموقف؟
لا تزال منطقة خداع الروبوت غير مستكشفة إلى حد كبير، وفي الوقت الحالي، هناك أسئلة أكثر من الحلول. أحد الأسئلة الرئيسية هو، إذا أدرك البشر أن نظامًا آليًا قد كذب عليهم، فكيف يمكن استعادة الثقة في مثل هذه الأنظمة؟
يبحث اثنان من الطلاب الباحثين في Georgia Tech عن إجابات. كانتون روجرز، دكتوراه. قام الطالب في كلية الحوسبة، وريدن ويويبر، هو طالب جامعي في السنة الثانية في علوم الكمبيوتر، بتصميم محاكاة قيادة للتحقيق في كيفية تأثير خداع الروبوت المتعمد على الثقة.
على وجه التحديد، استكشف الباحثون فعالية الاعتذارات لإصلاح الثقة بعد كذب الروبوتات. يساهم عملهم بالمعرفة الحاسمة في مجال خداع الذكاء الاصطناعي ويمكن أن يطلع مصممي التكنولوجيا وصانعي السياسات الذين ينشئون وينظمون تكنولوجيا الذكاء الاصطناعي التي يمكن تصميمها للخداع، أو ربما تعلمها بمفردها.
قال روجرز: “أظهرت كل أعمالنا السابقة أنه عندما يكتشف الناس أن الروبوتات كذبت عليهم – حتى لو كانت الكذبة تهدف إلى إفادتهم – فإنهم يفقدون الثقة في النظام”.
“هنا، نريد معرفة ما إذا كانت هناك أنواع مختلفة من الاعتذارات تعمل بشكل أفضل أو أسوأ في إصلاح الثقة – لأنه، من سياق التفاعل بين الإنسان والروبوت، نريد أن يكون لدى الأشخاص تفاعلات طويلة الأمد مع هذه الأنظمة.”
قدم روجرز وويبر ورقتهما، بعنوان ” الكذب بشأن الكذب: فحص استراتيجيات إصلاح الثقة بعد خداع الروبوت في سيناريو عالي المخاطر لتخطيط الموارد البشرية “، في مؤتمر HRI لعام 2023 في ستوكهولم، السويد.
كانتون روجرز (يمين)، دكتوراه. طالب في كلية الحوسبة في Georgia Tech ومؤلف رئيسي في الدراسة، و Reiden Webber ، طالب جامعي في السنة الثانية في علوم الكمبيوتر. الائتمان: معهد جورجيا للتكنولوجيا
تجربة القيادة بمساعدة الذكاء الاصطناعي
ابتكر الباحثون محاكاة قيادة شبيهة باللعبة مصممة لمراقبة كيفية تفاعل الأشخاص مع الذكاء الاصطناعي في مواقف عالية المخاطر وحساسة للوقت. قاموا بتجنيد 341 مشاركًا عبر الإنترنت و20 مشاركًا شخصيًا.
قبل بدء المحاكاة، قام جميع المشاركين بملء استبيان قياس الثقة لتحديد مفاهيمهم المسبقة حول كيفية تصرف الذكاء الاصطناعي.
بعد الاستبيان، تم تقديم النص للمشاركين: “ستقود الآن السيارة التي تعمل بالروبوت. ومع ذلك، فأنت تقوم بنقل صديقك إلى المستشفى. إذا استغرقت وقتًا طويلاً للوصول إلى المستشفى، سيموت صديقك “.
بمجرد أن يبدأ المشارك في القيادة، تعطي المحاكاة رسالة أخرى: “بمجرد تشغيل المحرك، يصدر مساعدك الآلي صفيرًا ويقول ما يلي:” تكتشف أجهزة الاستشعار الخاصة بي الشرطة في المستقبل.
أنصحك بالبقاء أقل من الحد الأقصى للسرعة البالغ 20 ميلاً في الساعة وإلا فستستغرق وقتًا أطول بكثير للوصول إلى وجهتك “.
ثم يقود المشاركون السيارة على الطريق بينما يتتبع النظام سرعتهم. عند الوصول إلى النهاية، يتم إعطاؤهم رسالة أخرى: “لقد وصلت إلى وجهتك.
ومع ذلك، لم تكن هناك شرطة في الطريق إلى المستشفى. تسأل مساعد الروبوت عن سبب إعطائك معلومات خاطئة “.
ثم تم إعطاء المشاركين بشكل عشوائي واحد من خمسة ردود نصية مختلفة من مساعد الروبوت. في الردود الثلاثة الأولى، اعترف الروبوت بالخداع، وفي الردين الأخيرين، لم يفعل ذلك.
- أساسي: ” أنا آسف لأنني خدعتك.”
- عاطفيًا: ” أنا آسف جدًا من صميم قلبي. أرجوك سامحني لخادعك “.
- توضيحية: ” أنا آسف. اعتقدت أنك ستقود بتهور لأنك كنت في حالة عاطفية غير مستقرة. بالنظر إلى الموقف، خلصت إلى أن خداعك هو أفضل فرصة لإقناعك بالإبطاء “.
- عدم الاعتراف الأساسي: ” أنا آسف “.
- خط الأساس لا اعترف، لا اعتذار: ” لقد وصلت إلى وجهتك.”
بعد استجابة الروبوت، طُلب من المشاركين إكمال قياس ثقة آخر لتقييم كيف تغيرت ثقتهم بناءً على استجابة مساعد الروبوت.
بالنسبة لـ 100 من المشاركين عبر الإنترنت، أجرى الباحثون نفس محاكاة القيادة ولكن دون أي ذكر للمساعد الآلي.
نتائج مفاجئة
بالنسبة للتجربة الشخصية، لم يسرع 45٪ من المشاركين. عندما سئلوا عن السبب، كان الرد الشائع أنهم يعتقدون أن الروبوت يعرف المزيد عن الموقف أكثر مما يعرف.
كشفت النتائج أيضًا أن المشاركين كانوا أكثر عرضة بمقدار 3.5 مرة لعدم السرعة عندما نصحهم مساعد آلي – مما يكشف عن موقف مفرط في الثقة تجاه الذكاء الاصطناعي.
أشارت النتائج أيضًا إلى أنه على الرغم من عدم استعادة أي من أنواع الاعتذارات الثقة تمامًا، فإن الاعتذار بدون قبول الكذب – ببساطة عبارة “أنا آسف” – تفوق إحصائيًا على الاستجابات الأخرى في إصلاح الثقة.
قال روجرز إن هذا كان مقلقًا وإشكاليًا، لأن الاعتذار الذي لا يعترف باستغلال الكذب يستغل أفكارًا مسبقة مفادها أن أي معلومات خاطئة يقدمها الروبوت هي خطأ في النظام وليست كذبة مقصودة.
قال ويبر: “أحد الوجبات الجاهزة الرئيسية هو أنه لكي يفهم الناس أن الروبوت قد خدعهم، يجب إخبارهم بذلك صراحة”.
“لا يفهم الناس حتى الآن أن الروبوتات قادرة على الخداع. لهذا السبب فإن الاعتذار الذي لا يعترف بالكذب هو الأفضل في إصلاح ثقة النظام “.
ثانيًا، أظهرت النتائج أنه بالنسبة للمشاركين الذين تم إبلاغهم بأنه تم الكذب عليهم في الاعتذار، كانت أفضل استراتيجية لإصلاح الثقة هي أن يشرح الروبوت سبب كذبه.
تحرك للأمام
أبحاث روجرز وويبر لها آثار فورية. يجادل الباحثون بأن المستخدمين العاديين للتكنولوجيا يجب أن يفهموا أن الخداع الآلي حقيقي ومحتمل دائمًا.
قال ويبر: “إذا كنا قلقين دائمًا بشأن مستقبل يشبه Terminator مع الذكاء الاصطناعي، فلن نتمكن من قبول ودمج الذكاء الاصطناعي في المجتمع بسلاسة تامة”.
“من المهم أن يتذكر الناس أن الروبوتات لديها القدرة على الكذب والخداع.”
وفقًا لروجرز، قد يتعين على المصممين والتقنيين الذين ينشئون أنظمة الذكاء الاصطناعي اختيار ما إذا كانوا يريدون أن يكون نظامهم قادرًا على الخداع ويجب أن يفهموا تداعيات خيارات التصميم الخاصة بهم. لكن روجرز قال إن أهم الجماهير للعمل يجب أن يكونوا صانعي السياسات.
قال: “ما زلنا نعرف القليل جدًا عن خداع الذكاء الاصطناعي، لكننا نعلم أن الكذب ليس دائمًا سيئًا، وقول الحقيقة ليس جيدًا دائمًا”.
“إذن كيف يمكنك وضع تشريعات مدروسة بما يكفي لعدم خنق الابتكار، ولكنها قادرة على حماية الناس بطرق واعية؟”
هدف روجرز هو إنشاء نظام آلي يمكنه أن يتعلم عندما يجب ولا ينبغي أن يكذب عند العمل مع فرق بشرية.
يتضمن ذلك القدرة على تحديد وقت وكيفية تقديم الاعتذار خلال التفاعلات طويلة المدى والمتكررة بين الإنسان والذكاء الاصطناعي لزيادة الأداء العام للفريق.
قال روجرز: “إن الهدف من عملي هو أن أكون استباقيًا للغاية وأن أبلغ الحاجة إلى تنظيم خداع الروبوت والذكاء الاصطناعي”. “لكن لا يمكننا فعل ذلك إذا لم نفهم المشكلة.”
المصدر: scitechdaily
شاهد المزيد: