كيف تساعد البشر على فهم الروبوتات – للتعاون بشكل أسرع وأكثر فعالية

يقترح باحثون من معهد ماساتشوستس للتكنولوجيا وجامعة هارفارد أن تطبيق النظريات من العلوم المعرفية وعلم النفس التربوي إلى مجال التفاعل بين الإنسان والروبوت يمكن أن يساعد البشر في بناء نماذج عقلية أكثر دقة لمتعاونيهم الروبوت، والتي يمكن أن تعزز الأداء وتحسن السلامة في أماكن العمل التعاونية. الائتمان: أخبار معهد ماساتشوستس للتكنولوجيا، iStockphoto
وجد العلماء أن نظريات العلوم المعرفية وعلم النفس يمكن أن تساعد البشر على تعلم التعاون مع الروبوتات بشكل أسرع وأكثر فعالية.
غالبًا ما يركز العلماء الذين يدرسون التفاعل بين الإنسان والروبوت على فهم نوايا الإنسان من منظور الروبوت، لذلك يتعلم الروبوت التعاون مع الناس بشكل أكثر فعالية.
لكن التفاعل بين الإنسان والروبوت هو طريق ذو اتجاهين، ويحتاج الإنسان أيضًا إلى تعلم كيف يتصرف الروبوت.
بفضل عقود من العلوم المعرفية وبحوث علم النفس التربوي، يتمتع العلماء بمعرفة جيدة حول كيفية تعلم البشر مفاهيم جديدة.
لذلك، تعاون الباحثون في معهد ماساتشوستس للتكنولوجيا وجامعة هارفارد لتطبيق النظريات الراسخة لتعلم المفهوم البشري للتحديات في التفاعل بين الإنسان والروبوت.
قاموا بفحص الدراسات السابقة التي ركزت على البشر الذين يحاولون تعليم الروبوتات سلوكيات جديدة. حدد الباحثون الفرص التي كان من الممكن أن تدمج فيها هذه الدراسات عناصر من نظريتين علميتين تكميليتين في منهجياتهم.
استخدموا أمثلة من هذه الأعمال لإظهار كيف يمكن للنظريات أن تساعد البشر على تشكيل نماذج مفاهيمية للروبوتات بشكل أسرع وأكثر دقة ومرونة، والتي يمكن أن تحسن فهمهم لسلوك الروبوت.
تقول سيرينا بوث، طالبة الدراسات العليا في مجموعة الروبوتات التفاعلية في مختبر علوم الكمبيوتر والذكاء الاصطناعي (CSAIL)، والمؤلف الرئيسي للورقة.
“سواء حاولنا أو لم نحاول مساعدة الناس على بناء نماذج مفاهيمية للروبوتات، فإنهم سيقومون ببنائها على أي حال. ويمكن أن تكون هذه النماذج المفاهيمية خاطئة.
هذا يمكن أن يعرض الناس لخطر جسيم. يقول بوث: “من المهم أن نستخدم كل ما في وسعنا لمنح هذا الشخص أفضل نموذج عقلي يمكنه بناءه”.
شاركت بوث ومستشارها، جولي شاه، أستاذة الطيران والملاحة الفضائية في معهد ماساتشوستس للتكنولوجيا ومديرة مجموعة الروبوتات التفاعلية، في تأليف هذه الورقة بالتعاون مع باحثين من جامعة هارفارد.
إيلينا غلاسمان ’08، MNG ’11، دكتوراه ’16، أستاذة مساعدة في علوم الكمبيوتر في كلية جون أ.بولسون للهندسة والعلوم التطبيقية بجامعة هارفارد، مع خبرة في نظريات التعلم والتفاعل بين الإنسان والحاسوب، كانت المستشار الأساسي في مشروع.
ومن بين المؤلفين المشاركين في جامعة هارفارد أيضًا طالبة الدراسات العليا سانجانا شارما ومساعدة الأبحاث سارة تشونج. سيتم تقديم البحث في مؤتمر IEEE حول التفاعل بين الإنسان والروبوت.
نهج نظري
قام الباحثون بتحليل 35 ورقة بحثية حول تعليم الإنسان الآلي باستخدام نظريتين رئيسيتين. تقترح “نظرية النقل التناظري” أن البشر يتعلمون عن طريق القياس.
عندما يتفاعل الإنسان مع مجال أو مفهوم جديد، فإنهم يبحثون ضمنيًا عن شيء مألوف يمكنهم استخدامه لفهم الكيان الجديد.
تجادل “نظرية التباين في التعلم” بأن التباين الاستراتيجي يمكن أن يكشف عن مفاهيم قد يصعب على الشخص تمييزها بطريقة أخرى.
يقترح أن يمر البشر بعملية من أربع خطوات عندما يتفاعلون مع مفهوم جديد: التكرار، والتباين، والتعميم، والاختلاف.
في حين أن العديد من الأوراق البحثية تضمنت عناصر جزئية لنظرية واحدة، كان هذا على الأرجح بسبب الصدفة، كما يقول بوث. لو استشار الباحثون هذه النظريات في بداية عملهم، فربما تمكنوا من تصميم تجارب أكثر فاعلية.
على سبيل المثال، عند تعليم البشر التفاعل مع الروبوت، غالبًا ما يعرض الباحثون للناس العديد من الأمثلة على الروبوت الذي يؤدي نفس المهمة.
ولكن بالنسبة للأشخاص لبناء نموذج عقلي دقيق لهذا الروبوت، تقترح نظرية التباين أنهم بحاجة إلى رؤية مجموعة من الأمثلة على الروبوت الذي يؤدي المهمة في بيئات مختلفة، كما يحتاجون أيضًا إلى رؤيته يرتكب أخطاء.
يقول بوث: “إنه أمر نادر جدًا في أدبيات التفاعل بين الإنسان والروبوت لأنه مخالف للحدس، ولكن يحتاج الناس أيضًا إلى رؤية أمثلة سلبية لفهم ما هو ليس الروبوت”.
يمكن لنظريات العلوم المعرفية هذه أيضًا تحسين تصميم الروبوت المادي. يوضح بوث أنه إذا كانت الذراع الروبوتية تشبه ذراعًا بشرية ولكنها تتحرك بطرق مختلفة عن حركة الإنسان، فسيواجه الناس صعوبة في بناء نماذج عقلية دقيقة للروبوت.
كما اقترحت نظرية النقل التناظرية، لأن الناس يرسمون ما يعرفونه – الذراع البشرية – للذراع الروبوتية، إذا لم تتطابق الحركة، يمكن أن يصاب الناس بالارتباك ويواجهون صعوبة في تعلم كيفية التفاعل مع الروبوت.
تعزيز التفسيرات
كما درست بوث ومعاونوها كيف يمكن لنظريات تعلم مفهوم الإنسان أن تحسن التفسيرات التي تسعى إلى مساعدة الناس على بناء الثقة في الروبوتات الجديدة غير المألوفة.
“في القابلية للتفسير، لدينا مشكلة كبيرة حقًا تتعلق بالتحيز التأكيدي. لا توجد عادة معايير حول ماهية التفسير وكيف يجب أن يستخدمه الشخص. بصفتنا باحثين، غالبًا ما نصمم طريقة شرح، تبدو جيدة لنا، ونقوم بشحنها “، كما تقول.
بدلاً من ذلك، يقترحون أن يستخدم الباحثون نظريات من تعلم المفهوم البشري للتفكير في كيفية استخدام الناس للتفسيرات، والتي غالبًا ما يتم إنشاؤها بواسطة الروبوتات لتوصيل السياسات التي يستخدمونها لاتخاذ القرارات بوضوح.
من خلال توفير منهج يساعد المستخدم على فهم معنى طريقة التفسير ومتى يستخدمها، ولكن أيضًا في الحالات التي لا تنطبق فيها، سيطورون فهمًا أقوى لسلوك الروبوت، كما يقول بوث.
بناءً على تحليلهم، يقدمون عددًا من التوصيات حول كيفية تحسين البحث في تعليم الإنسان الآلي.
على سبيل المثال، يقترحون أن يقوم الباحثون بدمج نظرية التحويل التناظرية من خلال توجيه الناس لإجراء مقارنات مناسبة عندما يتعلمون العمل مع روبوت جديد.
يقول بوث إن تقديم التوجيه يمكن أن يضمن أن الناس يستخدمون المقارنات المناسبة حتى لا يفاجئوا أو يرتبكوا من تصرفات الروبوت.
يقترحون أيضًا أن تضمين أمثلة إيجابية وسلبية لسلوك الروبوت، وتعريض المستخدمين لكيفية تأثير الاختلافات الاستراتيجية للمعلمات في “سياسة” الروبوت على سلوكه، في نهاية المطاف عبر بيئات متنوعة استراتيجيًا، يمكن أن يساعد البشر على التعلم بشكل أفضل وأسرع.
سياسة الروبوت هي وظيفة رياضية تعين الاحتمالات لكل إجراء يمكن أن يتخذه الروبوت.
“لقد أجرينا دراسات على المستخدمين لسنوات، لكننا كنا نطلق النار من الورك من حيث حدسنا بقدر ما قد يكون مفيدًا أو لا يكون مفيدًا لإظهار الإنسان.
يقول غلاسمان: “ستكون الخطوة التالية أكثر صرامة في ترسيخ هذا العمل في نظريات الإدراك البشري”.
المصدر: scitechdaily
قد يهمك: