قياس الثقة في الذكاء الاصطناعي (AI)

يجد الباحثون أن ثقة الجمهور في الذكاء الاصطناعي تختلف اختلافًا كبيرًا حسب التطبيق.
بدافع من الأهمية المتزايدة للذكاء الاصطناعي (AI) في المجتمع، قام باحثو جامعة طوكيو بالتحقيق في المواقف العامة تجاه أخلاقيات الذكاء الاصطناعي.
تحدد النتائج التي توصلوا إليها كيف تؤثر العوامل الديموغرافية والسيناريوهات الأخلاقية المختلفة على هذه المواقف.
كجزء من هذه الدراسة، طور الفريق مقياسًا مرئيًا ثماني الأضلاع، مشابهًا لنظام التصنيف، والذي يمكن أن يكون مفيدًا لباحثي الذكاء الاصطناعي الذين يرغبون في معرفة كيف يمكن للجمهور أن ينظر إلى عملهم.
يشعر الكثير من الناس أن التطور السريع للتكنولوجيا غالبًا ما يفوق تطور البنى الاجتماعية التي توجهها وتنظمها ضمنيًا، مثل القانون أو الأخلاق.
يجسد الذكاء الاصطناعي على وجه الخصوص هذا لأنه أصبح منتشرًا جدًا في الحياة اليومية للكثيرين، على ما يبدو بين عشية وضحاها.
هذا الانتشار، إلى جانب التعقيد النسبي للذكاء الاصطناعي مقارنة بالتكنولوجيا الأكثر شيوعًا، يمكن أن يولد الخوف وعدم الثقة في هذا المكون الرئيسي للحياة الحديثة.
من لا يثق في الذكاء الاصطناعي وما هي الأمور التي قد يكون من المفيد معرفتها لمطوري ومنظمي تكنولوجيا الذكاء الاصطناعي، لكن هذه الأنواع من الأسئلة ليس من السهل تحديدها كمياً.

مثال على الرسم البياني يوضح تقييمات المستجيب للمواضيع الثمانية لكل من السيناريوهات الأخلاقية الأربعة لتطبيق مختلف للذكاء الاصطناعي. الائتمان: © 2021 Yokoyama et al.
شرع الباحثون في جامعة طوكيو، بقيادة البروفيسور هيرومي يوكوياما من معهد كافلي للفيزياء والرياضيات في الكون، في تحديد المواقف العامة تجاه القضايا الأخلاقية المتعلقة بالذكاء الاصطناعي.
كان هناك سؤالان، على وجه الخصوص، سعى الفريق، من خلال تحليل الاستطلاعات، إلى الإجابة: كيف تتغير المواقف اعتمادًا على السيناريو المقدم إلى المستجيب، وكيف غيّرت التركيبة السكانية للمستجيب نفسه المواقف.
لا يمكن قياس الأخلاقيات حقًا، لذا لقياس المواقف تجاه أخلاقيات الذكاء الاصطناعي، استخدم الفريق ثماني موضوعات مشتركة في العديد من تطبيقات الذكاء الاصطناعي التي أثارت أسئلة أخلاقية: الخصوصية والمساءلة والسلامة والأمن والشفافية وقابلية التفسير والإنصاف وعدم التمييز والإنسان السيطرة على التكنولوجيا والمسؤولية المهنية وتعزيز القيم الإنسانية.
هذه، التي أطلق عليها الفريق اسم “قياسات المثمن”، مستوحاة من ورقة بحثية عام 2020 أعدتها جيسيكا فيلد، الباحثة بجامعة هارفارد وفريقها.

الموضوعات الثمانية المشتركة بين مجموعة واسعة من سيناريوهات الذكاء الاصطناعي التي يكون للجمهور مخاوف أخلاقية ملحة بشأنها. الائتمان: © 2021 Yokoyama et al.
تم إعطاء المشاركين في الاستطلاع سلسلة من أربعة سيناريوهات للحكم وفقًا لهذه المعايير الثمانية. نظر كل سيناريو إلى تطبيق مختلف للذكاء الاصطناعي.
كانت: الفن المولّد بالذكاء الاصطناعي، وخدمة العملاء، والذكاء الاصطناعي، والأسلحة المستقلة، والتنبؤ بالجرائم.
كما قدم المشاركون في الاستطلاع للباحثين معلومات عن أنفسهم مثل العمر والجنس والمهنة ومستوى التعليم، بالإضافة إلى قياس مستوى اهتمامهم بالعلوم والتكنولوجيا عن طريق مجموعة إضافية من الأسئلة.
كانت هذه المعلومات ضرورية للباحثين لمعرفة خصائص الناس التي تتوافق مع مواقف معينة.
أظهرت الدراسات السابقة أن النساء، وكبار السن، والذين لديهم معرفة أكثر بالموضوع، ينظرون إلى المخاطر بشكل أكثر سلبية.
قال يوكوياما: “كنت أتوقع أن أرى شيئًا مختلفًا في هذا الاستطلاع بالنظر إلى مدى شيوع الذكاء الاصطناعي، ولكن من المدهش أننا رأينا اتجاهات مماثلة هنا”.
“ومع ذلك، هناك شيء رأيناه كان متوقعًا، وهو كيف تم تصور السيناريوهات المختلفة، مع مواجهة فكرة أسلحة الذكاء الاصطناعي بشكوك أكثر بكثير من السيناريوهات الثلاثة الأخرى.”
يأمل الفريق أن تؤدي النتائج إلى إنشاء نوع من المقياس العالمي لقياس ومقارنة القضايا الأخلاقية المتعلقة بالذكاء الاصطناعي. اقتصر هذا الاستطلاع على اليابان، لكن الفريق بدأ بالفعل في جمع البيانات في العديد من البلدان الأخرى.
قال الأستاذ المساعد تيلمان هارتويج: “على نطاق عالمي، يمكن للباحثين والمطورين والمنظمين قياس قبول تطبيقات أو تأثيرات معينة للذكاء الاصطناعي بشكل أفضل والتصرف وفقًا لذلك”.
“أحد الأشياء التي اكتشفتها أثناء تطوير السيناريوهات والاستبيان هو أن العديد من الموضوعات داخل الذكاء الاصطناعي تتطلب شرحًا مهمًا، أكثر مما أدركنا.
يوضح هذا وجود فجوة كبيرة بين الإدراك والواقع عندما يتعلق الأمر بالذكاء الاصطناعي “.
المصدر: scitechdaily
قد يهمك: