عاقب OpenAI مطورًا استخدم GPT-3 لإحياء الموتى – هل كان هذا عادلاً؟

تشق أنظمة التعلم الآلي طريقها بشكل متزايد في حياتنا اليومية، وتتحدى قيمنا الأخلاقية والاجتماعية والقواعد التي تحكمها.
في هذه الأيام، يهدد المساعدون الافتراضيون خصوصية المنزل؛ يقوم مقترحو الأخبار بتشكيل الطريقة التي نفهم بها العالم؛ أنظمة التنبؤ بالمخاطر ترشد الأخصائيين الاجتماعيين إلى الأطفال الذين يجب حمايتهم من سوء المعاملة؛ بينما تعمل أدوات التوظيف المستندة إلى البيانات أيضًا على ترتيب فرصك في الحصول على وظيفة.
مع ذلك، لا تزال أخلاقيات التعلم الآلي غير واضحة بالنسبة للكثيرين.
أثناء البحث عن مقالات حول هذا الموضوع للمهندسين الشباب الذين يحضرون دورة الأخلاق وتكنولوجيا المعلومات والاتصالات في UCLouvain ، بلجيكا، أدهشني بشكل خاص حالة Joshua Barbeau ، وهو رجل يبلغ من العمر 33 عامًا استخدم موقعًا إلكترونيًا يسمى Project December لـ إنشاء روبوت للمحادثة – روبوت محادثة – من شأنه محاكاة المحادثة مع خطيبته المتوفاة، جيسيكا.
روبوتات المحادثة تحاكي الموتى
سمح هذا النوع من روبوتات المحادثة، المعروف باسم deadbot، لباربو بتبادل الرسائل النصية مع “جيسيكا” الاصطناعية.
على الرغم من الطبيعة المثيرة للجدل من الناحية الأخلاقية للقضية، إلا أنني نادرًا ما وجدت مواد تتجاوز مجرد الجانب الوقائعي وحللت الحالة من خلال عدسة معيارية واضحة: لماذا يكون من الصواب أو الخطأ، المستحب أخلاقيًا أو المستهجن، تطوير برنامج deadbot؟
قبل أن نتعامل مع هذه الأسئلة، دعنا نضع الأمور في سياقها: تم إنشاء Project December بواسطة مطور الألعاب Jason Rohrer لتمكين الأشخاص من تخصيص روبوتات الدردشة بالشخصية التي يريدون التفاعل معها، بشرط أن يدفعوا مقابل ذلك.
تم بناء المشروع بالاعتماد على API الخاص بـ GPT-3، وهو نموذج لغة لتوليد النص من قبل شركة أبحاث الذكاء الاصطناعي OpenAI.
فتحت قضية باربو شرخًا بين Rohrer وOpenAI لأن إرشادات الشركة تحظر صراحة استخدام GPT-3 لأغراض جنسية أو عاطفية أو إيذاء النفس أو التنمر.
وصف روهرر موقف أوبن إيه آي بأنه شديد الأخلاقيات وجادل بأن أشخاصًا مثل باربو كانوا “بالغين موافقين”، وأغلق نسخة GPT-3 من مشروع ديسمبر.
بينما قد يكون لدينا جميعًا حدس حول ما إذا كان من الصواب أو الخطأ تطوير برنامج deadbot للتعلم الآلي، فإن توضيح آثاره بالكاد يجعل مهمة سهلة.
هذا هو السبب في أنه من المهم معالجة الأسئلة الأخلاقية التي تثيرها القضية، خطوة بخطوة.
هل موافقة باربو كافية لتطوير روبوت جيسيكا؟
نظرًا لأن جيسيكا كانت شخصًا حقيقيًا (وإن كانت ميتة)، فإن موافقة باربو على إنشاء روبوت يحاكيها يبدو غير كافٍ.
حتى عندما يموت الناس، فإنهم ليسوا مجرد أشياء يمكن للآخرين أن يفعلوا بها ما يحلو لهم. هذا هو السبب في أن مجتمعاتنا تعتبر أنه من الخطأ تدنيس أو عدم احترام ذكرى الموتى.
بعبارة أخرى، لدينا التزامات أخلاقية معينة تجاه الموتى، طالما أن الموت لا يعني بالضرورة توقف الناس عن الوجود بطريقة ذات صلة أخلاقية.
وبالمثل، فإن النقاش مفتوح حول ما إذا كان ينبغي علينا حماية الحقوق الأساسية للموتى (على سبيل المثال، الخصوصية والبيانات الشخصية).
يتطلب تطوير deadbot لتكرار شخصية شخص ما كميات كبيرة من المعلومات الشخصية مثل بيانات الشبكة الاجتماعية (انظر ما تقترحه Microsoft أو Eternime ) والتي أثبتت أنها تكشف عن سمات حساسة للغاية.
إذا اتفقنا على أنه من غير الأخلاقي استخدام بيانات الأشخاص دون موافقتهم أثناء وجودهم على قيد الحياة، فلماذا يكون من الأخلاقي القيام بذلك بعد وفاتهم؟ بهذا المعنى، عند تطوير برنامج deadbot، يبدو من المعقول طلب موافقة الشخص الذي تنعكس شخصيته – في هذه الحالة، جيسيكا.
عندما يعطي الشخص المقلد الضوء الأخضر
وبالتالي، فإن السؤال الثاني هو: هل ستكون موافقة جيسيكا كافية لاعتبار إنشاء الروبوت الخاص بها أمرًا أخلاقيًا؟ ماذا لو كانت مهينة لذاكرتها؟
حدود الموافقة هي، في الواقع، قضية مثيرة للجدل. خذ مثالا نموذجيا “روتنبورغ آكلي لحوم البشر”، الذي حُكم عليه بالسجن مدى الحياة على الرغم من حقيقة أن ضحيته وافق على أكله.
في هذا الصدد، قيل إنه من غير الأخلاقي الموافقة على الأشياء التي يمكن أن تكون ضارة بأنفسنا، سواء كان ذلك جسديًا (لبيع أعضائه الحيوية) أو بشكل تجريدي (تنفير المرء من حقوقه).
ما هي المصطلحات المحددة التي قد يكون هناك شيء ما ضار بها للموتى هي قضية معقدة بشكل خاص لن أقوم بتحليلها بالكامل.
مع ذلك، تجدر الإشارة إلى أنه حتى لو كان الموتى لا يمكن أن يتعرضوا للأذى أو الإساءة بنفس الطريقة التي يتعرض لها الأحياء، فإن هذا لا يعني أنهم غير معرضين للأفعال السيئة، ولا أن هذه التصرفات أخلاقية.
يمكن أن يتضرر الموتى من شرفهم أو سمعتهم أو كرامتهم (على سبيل المثال، حملات التشهير بعد وفاتهم)، كما أن عدم احترام الموتى يضر أيضًا بأقربائهم.
علاوة على ذلك، فإن التصرف السيئ تجاه الموتى يقودنا إلى مجتمع أكثر ظلمًا وأقل احترامًا لكرامة الناس بشكل عام.
أخيرًا، نظرًا لمرونة أنظمة التعلم الآلي وعدم القدرة على التنبؤ بها، هناك خطر يتمثل في أن الموافقة التي قدمها الشخص الذي تم تقليده (أثناء وجوده على قيد الحياة) لا تعني أكثر من مجرد فحص فارغ لمساراتها المحتملة.
مع أخذ كل هذا في الاعتبار، يبدو من المعقول استنتاج ما إذا كان تطوير deadbot أو استخدامه لا يتوافق مع ما وافق عليه الشخص المقلد، فيجب اعتبار موافقته غير صالحة.
علاوة على ذلك، إذا كان ذلك يمس كرامتهم بشكل واضح ومتعمد، فلا ينبغي أن تكون موافقتهم كافية لاعتبارها أخلاقية.
من يتحمل المسؤولية؟
المسألة الثالثة هي ما إذا كان يجب أن تطمح أنظمة الذكاء الاصطناعي إلى محاكاة أي نوع من السلوك البشري (بغض النظر عما إذا كان هذا ممكنًا).
لقد كان هذا مصدر قلق طويل الأمد في مجال الذكاء الاصطناعي ويرتبط ارتباطًا وثيقًا بالنزاع بين Rohrer وOpenAI.
هل يجب أن نطور أنظمة مصطنعة قادرة، على سبيل المثال، على الاهتمام بالآخرين أو اتخاذ قرارات سياسية؟ يبدو أن هناك شيئًا في هذه المهارات يجعل البشر مختلفين عن الحيوانات الأخرى وعن الآلات.
من ثم، فمن المهم أن نلاحظ أن استخدام الذكاء الاصطناعي كأداة لتحقيق الحلول التقنية مثل استبدال الأحباء قد يؤدي إلى التقليل من قيمة ما يميزنا كبشر.
السؤال الأخلاقي الرابع هو من يتحمل مسؤولية نتائج الروبوتات الميتة – خاصة في حالة الآثار الضارة.
تخيل أن روبوت جيسيكا الميت تعلم بشكل مستقل الأداء بطريقة تحط من قدر ذاكرتها أو تضر بصحة باربو العقلية بشكل لا رجعة فيه.
من سيتحمل المسؤولية؟ يجيب خبراء الذكاء الاصطناعي على هذا السؤال الزلق من خلال نهجين رئيسيين: أولاً، تقع المسؤولية على عاتق المشاركين في تصميم وتطوير النظام، طالما أنهم يفعلون ذلك وفقًا لاهتماماتهم الخاصة ووجهات نظرهم للعالم؛ ثانيًا ، تعتمد أنظمة التعلم الآلي على السياق ، لذا يجب توزيع المسؤوليات الأخلاقية لمخرجاتها بين جميع الوكلاء الذين يتفاعلون معها.
أضع نفسي أقرب إلى المركز الأول. في هذه الحالة، نظرًا لوجود مشاركة صريحة في إنشاء deadbot يتضمن OpenAI وJason Rohrer وJoshua Barbeau، فإنني أعتبر أنه من المنطقي تحليل مستوى مسؤولية كل طرف.
أولاً، سيكون من الصعب تحميل OpenAI المسؤولية بعد أن حظروا صراحة استخدام نظامهم لأغراض جنسية أو عاطفية أو إيذاء النفس أو التنمر.
يبدو من المعقول أن ننسب مستوى مهمًا من المسؤولية الأخلاقية إلى روهرر لأنه: (أ) صمم صراحةً النظام الذي جعل من الممكن إنشاء الروبوتات الميتة؛ (ب) فعلت ذلك دون توقع تدابير لتجنب النتائج السلبية المحتملة؛ (ج) كانت تدرك أنها لم تمتثل لإرشادات OpenAI؛ و (د) استفادوا منه.
ونظرًا لأن باربو خصص الروبوت القاتل بالاعتماد على ميزات معينة لجيسيكا، يبدو أنه من المشروع تحميله المسؤولية المشتركة في حال أدى ذلك إلى تدهور ذاكرتها.
أخلاقية، في ظل ظروف معينة
لذا، بالعودة إلى سؤالنا العام الأول حول ما إذا كان من الأخلاقي تطوير برنامج deadbot للتعلم الآلي، يمكننا تقديم إجابة مؤكدة بشرط:
- أعطى كل من الشخص الذي تم تقليده والشخص الذي قام بتخصيصه والتفاعل معه موافقته الحرة على وصف مفصل قدر الإمكان لتصميم النظام وتطويره واستخداماته؛
- – التطورات والاستخدامات التي لا تلتزم بما وافق عليه المقلد أو التي تتعارض مع كرامته؛
- الأشخاص المشاركون في تطويره وأولئك الذين يستفيدون منه يتحملون المسؤولية عن نتائجه السلبية المحتملة. كلاهما بأثر رجعي، لمراعاة الأحداث التي حدثت، ومستقبليًا، لمنع حدوثها في المستقبل.
توضح هذه الحالة سبب أهمية أخلاقيات التعلم الآلي. كما يوضح سبب ضرورة فتح نقاش عام يمكن أن يُعلم المواطنين بشكل أفضل ويساعدنا في تطوير تدابير السياسة لجعل أنظمة الذكاء الاصطناعي أكثر انفتاحًا وعادلة اجتماعيًا وامتثالًا للحقوق الأساسية.
المصدر: thenextweb
قد يهمك: