الكراهية الناتجة عن الذكاء الاصطناعي آخذة في الارتفاع

عندما تسمع عبارة “الذكاء الاصطناعي”، قد يكون من المغري تخيل أنواع الآلات الذكية التي تشكل دعامة أساسية للخيال العلمي أو امتدادًا لأنواع رهاب التكنولوجيا المروعة التي فتنت البشرية منذ وحش الدكتور فرانك شتاين.
لكن أنواع الذكاء الاصطناعي التي يتم دمجها بسرعة في الأعمال التجارية حول العالم ليست من هذا التنوع – فهي تقنيات حقيقية للغاية لها تأثير حقيقي على الأشخاص الفعليين.
في حين أن الذكاء الاصطناعي موجود بالفعل في إعدادات الأعمال لسنوات، فإن تقدم منتجات الذكاء الاصطناعي التوليدية مثل ChatGPT و Chat Sonic و Jasper AI وغيرها من شأنه أن يزيد بشكل كبير من سهولة الاستخدام بالنسبة للشخص العادي. نتيجة لذلك، يشعر الرأي العام الأمريكي بقلق عميق بشأن احتمال إساءة استخدام هذه التقنيات. وجد استطلاع حديث لـ ADL أن 84٪ من الأمريكيين قلقون من أن الذكاء الاصطناعي التوليدي سيزيد من انتشار المعلومات المضللة والكراهية.
يجب على القادة الذين يفكرون في تبني هذه التكنولوجيا أن يسألوا أنفسهم أسئلة صعبة حول كيفية تشكيلها للمستقبل – للخير والشر – مع دخولنا هذه الجبهة الجديدة. فيما يلي ثلاثة أشياء آمل أن يأخذها جميع القادة في الاعتبار أثناء قيامهم بدمج أدوات الذكاء الاصطناعي التوليدية في المنظمات وأماكن العمل.
اجعل الثقة والأمان أولوية قصوى
بينما تُستخدم وسائل التواصل الاجتماعي للتعامل مع تعديل المحتوى، يتم إدخال الذكاء الاصطناعي التوليدي في أماكن العمل التي ليس لديها خبرة سابقة في التعامل مع هذه القضايا، مثل الرعاية الصحية والتمويل. قد تجد العديد من الصناعات نفسها فجأة تواجه تحديات جديدة صعبة لأنها تتبنى هذه التقنيات. إذا كنت شركة رعاية صحية أصبح برنامج الدردشة الآلي المدعوم بالذكاء الاصطناعي فجأة وقحًا أو حتى يكره المريض، فكيف ستتعامل مع ذلك؟
على الرغم من كل قوته وإمكاناته، فإن الذكاء الاصطناعي التوليدي يجعل الأمر سهلاً وسريعًا ويمكن الوصول إليه من قبل الجهات الفاعلة السيئة لإنتاج محتوى ضار.
على مدى عقود، طورت منصات وسائل التواصل الاجتماعي نظامًا جديدًا – الثقة والأمان – لمحاولة التغلب على المشكلات الشائكة المرتبطة بالمحتوى الذي ينشئه المستخدمون. ليس الأمر كذلك مع الصناعات الأخرى.
لهذا السبب، ستحتاج الشركات إلى استقدام خبراء في الثقة والأمان للتحدث عن تنفيذها. سيحتاجون إلى بناء الخبرة والتفكير في الطرق التي يمكن بها إساءة استخدام هذه الأدوات. وسيحتاجون إلى الاستثمار في الموظفين المسؤولين عن معالجة الانتهاكات حتى لا يتم القبض عليهم عندما يتم إساءة استخدام هذه الأدوات من قبل جهات سيئة.
إنشاء حواجز عالية والإصرار على الشفافية
لا سيما في أماكن العمل أو التعليم، من الأهمية بمكان أن تمتلك منصات الذكاء الاصطناعي حواجز حماية كافية لمنع إنشاء محتوى يحض على الكراهية أو التحرش.
على الرغم من كونها أدوات مفيدة بشكل لا يصدق، إلا أن منصات الذكاء الاصطناعي ليست مضمونة بنسبة 100٪. في غضون بضع دقائق، على سبيل المثال، استخدم مختبرو ADL مؤخرًا تطبيق Expedia ، بوظائفه الجديدة ChatGPT ، لإنشاء مسار للمذابح الشهيرة المعادية لليهود في أوروبا وقائمة بمتاجر الأدوات الفنية القريبة حيث يمكن للمرء شراء طلاء بخاخ، ظاهريًا للانخراط في أعمال تخريب ضد تلك المواقع.
على الرغم من أننا رأينا بعض أنظمة الذكاء الاصطناعي التي تعمل على تحسين طريقة تعاملها مع الأسئلة التي يمكن أن تؤدي إلى ردود معادية للسامية وغيرها من الردود البغيضة، فقد رأينا البعض الآخر يقصر عند التأكد من أنهم لن يساهموا في انتشار الكراهية والمضايقات ونظريات المؤامرة وأنواع أخرى من المحتوى الضار.
قبل اعتماد الذكاء الاصطناعي على نطاق واسع، يجب على القادة طرح أسئلة مهمة، مثل: ما نوع الاختبار الذي يتم إجراؤه للتأكد من أن هذه المنتجات ليست عرضة للإساءة؟ ما هي مجموعات البيانات التي يتم استخدامها لبناء هذه النماذج؟ وهل يتم دمج تجارب المجتمعات الأكثر استهدافًا بالكراهية عبر الإنترنت في إنشاء هذه الأدوات؟
بدون الشفافية من الأنظمة الأساسية، ليس هناك ما يضمن ببساطة عدم تمكين نماذج الذكاء الاصطناعي هذه من انتشار التحيز أو التعصب الأعمى.
الحماية من التسليح
حتى مع ممارسات الثقة والأمان القوية، لا يزال من الممكن إساءة استخدام الذكاء الاصطناعي من قبل المستخدمين العاديين. كقادة، نحتاج إلى تشجيع مصممي أنظمة الذكاء الاصطناعي على بناء ضمانات ضد التسليح البشري.
لسوء الحظ، على الرغم من كل قوتها وإمكانياتها، فإن أدوات الذكاء الاصطناعي تجعل الأمر سهلًا وسريعًا ويمكن الوصول إليه من قبل الجهات الفاعلة السيئة لإنتاج محتوى لأي من هذه السيناريوهات. يمكنهم إنتاج أخبار مزيفة مقنعة، وإنشاء مقاطع مزيفة بصريًا مقنعة ونشر الكراهية والمضايقات في غضون ثوانٍ. يمكن أن يسهم المحتوى التوليدي الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي أيضًا في انتشار الأيديولوجيات المتطرفة – أو استخدامه لتطرف الأفراد المعرضين للإصابة.
استجابةً لهذه التهديدات، يجب أن تتضمن منصات الذكاء الاصطناعي أنظمة تعديل قوية يمكنها الصمود في وجه الطوفان المحتمل لمرتكبي المحتوى الضار الذي قد يولدونه باستخدام هذه الأدوات.
يتمتع الذكاء الاصطناعي التوليدي بإمكانيات غير محدودة تقريبًا لتحسين الحياة وإحداث ثورة في كيفية معالجتنا للكمية اللانهائية من المعلومات المتاحة عبر الإنترنت. أنا متحمس بشأن آفاق المستقبل مع الذكاء الاصطناعي ولكن فقط مع القيادة المسؤولة.
المصدر: techcrunch
قد يهمك: