يطور الباحثون إطار عمل للتخفيف من المخاطر المحتملة للذكاء الاصطناعي

يعمل باحثون من كلية الصحة العامة بجامعة تكساس إيه آند إم على تطوير نموذج حوكمة جديد للتخفيف من المخاطر المحتملة للذكاء الاصطناعي دون إعاقة تقدمه.

سيوفر النموذج الجديد، المعروف باسم Copyleft AI مع الإنفاذ الموثوق (CAITE)، إرشادات أخلاقية لمجال الذكاء الاصطناعي سريع التطور (AI)، في محاولة للحماية من المخاطر المحتملة للذكاء الاصطناعي.

نُشر المقال بعنوان ” الاستفادة من الملكية الفكرية لحوكمة الذكاء الاصطناعي “، والذي يوضح تفاصيل النموذج الجديد، في مجلة Science.

تحدث الأخطار المحتملة للذكاء الاصطناعي عن طريق إساءة الاستخدام

يمتلك الذكاء الاصطناعي القدرة على إحداث ثورة في كل جانب من جوانب حياتنا تقريبًا، ولكن إساءة استخدام الأدوات القائمة على الذكاء الاصطناعي قد تكون ضارة، لا سيما للمجتمعات التي تواجه التمييز بالفعل. 

على الرغم من أن الذكاء الاصطناعي غالبًا ما يُعتبر موضوعيًا، إلا أن البيانات المشروحة البشرية التي يتغذى عليها يمكن أن تحتوي على تحيزات.

عند القراءة من خلال مواقع الويب، لا يمتلك الذكاء الاصطناعي الفهم لتصفية ما هو مفيد وما هو الصورة النمطية الضارة. 

كانت هناك العديد من الدراسات حول مخاطر الذكاء الاصطناعي بسبب هذه التحيزات، على سبيل المثال، حيث قدمت الخوارزميات الإقصائية تنبؤات عنصرية حول احتمالية ارتكاب الجاني للإساءة مرة أخرى.

تعكس احتمالية إحداث ضرر الحاجة الملحة للتوجيه الأخلاقي من خلال التنظيم والسياسة. ومع ذلك، فإن إنشاء مثل هذا التوجيه الأخلاقي يمثل تحديًا بسبب التقدم السريع للذكاء الاصطناعي وجمود التنظيم الحكومي.

تم تطوير نموذج CAITE باستخدام طريقتين

لمكافحة المخاطر المحتملة للذكاء الاصطناعي، قام Cason Schmit ، JD، الأستاذ المساعد في كلية الصحة العامة ومدير البرنامج في قانون وسياسة الصحة، وميغان دوير من Sage Bionetworks ، وجينيفر واجر، JD، من ولاية بنسلفانيا، بتطوير نموذج CAITE. 

يجمع النموذج بين طريقتين لإدارة حقوق الملكية الفكرية – جوانب ترخيص الحقوق المتروكة ونموذج تصيد براءات الاختراع.

تقليديًا، كان يُنظر إلى هذه النماذج على أنها تتنافس مع ترخيص الحقوق المتروكة الذي يسمح بمشاركة الملكية الفكرية في ظل شروط مثل إسناد المؤلف الأصلي أو الاستخدام غير التجاري. 

عادة ما يكون لهذه المخططات قوة إنفاذ قليلة. ومع ذلك، يستخدم نهج القيد على براءات الاختراع حقوق الإنفاذ لضمان الامتثال. 

سيضمن إطار العمل أن مستخدمي الذكاء الاصطناعي يمكنهم الإبلاغ عن التحيزات التي يكتشفونها في النموذج، بهدف مكافحة بعض المخاطر التي تمثلها نماذج معينة للذكاء الاصطناعي.

سيقيد نموذج CAITE الاستخدامات غير الأخلاقية للذكاء الاصطناعي

النموذج مبني على ترخيص استخدام أخلاقي يتطلب من المستخدمين الالتزام بقواعد السلوك. سيضمن نهج الحقوق المتروكة أن المطورين الذين ينشئون البيانات يجب أن يستخدموا نفس شروط الترخيص مثل العمل الأصلي. 

يقوم الترخيص بعد ذلك بتعيين حقوق الإنفاذ لطرف ثالث معين – مضيف CAITE. من خلال هذا، سيتم تجميع حقوق الإنفاذ لجميع تراخيص الاستخدام الأخلاقي هذه في منظمة واحدة، حيث يعمل مضيف CAITE كمنظم للذكاء الاصطناعي.

الاستخدامات غير الأخلاقية للذكاء الاصطناعي

قال شميت: “يجمع هذا النهج بين أفضل ما في العالمين: نموذج سريع ومرن مثل الصناعة، ولكن مع أسنان إنفاذ وقوة منظم حكومي تقليدي”.

يمكن أن يتيح استخدام حزب غير حكومي يعينه مجتمع مطوري الذكاء الاصطناعي مزيدًا من المرونة في الإنفاذ والثقة في الرقابة. 

على سبيل المثال، يمكن للمضيفين تحديد عواقب الإجراءات غير الأخلاقية، وكذلك السياسات المتساهلة التي يتم الترويج لها والتي تسمح بالإبلاغ الذاتي. 

من خلال الجمع بين النموذجين، سيساعد الإطار في منع بعض مخاطر الذكاء الاصطناعي من خلال ضمان الاستخدام الأخلاقي لمجموعات بيانات ونماذج تدريب الذكاء الاصطناعي.

هناك المزيد مما يتعين القيام به من أجل تنفيذ نهج CAITE

على الرغم من أن نهج CAITE مرن، إلا أن مشاركة مجتمع الذكاء الاصطناعي ستكون مطلوبة. كما ستكون هناك حاجة إلى مزيد من البحث والتمويل من أجل تنفيذ تجريبي للسياسات الأخلاقية المبنية باستخدام نهج CAITE. 

ستكون هناك حاجة إلى أعضاء مجتمع الذكاء الاصطناعي لتنفيذ النموذج للتغلب على أي تحديات قد تنشأ.

على الرغم من العمل الذي يجب القيام به، يعتقد الباحثون أن الصناعة ستفضل إطار عمل CAITE المرن على اللوائح الصارمة والبطيئة في التكيف التي يمكن أن تفرضها الحكومات في نهاية المطاف.

قال فاغنر: “يجب أن تتجاوز الجهود المبذولة لتعزيز الذكاء الاصطناعي الأخلاقي والجدير بالثقة ما هو مطلوب قانونًا باعتباره الأساس للسلوك المقبول”. “يمكننا ويجب علينا أن نسعى جاهدين لتحقيق أفضل مما هو مقبول بالحد الأدنى.”

بمجرد التنفيذ، سيحمي CAITE من المخاطر المحتملة للذكاء الاصطناعي دون إعاقة التقدم التكنولوجي. يجادل الباحثون بأنه مع توسع الذكاء الاصطناعي في حياتنا اليومية، ستصبح قيمة الإطار الأخلاقي المتجاوب أمرًا بالغ الأهمية.

المصدر: innovationnewsnetwork

قد يهمك:

إنشاء حساب باي بال تجاري

إنشاء حساب Wise

إنشاء حساب تيك توك

حساب Payoneer

إنشاء حساب Kucoin

إنشاء حساب جديد فيسبوك

إنشاء حساب انستقرام

hotmail.com انشاء حساب

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي