بناء ذكاء اصطناعي مسؤول: 5 ركائز لمستقبل أخلاقي

لطالما كان هناك تقدم تكنولوجي، كانت هناك مخاوف بشأن تداعياته. مشروع مانهاتن، عندما تصارع العلماء مع دورهم في إطلاق مثل هذه الطاقة النووية المبتكرة، ولكن المدمرة، هو مثال ساطع. 

كان اللورد سولومون “سولي” زوكرمان مستشارًا علميًا للحلفاء خلال الحرب العالمية الثانية، وبعد ذلك كان أحد أبرز المدافعين عن حظر انتشار الأسلحة النووية. 

تم اقتباسه في الستينيات من القرن الماضي برؤية ثاقبة لا تزال صحيحة حتى اليوم: “العلم يخلق المستقبل دون معرفة ما سيكون عليه المستقبل.” 

الذكاء الاصطناعي (AI)، أصبح الآن مصطلحًا شاملاً لأي برنامج للتعلم الآلي (ML) مصمم لأداء المهام المعقدة التي تتطلب عادةً ذكاءً بشريًا، ومن المقرر أن يلعب دورًا كبيرًا في مجتمعنا المستقبلي. 

أدى انتشاره مؤخرًا إلى انفجار في الاهتمام، بالإضافة إلى زيادة التدقيق حول كيفية تطوير الذكاء الاصطناعي ومن يقوم بالتطوير، مما يلقي الضوء على كيفية تأثير التحيز على التصميم والوظيفة. 

يخطط الاتحاد الأوروبي لتشريع جديد يهدف إلى التخفيف من الأضرار المحتملة التي قد يتسبب بها الذكاء الاصطناعي وسيتطلب القانون الذكاء الاصطناعي المسؤول.

من السهل فهم سبب الحاجة إلى حواجز الحماية هذه. يقوم البشر ببناء أنظمة ذكاء اصطناعي، لذلك لا مفر من إدخال وجهة نظرهم الخاصة عن الأخلاق في التصميم، في كثير من الأحيان إلى الأسوأ. 

ظهرت بالفعل بعض الأمثلة المقلقة – خوارزمية بطاقة Apple والتوظيف في أمازون تم التحقيق في كل من التحيز الجنساني ، وكان على Google [الاشتراك المطلوب] إعادة تجهيز خدمة الصور بعد وضع العلامات العنصرية. 

قامت كل شركة منذ ذلك الحين بإصلاح المشكلات، لكن التكنولوجيا تتحرك بسرعة، مما يؤكد الدرس القائل بأن بناء تقنية فائقة دون احتساب المخاطر يشبه الركض معصوب العينين.

بناء ذكاء اصطناعي مسؤول

أشار ملفين جرير، كبير علماء البيانات في Intel، في VentureBeat إلى أن “… الخبراء في مجال الذكاء الاصطناعي المسؤول يريدون حقًا التركيز على إدارة مخاطر انحياز الذكاء الاصطناعي بنجاح، حتى لا نخلق فقط نظامًا يفعل شيئًا ادعى، ولكن القيام بشيء ما في سياق منظور أوسع يعترف بالمعايير والأخلاق المجتمعية “.

بعبارة أخرى، يجب أن يكون أولئك الذين يصممون أنظمة الذكاء الاصطناعي مسؤولين عن اختياراتهم، وأن “يفعلوا الشيء الصحيح” بشكل أساسي عندما يتعلق الأمر بتنفيذ البرامج.

إذا كانت شركتك أو فريقك يخطط لبناء أو دمج نظام ذكاء اصطناعي، فإليك خمس ركائز يجب أن تشكل مؤسستك:

1. المساءلة 

كنت تعتقد أن البشر سيأخذون في الاعتبار تصميم الذكاء الاصطناعي منذ البداية، لكن للأسف، هذا ليس هو الحال دائمًا. 

يمكن للمهندسين والمطورين أن يضيعوا بسهولة في الكود. لكن السؤال الكبير الذي يطرح نفسه عندما يتم إدخال البشر في الحلقة هو في كثير من الأحيان، “ما مقدار الثقة التي تضعها في نظام ML لبدء اتخاذ القرارات؟” 

أوضح مثال على هذه الأهمية هو السيارات ذاتية القيادة، حيث “نفوض” السيارة “لمعرفة” القرار الصحيح الذي يجب أن يكون للسائق البشري. 

ولكن حتى في السيناريوهات الأخرى مثل قرارات الإقراض، يحتاج المصممون إلى التفكير في مقاييس الإنصاف والتحيز المرتبطة بنموذج ML. 

تتمثل أفضل الممارسات الذكية التي يجب تنفيذها في إنشاء لجنة مستمرة لأخلاقيات الذكاء الاصطناعي للمساعدة في الإشراف على قرارات السياسة هذه، وتشجيع عمليات التدقيق والمراجعات لضمان مواكبة المعايير المجتمعية الحديثة.

2. قابلية النسخ المتماثل  

تستخدم معظم المؤسسات البيانات من عدد من المصادر (مستودعات البيانات، وموفرو التخزين السحابي، وما إلى ذلك)، ولكن إذا لم تكن هذه البيانات موحدة (بمعنى 1: 1)، فقد يؤدي ذلك إلى حدوث مشكلات على الطريق عندما تحاول جمعها رؤى لحل المشاكل أو تحديث الوظائف. 

من المهم للشركات التي تطور أنظمة الذكاء الاصطناعي أن تقوم بتوحيد خطوط أنابيب التعلم الآلي الخاصة بها لإنشاء كتالوجات بيانات ونماذج شاملة. 

سيساعد هذا في تبسيط الاختبار والتحقق من الصحة، بالإضافة إلى تحسين القدرة على إنتاج لوحات معلومات وتصورات دقيقة. 

3. الشفافية

كما هو الحال مع معظم الأشياء، الشفافية هي أفضل سياسة. عندما يتعلق الأمر بنماذج ML، فإن الشفافية تعادل القابلية للتفسير (أي ضمان إمكانية شرح نموذج ML). 

هذا مهم بشكل خاص في قطاعات مثل الخدمات المصرفية والرعاية الصحية، حيث تحتاج إلى أن تكون قادرًا على شرح وتبرير للعملاء سبب بناء هذه النماذج المحددة لضمان العدالة ضد التحيز غير المرغوب فيه. 

بمعنى، إذا لم يستطع المهندس تبرير سبب وجود ميزة ML معينة لصالح العميل، فلا ينبغي أن تكون موجودة. 

هذا هو المكان الذي تلعب فيه المراقبة والقياسات دورًا كبيرًا، ومن الأهمية بمكان مراقبة الأداء الإحصائي لضمان فعالية طويلة المدى لنظام الذكاء الاصطناعي. 

4. الأمن

في حالة الذكاء الاصطناعي، يتعامل الأمان بشكل أكبر مع كيفية حماية الشركة لنموذج ML الخاص بها، وعادةً ما يتضمن تقنيات مثل الحوسبة المشفرة واختبار الخصومة – لأن نظام الذكاء الاصطناعي لا يمكن أن يكون مسؤولاً إذا كان عرضة للهجوم. 

ضع في اعتبارك سيناريو الحياة الواقعية هذا: كان هناك نموذج رؤية كمبيوتر مصمم لاكتشاف علامات التوقف، ولكن عندما وضع شخص ما ملصقًا صغيرًا على علامة التوقف (لا يمكن تمييزه بالعين البشرية)، تم خداع النظام. 

يمكن أن يكون لأمثلة مثل هذه تداعيات كبيرة على السلامة، لذلك يجب أن تكون متيقظًا دائمًا مع الأمن لمنع مثل هذه العيوب.   

5. الخصوصية 

هذا العمود الأخير دائمًا ما يمثل مشكلة ساخنة، خاصة مع وجود العديد من فضائح Facebook المستمرة التي تنطوي على بيانات العملاء

يجمع الذكاء الاصطناعي كميات هائلة من البيانات، ويجب أن تكون هناك إرشادات واضحة للغاية بشأن الغرض الذي يتم استخدامه من أجله. (فكر في الناتج المحلي الإجمالي في أوروبا.)

وبغض النظر عن التنظيم الحكومي، تحتاج كل شركة تصمم الذكاء الاصطناعي إلى جعل الخصوصية مصدر قلق بالغ وتعميم بياناتها حتى لا تخزن السجلات الفردية. 

هذا مهم بشكل خاص في الرعاية الصحية أو أي صناعة بها بيانات المريض الحساسة. لمزيد من المعلومات، تحقق من تقنيات مثل التعلم الموحد والخصوصية التفاضلية.

الذكاء الاصطناعي المسؤول: الطريق إلى الأمام

حتى بعد أخذ هذه الركائز الخمس في الحسبان، يمكن أن تشعر المسؤولية في الذكاء الاصطناعي إلى حد كبير بموقف الضربة القاضية – فقط عندما تعتقد أن التكنولوجيا تعمل بشكل أخلاقي، تظهر فارق بسيط آخر. 

هذا مجرد جزء من عملية تلقين تقنية جديدة ومثيرة في العالم، وعلى غرار الإنترنت، من المحتمل ألا نتوقف أبدًا عن مناقشة وظائف الذكاء الاصطناعي وتحسينها.

لا تخطئ، رغم ذلك؛ تداعيات الذكاء الاصطناعي ضخمة وسيكون لها تأثير دائم على العديد من الصناعات. من الطرق الجيدة لبدء التحضير الآن هو التركيز على بناء فريق متنوع داخل مؤسستك. 

سيؤدي جلب أشخاص من أعراق وأجناس وخلفيات وثقافات مختلفة إلى تقليل فرصك في التحيز قبل أن تنظر حتى إلى التكنولوجيا. 

من خلال تضمين المزيد من الأشخاص في العملية وممارسة المراقبة المستمرة، سنضمن أن يكون الذكاء الاصطناعي أكثر كفاءة وأخلاقية ومسؤولية. 

Dattaraj Rao هو كبير علماء البيانات في Persistent .

المصدر: venturebeat

إقراء ايضا:

إنشاء حساب موقع PayPal

إنشاء حساب موقع Payeer

إنشاء حساب موقع خمسات

انشاء حساب موقع صراحة

أنواع الجرائم الالكترونية

إنشاء حساب فيس بوك

انشاء حساب انستقرام

دليل سيو SEO | تحسين محركات البحث 2023

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي