كيف يمكن للشركات تجنب المزالق الأخلاقية عند بناء منتجات الذكاء الاصطناعي

عبر الصناعات، تقوم الشركات بتوسيع استخدامها لأنظمة الذكاء الاصطناعي (AI).
لم يعد الذكاء الاصطناعي مخصصًا لعمالقة التكنولوجيا مثل Meta و Google بعد الآن؛ تستفيد شركات الخدمات اللوجستية من الذكاء الاصطناعي لتبسيط العمليات، ويستخدم المعلنون الذكاء الاصطناعي لاستهداف أسواق معينة، وحتى البنك الذي تتعامل معه عبر الإنترنت يستخدم الذكاء الاصطناعي لتعزيز تجربة خدمة العملاء الآلية.
بالنسبة لهذه الشركات، فإن التعامل مع المخاطر الأخلاقية والتحديات التشغيلية المتعلقة بالذكاء الاصطناعي أمر لا مفر منه – ولكن كيف يجب أن يستعدوا لمواجهتها؟
يمكن أن تنتهك منتجات الذكاء الاصطناعي التي يتم تنفيذها بشكل سيء خصوصية الأفراد، وفي أقصى الحدود، قد تؤدي إلى إضعاف أنظمتنا الاجتماعية والسياسية.
في الولايات المتحدة، تم الكشف عن خوارزمية مستخدمة للتنبؤ باحتمالية ارتكاب جريمة في المستقبل متحيزة ضد الأمريكيين السود، مما يعزز ممارسات التمييز العنصري في نظام العدالة الجنائية.
لتجنب المزالق الأخلاقية الخطيرة، يجب على أي شركة تتطلع إلى إطلاق منتجات الذكاء الاصطناعي الخاصة بها دمج فرق علوم البيانات الخاصة بها مع قادة الأعمال المدربين على التفكير على نطاق واسع في الطرق التي تتفاعل بها هذه المنتجات مع الأعمال والمهمة الأكبر.
للمضي قدمًا، يجب على الشركات التعامل مع أخلاقيات الذكاء الاصطناعي كمسألة عمل إستراتيجية في صميم المشروع – وليس كفكرة لاحقة.
عند تقييم التحديات الأخلاقية واللوجستية والقانونية المختلفة حول الذكاء الاصطناعي، غالبًا ما يساعد ذلك في تقسيم دورة حياة المنتج إلى ثلاث مراحل: النشر المسبق، والإطلاق الأولي، ومراقبة ما بعد النشر.
قبل النشر
في مرحلة ما قبل النشر، السؤال الأكثر أهمية الذي يجب طرحه هو: هل نحتاج إلى الذكاء الاصطناعي لحل هذه المشكلة؟ حتى في عالم “البيانات الضخمة” اليوم، يمكن أن يكون الحل بخلاف الذكاء الاصطناعي هو الخيار الأكثر فعالية والأرخص بكثير على المدى الطويل.
إذا كان حل الذكاء الاصطناعي هو الخيار الأفضل، فإن النشر المسبق هو الوقت المناسب للتفكير في الحصول على البيانات.
الذكاء الاصطناعي جيد فقط مثل مجموعات البيانات المستخدمة لتدريبه. كيف سنحصل على بياناتنا؟ هل سيتم الحصول على البيانات مباشرة من العملاء أم من طرف ثالث؟ كيف نتأكد من الحصول عليها بشكل أخلاقي؟
في حين أنه من المغري تجنب هذه الأسئلة، يجب على فريق العمل التفكير فيما إذا كانت عملية الحصول على البيانات الخاصة بهم تسمح بالموافقة المستنيرة أو تنتهك التوقعات المعقولة لخصوصية المستخدمين.
يمكن أن تؤدي قرارات الفريق إلى إتلاف سمعة الشركة أو تدميرها. مثال على ذلك: عندما تم العثور على تطبيق Ever يجمع البيانات دون إبلاغ المستخدمين بشكل صحيح، أجبرتهم FTC على حذف الخوارزميات والبيانات الخاصة بهم.
الموافقة المستنيرة والخصوصية متشابكان أيضًا مع الالتزامات القانونية للشركة.
كيف يجب أن نرد إذا طلبت جهات إنفاذ القانون المحلية الوصول إلى بيانات المستخدم الحساسة؟ ماذا لو كان تطبيق القانون الدولي؟ تقوم بعض الشركات، مثل Apple وMeta، بتصميم أنظمتها مع التشفير عمدًا حتى لا تتمكن الشركة من الوصول إلى البيانات أو الرسائل الخاصة بالمستخدم.
تقوم شركات أخرى بتصميم عملية الحصول على البيانات بعناية بحيث لا يكون لديها بيانات حساسة في المقام الأول.
إلى جانب الموافقة المستنيرة، كيف سنضمن أن البيانات التي تم الحصول عليها تمثل بشكل مناسب المستخدمين المستهدفين؟ يمكن أن تؤدي البيانات التي لا تمثّل تمثيلاً ناقصًا للسكان المهمشين إلى أنظمة ذكاء اصطناعي تديم التحيز المنهجي.
على سبيل المثال، ثبت أن تقنية التعرف على الوجه تظهر بشكل منتظم تحيزًا على أساس العرق والجنس، ويرجع ذلك في الغالب إلى أن البيانات المستخدمة لإنشاء مثل هذه التكنولوجيا ليست متنوعة بشكل مناسب.
الإطلاق الأولي
هناك مهمتان أساسيتان في المرحلة التالية من دورة حياة منتج الذكاء الاصطناعي.
أولاً، قم بتقييم ما إذا كانت هناك فجوة بين ما ينوي المنتج فعله وما يفعله بالفعل. إذا كان الأداء الفعلي لا يتوافق مع توقعاتك، فاكتشف السبب.
سواء كانت بيانات التدريب الأولية غير كافية أو كان هناك عيب كبير في التنفيذ، فلديك فرصة لتحديد وحل المشكلات العاجلة. ثانيًا، قم بتقييم كيفية تكامل نظام الذكاء الاصطناعي مع الأعمال الأكبر.
لا توجد هذه الأنظمة في فراغ – يمكن أن يؤثر نشر نظام جديد على سير العمل الداخلي للموظفين الحاليين أو تحويل الطلب الخارجي بعيدًا عن منتجات أو خدمات معينة.
افهم كيف يؤثر منتجك على عملك في الصورة الأكبر وكن مستعدًا: إذا تم العثور على مشكلة خطيرة، فقد يكون من الضروري التراجع عن منتج الذكاء الاصطناعي أو تقليصه أو إعادة تكوينه.
مراقبة ما بعد النشر
تعد مراقبة ما بعد النشر أمرًا بالغ الأهمية لنجاح المنتج ولكن غالبًا ما يتم تجاهله.
في المرحلة الأخيرة، يجب أن يكون هناك فريق مخصص لتتبع منتجات الذكاء الاصطناعي بعد النشر.
بعد كل شيء، لا يوجد منتج – AI أو غير ذلك – يعمل بشكل مثالي إلى الأبد دون عمليات ضبط.
قد يقوم هذا الفريق بشكل دوري بإجراء تدقيق للتحيز، أو يعيد تقييم موثوقية البيانات، أو يقوم ببساطة بتحديث البيانات “القديمة”.
يمكنهم تنفيذ التغييرات التشغيلية، مثل الحصول على المزيد من البيانات لحساب المجموعات الممثلة تمثيلا ناقصا أو إعادة تدريب النماذج المقابلة.
الأهم من ذلك، تذكر: تُعلم البيانات القصة بأكملها ولكنها لا تشرحها دائمًا. لن يلتقط التحليل الكمي وتتبع الأداء لأنظمة الذكاء الاصطناعي الجوانب العاطفية لتجربة المستخدم.
ومن ثم، يجب على فرق ما بعد النشر الغوص في المزيد من الأبحاث النوعية التي تتمحور حول الإنسان.
بدلاً من علماء بيانات الفريق، ابحث عن أعضاء الفريق ذوي الخبرة المتنوعة لإجراء بحث نوعي فعال.
ضع في اعتبارك أولئك الذين لديهم خلفيات أعمال وفنون ليبرالية للمساعدة في الكشف عن “المجهول ” بين المستخدمين وضمان المساءلة الداخلية.
أخيرًا، ضع في اعتبارك نهاية العمر الافتراضي لبيانات المنتج.
هل يجب حذف البيانات القديمة أو إعادة توظيفها لمشاريع بديلة؟ إذا تم تغيير الغرض منه، فهل نحتاج إلى إبلاغ المستخدمين؟ في حين أن وفرة تخزين البيانات الرخيصة تغرينا ببساطة بتخزين جميع البيانات القديمة والخطوة الجانبية لهذه المشكلات، فإن الاحتفاظ بالبيانات الحساسة يزيد من خطر تعرض الشركة لخرق أمني محتمل أو تسرب للبيانات.
أحد الاعتبارات الإضافية هو ما إذا كانت البلدان قد أنشأت حقًا في النسيان.
من منظور الأعمال الاستراتيجي، ستحتاج الشركات إلى توظيف فرق منتجات الذكاء الاصطناعي الخاصة بها مع قادة أعمال مسؤولين يمكنهم تقييم تأثير التكنولوجيا وتجنب المزالق الأخلاقية قبل وأثناء وبعد إطلاق المنتج.
بغض النظر عن الصناعة، سيكون أعضاء الفريق المهرة هؤلاء هم الأساس لمساعدة الشركة في التغلب على التحديات الأخلاقية واللوجستية التي لا مفر منها للذكاء الاصطناعي.
المصدر: venturebeat
شاهد المزيد: