بدلاً من إحساس الذكاء الاصطناعي، ركز على المخاطر الحالية لنماذج اللغة الكبيرة

في الآونة الأخيرة، احتل أحد مهندسي Google عناوين الصحف الدولية عندما أكد أن نظام LaMDA، نظامهم لبناء روبوتات المحادثة، كان واعيًا.
منذ منصبه الأول، احتدم الجدل العام حول ما إذا كان الذكاء الاصطناعي (AI) يُظهر الوعي ويختبر المشاعر بشكل حاد مثل البشر.
على الرغم من أن الموضوع رائع بلا شك، إلا أنه يلقي بظلاله على مخاطر أخرى أكثر إلحاحًا مثل الظلم وفقدان الخصوصية الذي تسببه نماذج اللغات واسعة النطاق (LLMs)، خاصة بالنسبة للشركات التي تتسابق لدمج هذه النماذج في منتجاتها وخدماتها.
يتم تضخيم هذه المخاطر بشكل أكبر من خلال حقيقة أن الشركات التي تنشر هذه النماذج غالبًا ما تفتقر إلى البصيرة في البيانات المحددة والأساليب المستخدمة في إنشائها، مما قد يؤدي إلى قضايا التحيز وخطاب الكراهية والقوالب النمطية.
ما هي ماجستير؟
LLMs هي شبكات عصبية ضخمة تتعلم من مجموعة ضخمة من النصوص المجانية (كتب التفكير وويكيبيديا وريديت وما شابه ذلك).
على الرغم من أنها مصممة لإنشاء نص، مثل تلخيص المستندات الطويلة أو الإجابة على الأسئلة، فقد تم العثور عليها متفوقة في مجموعة متنوعة من المهام الأخرى، من إنشاء مواقع الويب إلى وصف الأدوية إلى الحساب الأساسي.
هذه القدرة على التعميم على المهام التي لم يتم تصميمها من أجلها في الأصل هي التي دفعت LLMs إلى مجال بحث رئيسي.
يحدث التسويق عبر الصناعات من خلال تصميم النماذج الأساسية التي تم إنشاؤها وتدريبها من قبل الآخرين (على سبيل المثال، OpenAI وGoogle وMicrosoft وشركات التكنولوجيا الأخرى) لمهام محددة.
صاغ الباحثون في جامعة ستانفورد مصطلح “النماذج الأساسية” لوصف حقيقة أن هذه النماذج التي تم اختبارها مسبقًا تكمن وراء عدد لا يحصى من التطبيقات الأخرى. لسوء الحظ، تجلب هذه النماذج الضخمة معها أيضًا مخاطر كبيرة.
الجانب السلبي من LLMs
وعلى رأس تلك المخاطر: الخسائر البيئية التي يمكن أن تكون هائلة.
وجدت ورقة واحدة تم الاستشهاد بها جيدًا من عام 2019 أن تدريب نموذج واحد كبير يمكن أن ينتج قدرًا من الكربون يعادل ما يصل إلى خمس سيارات على مدار حياتها – ولم تزد النماذج إلا منذ ذلك الحين.
هذه الخسائر البيئية لها آثار مباشرة على مدى قدرة الشركة على الوفاء بالتزاماتها المتعلقة بالاستدامة، وعلى نطاق أوسع، أهدافها البيئية والاجتماعية والحوكمة.
حتى عندما تعتمد الشركات على نماذج مدربة من قبل الآخرين، لا يمكن تجاهل البصمة الكربونية لتدريب تلك النماذج، بما يتفق مع الطريقة التي يجب أن تتبعها الشركة للانبعاثات عبر سلسلة التوريد بأكملها.
ثم هناك قضية التحيز. تم العثور على مصادر بيانات الإنترنت المستخدمة بشكل شائع لتدريب هذه النماذج تحتوي على تحيز تجاه عدد من المجموعات، بما في ذلك الأشخاص ذوو الإعاقة والنساء.
كما أنها تزيد من تمثيل المستخدمين الأصغر سنًا من البلدان المتقدمة، مما يؤدي إلى إدامة هذه النظرة إلى العالم وتقليل تأثير السكان الذين يعانون من نقص التمثيل.
هذا له تأثير مباشر على التزامات DEI للشركات. قد تستمر أنظمة الذكاء الاصطناعي الخاصة بهم في إدامة التحيزات حتى أثناء سعيهم لتصحيح تلك التحيزات في أماكن أخرى من عملياتهم، مثل ممارسات التوظيف الخاصة بهم.
قد يقومون أيضًا بإنشاء تطبيقات تواجه العملاء تفشل في إنتاج نتائج متسقة أو موثوقة عبر المناطق الجغرافية أو الأعمار أو مجموعات العملاء الفرعية الأخرى.
يمكن أن يكون للـ LLM أيضًا نتائج غير متوقعة ومخيفة يمكن أن تشكل مخاطر حقيقية.
خذ، على سبيل المثال، الفنان الذي استخدم LLM لإعادة إنشاء صديق طفولته الخيالي، فقط ليطلب منه صديقه الخيالي وضع رأسه في الميكروويف.
في حين أن هذا قد يكون مثالًا متطرفًا، لا يمكن للشركات تجاهل هذه المخاطر، لا سيما في الحالات التي يتم فيها تطبيق LLM في المجالات عالية الخطورة بطبيعتها مثل الرعاية الصحية
يتم تضخيم هذه المخاطر بشكل أكبر من خلال حقيقة أنه يمكن أن يكون هناك نقص في الشفافية في جميع المكونات التي تدخل في إنشاء نظام ذكاء اصطناعي حديث من الدرجة الإنتاجية.
يمكن أن تشمل هذه خطوط أنابيب البيانات وقوائم الجرد النموذجية ومقاييس التحسين وخيارات التصميم الأوسع في تفاعل الأنظمة مع البشر.
يجب ألا تدمج الشركات بشكل أعمى النماذج التي تم تدريبها مسبقًا في منتجاتها وخدماتها دون التفكير بعناية في استخدامها المقصود وبيانات المصدر والاعتبارات الأخرى التي لا تعد ولا تحصى والتي تؤدي إلى المخاطر الموضحة سابقًا.
يعد وعد ماجستير إدارة الأعمال مثيرًا، وفي ظل الظروف المناسبة، يمكنهم تحقيق نتائج أعمال مبهرة.
ومع ذلك، لا يمكن أن يعني السعي وراء هذه الفوائد تجاهل المخاطر التي يمكن أن تؤدي إلى أضرار العملاء والمجتمع، والتقاضي، والانتهاكات التنظيمية وغيرها من الآثار المترتبة على الشركات.
وعد الذكاء الاصطناعي المسؤول
على نطاق أوسع، يجب على الشركات التي تسعى إلى الذكاء الاصطناعي أن تضع برنامجًا قويًا مسؤولاً للذكاء الاصطناعي (RAI) لضمان أن أنظمة الذكاء الاصطناعي الخاصة بها متوافقة مع قيم الشركة.
يبدأ هذا باستراتيجية شاملة تتضمن المبادئ وتصنيفات المخاطر وتعريف قابلية المخاطر الخاصة بالذكاء الاصطناعي.
من المهم أيضًا في مثل هذا البرنامج وضع الحوكمة والعمليات لتحديد المخاطر والتخفيف منها. ويشمل ذلك المساءلة الواضحة، والتصعيد والرقابة، والاندماج المباشر في وظائف إدارة المخاطر المؤسسية الأوسع.
في الوقت نفسه، يجب أن يكون لدى الموظفين آليات لإثارة المخاوف الأخلاقية دون الخوف من الانتقام، والتي يتم تقييمها بعد ذلك بطريقة واضحة وشفافة.
يؤدي التغيير الثقافي الذي ينسجم مع برنامج RAI هذا مع مهمة المنظمة وقيمها إلى زيادة فرصة النجاح. أخيرًا، يمكن أن تزيد العمليات الرئيسية لتطوير المنتج – مؤشرات الأداء الرئيسية، ومراقبة الحافظة والضوابط، وتوجيه البرنامج وتصميمه – من احتمالية النجاح أيضًا.
وفي الوقت نفسه، من المهم تطوير العمليات لبناء خبرة مسؤولة للذكاء الاصطناعي في تطوير المنتجات.
يتضمن ذلك عملية تقييم مخاطر منظمة تحدد فيها الفرق جميع أصحاب المصلحة المعنيين، وتدرس التأثيرات من الدرجة الثانية والثالثة التي يمكن أن تحدث عن غير قصد، وتضع خطط التخفيف.
نظرًا للطبيعة الاجتماعية والتقنية للعديد من هذه المشكلات، من المهم أيضًا دمج خبراء RAI في الجهود عالية المخاطر بطبيعتها للمساعدة في هذه العملية.
تحتاج الفرق أيضًا إلى تقنية وأدوات وأطر عمل جديدة لتسريع عملها مع تمكينها من تنفيذ الحلول بمسؤولية. يتضمن ذلك مجموعات أدوات البرامج وكتيبات التشغيل الخاصة بالتطوير المسؤول ونماذج التوثيق لتمكين التدقيق والشفافية.
القيادة مع RAI من أعلى
يجب أن يكون قادة الأعمال مستعدين للإبلاغ عن التزامات وعمليات RAI الخاصة بهم داخليًا وخارجيًا.
على سبيل المثال، تطوير مدونة سلوك للذكاء الاصطناعي تتجاوز المبادئ عالية المستوى لتوضيح نهجها تجاه الذكاء الاصطناعي المسؤول.
بالإضافة إلى منع الضرر غير المقصود للعملاء، وبشكل أوسع، المجتمع بشكل عام، يمكن أن يكون RAI مصدرًا حقيقيًا لقيمة الشركات.
أبلغ قادة الذكاء الاصطناعي المسؤولون عن ارتفاع معدل الاحتفاظ بالعملاء، والتمايز في السوق، والابتكار المتسارع، وتوظيف الموظفين والاحتفاظ بهم.
يساعد الاتصال الخارجي حول جهود شركة RAI في خلق الشفافية اللازمة لرفع ثقة العملاء وتحقيق هذه الفوائد.
تعد LLM أدوات قوية تستعد لإحداث تأثير أعمال لا يصدق. لسوء الحظ، فإنها تجلب أيضًا مخاطر حقيقية يجب تحديدها وإدارتها.
من خلال الخطوات الصحيحة، يمكن لقادة الشركات تحقيق التوازن بين الفوائد والمخاطر لتحقيق تأثير تحويلي مع تقليل المخاطر التي يتعرض لها العملاء والموظفون والمجتمع.
ومع ذلك، لا ينبغي أن ندع النقاش حول الذكاء الاصطناعي الواعي يصرف انتباهنا عن التركيز على هذه القضايا المهمة والحالية.
المصدر: venturebeat
شاهد المزيد: