داخل نهج Google DeepMind لسلامة الذكاء الاصطناعي

تشاركها مديرة العمليات في المختبر استراتيجيتها
أصبحت سلامة الذكاء الاصطناعي مصدر قلق رئيسي. أثار التطور السريع لأدوات مثل ChatGPT و deepfakes مخاوف بشأن فقدان الوظائف والمعلومات المضللة وحتى الإبادة.
في الشهر الماضي، اجتذب تحذير من أن الذكاء الاصطناعي يشكل “خطر الانقراض” عناوين الصحف في جميع أنحاء العالم.
جاء التحذير في بيان وقعه أكثر من 350 من كبار الصناعة. وكان من بينهم ليلى إبراهيم، رئيس العمليات في Google DeepMind. كقائد لمختبر الذكاء الاصطناعي الرائد، يمتلك إبراهيم نظرة أولية على التهديدات – والفرص.
لقد قدم DeepMind بعضًا من أكثر الاختراقات المذهلة في هذا المجال، من قهر الألعاب المعقدة إلى الكشف عن بنية الكون البروتيني.
تتمثل مهمة الشركة النهائية في إنشاء ذكاء عام اصطناعي، وهو مفهوم غامض يشير على نطاق واسع إلى الآلات ذات القدرات الإدراكية على مستوى الإنسان. إنه طموح ذو رؤية يجب أن يظل راسخًا في الواقع – وهنا يأتي دور إبراهيم.
في عام 2018، تم تعيين إبراهيم كأول مدير عمليات في DeepMind. يشرف دورها على العمليات التجارية والنمو، مع تركيز قوي على بناء الذكاء الاصطناعي بشكل مسؤول.
قال إبراهيم لـ TNW عبر البريد الإلكتروني: “يجب أن تؤخذ المخاطر الجديدة والناشئة – مثل التحيز والسلامة وعدم المساواة – على محمل الجد”. “وبالمثل، نريد التأكد من أننا نفعل ما في وسعنا لتحقيق أقصى قدر من النتائج المفيدة.”

يكرس إبراهيم الكثير من وقته لضمان أن يكون لعمل الشركة نتيجة إيجابية للمجتمع. وسلط إبراهيم الضوء على أربعة أذرع لهذه الاستراتيجية.
1. الطريقة العلمية
للكشف عن اللبنات الأساسية للذكاء الاصطناعي المتقدم، يلتزم DeepMind بالمنهج العلمي.
يقول إبراهيم: “هذا يعني بناء الفرضيات واختبارها، واختبار الضغط على نهجنا والنتائج من خلال تدقيق مراجعة الأقران”.
“نعتقد أن النهج العلمي هو النهج الصحيح للذكاء الاصطناعي لأن خارطة الطريق لبناء ذكاء متقدم لا تزال غير واضحة.”
2. فرق متعددة التخصصات
يستخدم DeepMind أنظمة وعمليات مختلفة لتوجيه أبحاثه إلى العالم الحقيقي. أحد الأمثلة على ذلك هو لجنة المراجعة الداخلية.
يضم الفريق متعدد التخصصات باحثين في مجال التعلم الآلي، وعلماء أخلاقيات، وخبراء سلامة، ومهندسين، وهواة أمن، ومتخصصين في السياسات. في اجتماعات منتظمة، يناقشون طرق توسيع فوائد التكنولوجيا، والتغييرات في مجالات البحث، والمشاريع التي تحتاج إلى مزيد من الاستشارات الخارجية.
يقول إبراهيم: “إن وجود فريق متعدد التخصصات مع مجموعة فريدة من وجهات النظر هو عنصر حاسم في بناء مستقبل آمن وأخلاقي وشامل يدعمه الذكاء الاصطناعي ويفيدنا جميعًا”.
3. المبادئ المشتركة
لتوجيه تطوير الذكاء الاصطناعي للشركة، أنتجت DeepMind سلسلة من المبادئ الواضحة والمشتركة. تحدد مبادئ تشغيل الشركة، على سبيل المثال، التزام المختبر بتخفيف المخاطر، مع تحديد ما يرفض السعي وراءه – مثل الأسلحة المستقلة.
يقول إبراهيم: “إنهم يقننون هدفنا بإعطاء الأولوية للمنفعة الواسعة النطاق”.
4. استشارة الخبراء الخارجيين
أحد اهتمامات إبراهيم الرئيسية يتعلق بالتمثيل. كثيرا ما عزز الذكاء الاصطناعي التحيزا ، لا سيما ضد الفئات المهمشة، التي تميل إلى أن تكون ممثلة تمثيلا ناقصا في كل من بيانات التدريب والفرق التي تبني الأنظمة.
للتخفيف من هذه المخاطر، تعمل DeepMind مع خبراء خارجيين في موضوعات مثل التحيز والإقناع والأمن البيولوجي والنشر المسؤول للنماذج. تشارك الشركة أيضًا مع مجموعة واسعة من المجتمعات لفهم تأثير التكنولوجيا عليهم.
يقول إبراهيم: “تمكّننا هذه التعليقات من تحسين نماذجنا وإعادة تدريبها لتكون مناسبة لمجموعة أوسع من الجماهير”.
لقد حققت المشاركة بالفعل نتائج قوية.
دراسة الجدوى الخاصة بسلامة الذكاء الاصطناعي
في عام 2021، حلَّت شركة DeepMind أحد أكبر تحديات البيولوجيا: مشكلة طي البروتين.
باستخدام برنامج AI يسمى AlphaFold ، توقعت الشركة الهياكل ثلاثية الأبعاد لكل بروتين معروف تقريبًا في الكون – حوالي 200 مليون في المجموع. يعتقد العلماء أن العمل يمكن أن يسرع بشكل كبير من تطوير الأدوية.
استرشد نجاح AlphaFold بمجموعة متنوعة من الخبراء الخارجيين.
في المراحل الأولى من العمل، قامت DeepMind بالتحقيق في مجموعة من الأسئلة الكبيرة. كيف يمكن لـ AlphaFold تسريع الأبحاث والتطبيقات البيولوجية؟ ماذا يمكن أن تكون العواقب غير المقصودة؟ وكيف يمكن تقاسم التقدم بمسؤولية؟
بحثًا عن إجابات، سعى DeepMind للحصول على مدخلات من أكثر من 30 قائدًا عبر مجالات تتراوح من الأمن البيولوجي إلى حقوق الإنسان. لقد وجهت ملاحظاتهم استراتيجية DeepMind الخاصة بـ AlphaFold.
في أحد الأمثلة، فكرت شركة DeepMind في البداية في حذف التنبؤات التي تتمتع فيها AlphaFold بثقة منخفضة أو درجة عالية من عدم اليقين في التنبؤ. لكن الخبراء الخارجيين أوصوا بالاحتفاظ بهذه التوقعات في الإصدار.
اتبعت DeepMind نصائحهم. نتيجة لذلك، يعرف مستخدمو AlphaFold الآن أنه إذا كان لدى النظام ثقة منخفضة في بنية متوقعة، فهذا مؤشر جيد على وجود بروتين مضطرب بطبيعته.
العلماء في جميع أنحاء العالم يجنون الثمار. في فبراير، أعلن DeepMind أن قاعدة بيانات البروتين قد تم استخدامها الآن من قبل أكثر من مليون باحث. يتصدى عملهم للتحديات العالمية الرئيسية، من تطوير لقاحات الملاريا إلى مكافحة التلوث البلاستيكي.
يقول إبراهيم: “يمكنك الآن البحث عن بنية ثلاثية الأبعاد لبروتين بنفس سهولة إجراء بحث على Google باستخدام كلمة رئيسية – إنه علم بسرعة رقمية”.
يتطلب الذكاء الاصطناعي المسؤول أيضًا مجموعة متنوعة من المواهب. لتوسيع خط الأنابيب، تعمل DeepMind مع الأوساط الأكاديمية ومجموعات المجتمع والجمعيات الخيرية لدعم المجتمعات الممثلة تمثيلا ناقصا.
الدوافع ليست مجرد إيثار. سيؤدي سد فجوة المهارات إلى إنتاج المزيد من المواهب لـ DeepMind وقطاع التكنولوجيا الأوسع.
كما أظهر AlphaFold ، يمكن للذكاء الاصطناعي المسؤول أيضًا تسريع التقدم العلمي. ووسط المخاوف العامة المتزايدة والضغوط التنظيمي، تزداد دراسة الجدوى قوة.
المصدر: thenextweb
قد يهمك: