عذاب الذكاء الاصطناعي، ازدهار الذكاء الاصطناعي والدمار المحتمل للبشرية

“يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى، مثل الأوبئة والحرب النووية.”

يعكس هذا البيان، الذي أصدره مركز أمان الذكاء الاصطناعي (CAIS) هذا الأسبوع، قلقًا شاملاً – وقد يقول البعض تجاوز الحد – القلق بشأن سيناريوهات يوم القيامة بسبب الذكاء الفائق الجامح يعكس بيان CAIS المخاوف السائدة التي تم التعبير عنها في محادثات صناعة الذكاء الاصطناعي على مدار الشهرين الماضيين: أي أن التهديدات الوجودية قد تظهر على مدار العقد أو العقدين المقبلين ما لم يتم تنظيم تقنية الذكاء الاصطناعي بشكل صارم على نطاق عالمي. 

تم التوقيع على البيان من قبل شخص من الخبراء الأكاديميين وشخصيات التكنولوجيا البارزة بدءًا من جيفري هينون (الذي كان يعمل سابقًا في Google ومؤيد التعلم العميق منذ فترة طويلة) إلى ستيوارت راسل (أستاذ علوم الكمبيوتر في بيركلي) وليكس فريدمان (أ عالم أبحاث ومضيف بودكاست من معهد ماساتشوستس للتكنولوجيا).

 بالإضافة إلى الانقراض، يحذر مركز أمان الذكاء الاصطناعي من مخاوف مهمة أخرى تتراوح من ضعف التفكير البشري إلى التهديدات من المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي والتي تقوض عملية صنع القرار المجتمعي. 

يلفه السواد، محاط بالغم

في مقال نشرته صحيفة نيويورك تايمز، قال المدير التنفيذي لـ CAIS دان هيدريك: “هناك مفهوم خاطئ شائع جدًا، حتى في مجتمع الذكاء الاصطناعي، وهو أن هناك عددًا قليلاً فقط من المنكوبين.

 ولكن، في الواقع، يعرب العديد من الأشخاص بشكل خاص عن مخاوفهم بشأن هذه الأشياء “.

“Doomers” هي الكلمة الأساسية في هذا البيان. من الواضح أن هناك الكثير من حديث العذاب الدائر الآن. على سبيل المثال، غادر هينتون Google مؤخرًا حتى يتمكن من الشروع في جولة تهددنا جميعًا بالذكاء الاصطناعي.

في جميع أنحاء مجتمع الذكاء الاصطناعي، أصبح مصطلح “P (الموت)” شائعًا لوصف احتمالية حدوث مثل هذا الهلاك.

 P (الموت) هي محاولة لتحديد مخاطر سيناريو يوم القيامة حيث يتسبب الذكاء الاصطناعي، وخاصة الذكاء الاصطناعي الفائق الذكاء، في إلحاق ضرر جسيم بالبشرية أو حتى يؤدي إلى انقراض الإنسان.

في بودكاست هارد فورك الأخير، حدد كيفن روز من صحيفة نيويورك تايمز معدل P (الموت) بنسبة 5 ٪. أججا كوترا، خبيرة السلامة في الذكاء الاصطناعي مع Open Philanthropy وضيف في العرض، حددت P (الموت) بنسبة 20 إلى 30 ٪.

 ومع ذلك، يجب أن يقال إن P (العذاب) هو مجرد تخمين وذاتي، وهو انعكاس للمعتقدات والمواقف الفردية تجاه مخاطر الذكاء الاصطناعي – وليس مقياسًا نهائيًا لهذا الخطر.

لا يشتري الجميع قصة عذاب الذكاء الاصطناعي.

 في الواقع، يجادل بعض خبراء الذكاء الاصطناعي بالعكس. ومن بين هؤلاء أندرو ننغ (الذي أسس وقاد مشروع Google Brain) وبيدرو دومينغوس (أستاذ علوم وهندسة الكمبيوتر في جامعة واشنطن ومؤلف The Master Algorithm). يجادلون، بدلاً من ذلك، بأن الذكاء الاصطناعي جزء من الحل. كما ذكر Ng، هناك بالفعل مخاطر وجودية، مثل تغير المناخ والأوبئة في المستقبل، ويمكن أن يكون الذكاء الاصطناعي جزءًا من كيفية معالجة هذه الأمور والتخفيف منها على أمل.

يلفه السواد، محاط بالغم

التغلب على التأثير الإيجابي للذكاء الاصطناعي

ميلاني ميتشل، باحثة بارزة في الذكاء الاصطناعي، متشككة أيضًا في تفكير يوم القيامة. ميتشل أستاذ ديفيس للتعقيد في معهد سانتا في ومؤلف كتاب الذكاء الاصطناعي: دليل للتفكير في البشر.

 من بين حججها أن الذكاء لا يمكن فصله عن التنشئة الاجتماعية.

في كتابه نحو علم البيانات، يفسر جيريمي هاريس، المؤسس المشارك لشركة Gladstone AI للسلامة، ميتشل على أنه يجادل بأن نظام الذكاء الاصطناعي الذكي حقًا من المرجح أن يصبح اجتماعيًا من خلال انتقاء الفطرة السليمة والأخلاق كمنتج ثانوي لتطورها، وبالتالي، من المحتمل أن تكون آمنة.

في حين أن مفهوم P (الموت) يعمل على تسليط الضوء على المخاطر المحتملة للذكاء الاصطناعي، فإنه يمكن أن يطغى عن غير قصد على جانب حاسم من النقاش: التأثير الإيجابي الذي يمكن أن يكون للذكاء الاصطناعي على تخفيف التهديدات الوجودية.

ومن ثم، لتحقيق التوازن في المحادثة، يجب أن نفكر أيضًا في احتمال آخر أطلق عليه “P (حل)” أو “P (sol)”، وهو احتمال أن يلعب الذكاء الاصطناعي دورًا في معالجة هذه التهديدات

. لإعطائك فكرة عن وجهة نظري، أقدر أن P (العذاب) تبلغ حوالي 5 ٪، لكن P (sol) تقترب من 80 ٪. يعكس هذا اعتقادي بأنه على الرغم من أنه لا ينبغي استبعاد المخاطر، إلا أن الفوائد المحتملة للذكاء الاصطناعي يمكن أن تكون كبيرة بما يكفي لتفوقها.

هذا لا يعني أنه لا توجد مخاطر أو أنه لا ينبغي لنا اتباع أفضل الممارسات واللوائح لتجنب أسوأ الاحتمالات التي يمكن تخيلها.

 ومع ذلك، يجب أن نقول إنه لا ينبغي لنا التركيز فقط على النتائج أو الادعاءات السيئة المحتملة، كما هو الحال في منشور في منتدى الإيثار الفعال، فإن العذاب هو الاحتمال الافتراضي

مشكلة المحاذاة

القلق الأساسي، وفقًا للعديد من المنكوبين، هو مشكلة التوافق، حيث لا تتماشى أهداف الذكاء الاصطناعي الفائق مع القيم الإنسانية أو الأهداف المجتمعية. 

على الرغم من أن الموضوع يبدو جديدًا مع ظهور ChatGPT، إلا أن هذا القلق ظهر منذ ما يقرب من 65 عامًا. كما ذكرت The Economist، نشر نوربرت وينر – رائد الذكاء الاصطناعي وأب علم التحكم الآلي – مقالاً في عام 1960 يصف مخاوفه بشأن عالم “تتعلم فيه الآلات” و “تطور استراتيجيات غير متوقعة بمعدلات تحير مبرمجيها”. 

تم التعامل مع مشكلة المحاذاة لأول مرة في فيلم عام 1968: 2001: A Space Odyssey . عمل مارفن مينسكي، وهو رائد آخر في مجال الذكاء الاصطناعي، كمستشار تقني للفيلم.

 في الفيلم، يبدأ الكمبيوتر HAL 9000 الذي يوفر الذكاء الاصطناعي على متن سفينة الفضاء Discovery One في التصرف بطرق تتعارض مع مصالح أفراد الطاقم. تظهر مشكلة محاذاة الذكاء الاصطناعي عندما تختلف أهداف HAL ​​عن أهداف الطاقم البشري.

عندما تعلم HAL خطط الطاقم لفصلها بسبب مخاوف بشأن سلوكها، ترى HAL أن هذا يمثل تهديدًا لنجاح المهمة وتستجيب بمحاولة القضاء على أفراد الطاقم.

 الرسالة هي أنه إذا لم تكن أهداف الذكاء الاصطناعي متوافقة تمامًا مع القيم والأهداف الإنسانية، فقد يتخذ الذكاء الاصطناعي إجراءات ضارة أو حتى مميتة للبشر، حتى لو لم تتم برمجتها بشكل صريح للقيام بذلك.

تقدم سريعًا إلى الأمام 55 عامًا، وهذا هو نفس اهتمام المحاذاة الذي يحرك الكثير من محادثة يوم القيامة الحالية. القلق هو أن نظام الذكاء الاصطناعي قد يتخذ إجراءات ضارة حتى دون أن ينوي أحد القيام بذلك. تعمل العديد من منظمات الذكاء الاصطناعي الرائدة بجد لحل هذه المشكلة.

 نشر Google DeepMind مؤخرًا ورقة بحثية حول أفضل طريقة لتقييم أنظمة الذكاء الاصطناعي الجديدة ذات الأغراض العامة للقدرات الخطرة والمواءمة ولتطوير “نظام إنذار مبكر” باعتباره جانبًا حاسمًا في استراتيجية الذكاء الاصطناعي المسؤولة. 

مفارقة كلاسيكية

بالنظر إلى هذين الجانبين من المناقشة – P (الموت) أو P (سول) – لا يوجد إجماع على مستقبل الذكاء الاصطناعي.

 يبقى السؤال: هل نتجه نحو سيناريو هلاك أم مستقبل واعد يعززه الذكاء الاصطناعي؟ هذه مفارقة كلاسيكية. من ناحية، هناك أمل في أن يكون الذكاء الاصطناعي هو الأفضل منا وأن يحل المشاكل المعقدة وينقذ البشرية. على الجانب الآخر، سيخرج الذكاء الاصطناعي أسوأ ما فينا من خلال التعتيم على الحقيقة، وتدمير الثقة، وفي النهاية الإنسانية. 

مثل كل المفارقات، الجواب غير واضح. ما هو مؤكد هو الحاجة إلى اليقظة المستمرة والتطوير المسؤول في الذكاء الاصطناعي.

 وبالتالي، حتى إذا لم تقبل سيناريو يوم القيامة، فلا يزال من المنطقي اتباع لوائح المنطق السليم لمنع حدوث موقف غير متوقع ولكنه خطير. المخاطر، كما ذكّرنا مركز أمان الذكاء الاصطناعي، ليست أقل من مستقبل البشرية نفسها.

المصدر: venturebeat

قد يهمك:

شركة SEO

فتح حساب Exness

تسجيل دخول قناة على تيليجرام

طرق زيادة متابعين تيك توك

قالب ووردبريس نيوز بيبر Newspaper

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي