يقول الخبراء في تحذير جديد إن الذكاء الاصطناعي يزيد من خطر الانقراض

أصدر العلماء وقادة صناعة التكنولوجيا، بمن فيهم المسؤولون التنفيذيون رفيعو المستوى في Microsoft و Google ، تحذيرًا جديدًا يوم الثلاثاء بشأن المخاطر التي يشكلها الذكاء الاصطناعي على البشرية.
وجاء في البيان أن “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
كان سام ألتمان، الرئيس التنفيذي لشركة OpenAI لصناعة ChatGPT ، وجيفري هينتون ، عالم الكمبيوتر المعروف باسم الأب الروحي للذكاء الاصطناعي، من بين مئات الشخصيات البارزة الذين وقعوا البيان، الذي نُشر على موقع مركز أمان الذكاء الاصطناعي.
ازدادت المخاوف بشأن تفوق أنظمة الذكاء الاصطناعي على البشر والاندفاع إلى البرية مع ظهور جيل جديد من روبوتات الدردشة ذات القدرات العالية مثل ChatGPT.
لقد أرسلت دولًا في جميع أنحاء العالم جاهدة للتوصل إلى لوائح لتطوير التكنولوجيا، حيث بدأ الاتحاد الأوروبي في المضي قدمًا بقانون الذكاء الاصطناعي الذي من المتوقع أن تتم الموافقة عليه في وقت لاحق من هذا العام.
قال دان هندريكس ، المدير التنفيذي للمؤسسة غير الربحية ومقرها سان فرانسيسكو، إن التحذير الأخير كان مقتضبًا عن قصد – جملة واحدة – ليشمل تحالفًا واسعًا من العلماء الذين قد لا يتفقون على المخاطر المحتملة أو أفضل الحلول لمنعها. مركز أمان الذكاء الاصطناعي الذي نظم هذه الخطوة.
قال هندريكس: “هناك مجموعة متنوعة من الأشخاص من جميع الجامعات العليا في مختلف المجالات المختلفة ممن يهتمون بهذا الأمر ويعتقدون أن هذه أولوية عالمية”.
“لذلك كان علينا أن نجعل الناس يخرجون نوعًا ما من الخزانة، إذا جاز التعبير، بشأن هذه المسألة لأن الكثيرين كانوا نوعًا ما يتحدثون بصمت فيما بينهم.”
وقع أكثر من 1000 باحث وتقني، بما في ذلك Elon Musk ، خطابًا أطول بكثير في وقت سابق من هذا العام يدعو إلى وقف تطوير الذكاء الاصطناعي لمدة ستة أشهر، قائلين إنه يشكل “مخاطر عميقة على المجتمع والإنسانية”.
كانت تلك الرسالة ردًا على إصدار OpenAI لنموذج جديد للذكاء الاصطناعي، GPT-4، لكن القادة في OpenAI وشريكتها Microsoft ومنافستها Google لم يوقعوا ورفضوا الدعوة إلى وقف طوعي للصناعة.
على النقيض من ذلك، تمت الموافقة على البيان الأخير من قبل كبار مسؤولي التكنولوجيا والعلوم في Microsoft ، وكذلك ديميس هاسابيس ، الرئيس التنفيذي لمختبر أبحاث الذكاء الاصطناعي في Google DeepMind ، واثنان من المسؤولين التنفيذيين في Google الذين يقودون جهود سياسة الذكاء الاصطناعي.
اشتكى بعض النقاد من أن التحذيرات الرهيبة بشأن المخاطر الوجودية التي عبر عنها صانعو الذكاء الاصطناعي ساهمت في تضخيم قدرات منتجاتهم وصرف الانتباه عن الدعوات إلى المزيد من اللوائح الفورية لكبح جماح مشاكلهم في العالم الحقيقي.
قال السيد Hendrycks إنه لا يوجد سبب يمنع المجتمع من إدارة “الأضرار العاجلة والمستمرة” للمنتجات التي تولد نصوصًا أو صورًا جديدة، بينما يبدأ أيضًا في معالجة “الكوارث المحتملة التي قد تكون وشيكة”.
قارنها بالعلماء النوويين في الثلاثينيات من القرن الماضي، محذرين الناس من توخي الحذر على الرغم من “أننا لم نطور القنبلة تمامًا بعد”.
قال Hendrycks: “لا أحد يقول إن GPT-4 أو ChatGPT اليوم تسبب هذه الأنواع من المخاوف”. “نحن نحاول معالجة هذه المخاطر قبل حدوثها بدلاً من محاولة معالجة الكوارث بعد وقوعها”.
كما وقع الخطاب خبراء في العلوم النووية والأوبئة وتغير المناخ. من بين الموقعين الكاتب بيل ماكيبين ، الذي دق ناقوس الخطر بشأن ظاهرة الاحتباس الحراري في كتابه عام 1989 نهاية الطبيعة وحذر من الذكاء الاصطناعي والتقنيات المرافقة قبل عقدين من الزمن في كتاب آخر.
وقال عبر البريد الإلكتروني يوم الثلاثاء “بالنظر إلى فشلنا في الاهتمام بالتحذيرات المبكرة بشأن تغير المناخ قبل 35 عامًا، أشعر كما لو كان من الذكاء التفكير بالفعل في هذا الأمر قبل أن تنتهي الصفقة بالكامل”.
المصدر: thenationalnews
اقرا ايضا: