ثورة الذكاء الاصطناعي في نقطة تحول

يريد بعض المطلعين على التكنولوجيا إيقاف التطوير المستمر لأنظمة الذكاء الاصطناعي قبل أن تتعارض المسارات العصبية للتعلم الآلي مع نوايا استخدام المبدعين من البشر. يجادل خبراء الكمبيوتر الآخرون بأن العثرات أمر لا مفر منه وأن التطوير يجب أن يستمر.

وقع أكثر من 1000 تقني وشخصية بارزة في الذكاء الاصطناعي مؤخرًا عريضة تطالب صناعة الحوسبة بتأجيل لمدة ستة أشهر لتدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4. يريد المؤيدون من مطوري الذكاء الاصطناعي إنشاء معايير أمان وتخفيف المخاطر المحتملة التي تشكلها تقنيات الذكاء الاصطناعي الأكثر خطورة.

نظمت مؤسسة Future of Life Institute غير الربحية الالتماس الذي يدعو إلى وقف عام شبه فوري ويمكن التحقق منه من قبل جميع المطورين الرئيسيين. خلاف ذلك، يجب على الحكومات التدخل وفرض حظر. اعتبارًا من هذا الأسبوع، يقول معهد Future of Life إنه جمع أكثر من 50000 توقيع تخضع لعملية التدقيق.

الرسالة ليست محاولة لوقف تطوير الذكاء الاصطناعي بشكل عام. بدلاً من ذلك، يريد مؤيدوها من المطورين أن يتراجعوا عن السباق الخطير “إلى نماذج الصندوق الأسود الأكبر حجمًا والتي لا يمكن التنبؤ بها ذات القدرات الناشئة”. خلال الوقت المستقطع، يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين تطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير الذكاء الاصطناعي المتقدم.

تنص الرسالة على أنه “يجب إعادة تركيز البحث والتطوير في مجال الذكاء الاصطناعي على جعل أنظمة اليوم القوية والحديثة أكثر دقة وأمانًا وقابلية للتفسير وشفافية وقوة ومتسقة وجديرة بالثقة وولاءً”.

دعم ليس عالمي

من المشكوك فيه أن يقوم أي شخص بإيقاف أي شيء مؤقتًا ، كما اقترح جون بامبنيك ، صائد التهديدات الرئيسي في شركة Netenrich لتحليلات الأمن والعمليات. ومع ذلك، فإنه يرى وعيًا متزايدًا بأن النظر في الآثار الأخلاقية لمشاريع الذكاء الاصطناعي يتخلف كثيرًا عن سرعة التطوير.

قال بامبنيك لـ TechNewsWorld: “أعتقد أنه من الجيد إعادة تقييم ما نقوم به والتأثيرات العميقة التي ستحدثها، حيث رأينا بالفعل بعض الإخفاقات المذهلة عندما يتعلق الأمر بعمليات نشر الذكاء الاصطناعي / التعلم الآلي”.

أضاف أندرو بارات ، نائب الرئيس في شركة خدمات استشارات الأمن السيبراني Coalfire ، أن أي شيء نقوم به لإيقاف الأشياء في مجال الذكاء الاصطناعي هو على الأرجح مجرد ضوضاء. من المستحيل أيضًا القيام بذلك عالميًا بطريقة منسقة.

سيكون الذكاء الاصطناعي عاملاً تمكينيًا للإنتاجية للأجيال القادمة. يكمن الخطر في مشاهدتها وهي تحل محل محركات البحث ثم يتم استثمارها من قبل المعلنين الذين يضعون منتجاتهم “بذكاء” في الإجابات. الأمر المثير للاهتمام هو أن “الارتفاع المفاجئ في الخوف” يبدو أنه بدأ منذ القدر الأخير من الاهتمام الذي تم تطبيقه على ChatGPT ، “قال بارات لموقع TechNewsWorld.

بدلاً من التوقف مؤقتًا ، يوصي بارات بتشجيع العاملين في مجال المعرفة في جميع أنحاء العالم للنظر في أفضل طريقة لاستخدام أدوات الذكاء الاصطناعي المختلفة التي أصبحت أكثر ملاءمة للمستهلك للمساعدة في توفير الإنتاجية. أولئك الذين لا يفعلون ذلك سوف يتركون وراءهم.

وفقًا لـ Dave Gerry ، الرئيس التنفيذي لشركة Bugcrowd للأمن السيبراني التي تعمل بنظام التعهيد الجماعي، يجب أن تظل السلامة والخصوصية مصدر قلق كبير لأي شركة تقنية، بغض النظر عما إذا كانت تركز على الذكاء الاصطناعي أم لا. عندما يتعلق الأمر بالذكاء الاصطناعي ، فإن التأكد من أن النموذج لديه الضمانات اللازمة، وحلقة التغذية الراجعة، وآلية لتسليط الضوء على مخاوف السلامة أمر بالغ الأهمية.

“نظرًا لأن المؤسسات تعتمد الذكاء الاصطناعي بسرعة في تحقيق الكفاءة والإنتاجية وإضفاء الطابع الديمقراطي على مزايا البيانات، فمن المهم التأكد من أنه عند تحديد المخاوف، هناك آلية إبلاغ لإبراز تلك المخاوف، بنفس الطريقة التي يتم بها تحديد الثغرات الأمنية وقال جيري لموقع TechNewsWorld.

إبراز المخاوف المشروعة

فيما يمكن أن يكون استجابة نموذجية متزايدة للحاجة إلى تنظيم الذكاء الاصطناعي، فإن خبير التعلم الآلي أنتوني ففيغيروا،المؤسس المشارك والمدير التقني لشركة تطوير البرمجيات القائمة على النتائج Rootstrap ، يدعم تنظيم الذكاء الاصطناعي ولكنه يشك في أن توقف تطويره سيؤدي إلى لأية تغييرات ذات مغزى.

تستخدم Figueroa البيانات الضخمة والتعلم الآلي لمساعدة الشركات على إنشاء حلول مبتكرة لاستثمار خدماتها. لكنه يشكك في أن المنظمين سوف يتحركون بالسرعة المناسبة ويفهمون الآثار المترتبة على ما يجب عليهم تنظيمه. وهو يرى أن التحدي مشابه لتلك التي تطرحها وسائل التواصل الاجتماعي قبل عقدين من الزمن.

أعتقد أن الرسالة التي كتبوها مهمة. نحن في نقطة تحول، وعلينا أن نبدأ في التفكير في التقدم الذي لم نحققه من قبل. لا أعتقد أن إيقاف أي شيء مؤقتًا لمدة ستة أشهر أو عام أو عامين أو عقد من الزمان أمر ممكن.

فجأة، أصبح كل شيء مدعومًا بالذكاء الاصطناعي هو الشيء الكبير التالي العالمي. أدى النجاح الحرفي بين عشية وضحاها لمنتج ChatGPT من OpenAI إلى جعل العالم يقف فجأة ويلاحظ القوة والإمكانيات الهائلة لتقنيات الذكاء الاصطناعي والتعلم الآلي.

“نحن لا نعرف الآثار المترتبة على تلك التكنولوجيا حتى الآن. ما هي مخاطر ذلك؟ نحن نعرف بعض الأشياء التي يمكن أن تسوء مع هذا السيف ذي الحدين.

هل يحتاج الذكاء الاصطناعي إلى تنظيم؟

ناقش TechNewsWorld مع أنتوني فيغيروا القضايا المحيطة بالحاجة إلى ضوابط المطور للتعلم الآلي والحاجة المحتملة للتنظيم الحكومي للذكاء الاصطناعي.

TechNewsWorld: داخل صناعة الحوسبة ، ما هي المبادئ التوجيهية والأخلاقيات الموجودة للبقاء بأمان على المسار الصحيح؟

أنتوني فيغيروا: أنت بحاجة إلى مجموعة الأخلاق الشخصية الخاصة بك في رأسك. ولكن حتى مع ذلك، يمكن أن يكون لديك الكثير من العواقب غير المرغوب فيها. ما نقوم به بهذه التقنية الجديدة، ChatGPT ، على سبيل المثال، هو تعريض الذكاء الاصطناعي لكمية كبيرة من البيانات.

تأتي هذه البيانات من مصادر عامة وخاصة وأشياء مختلفة. نحن نستخدم تقنية تسمى التعلم العميق، والتي لها أسسها في دراسة كيفية عمل عقولنا.

كيف يؤثر ذلك على استخدام الأخلاق والمبادئ التوجيهية؟

فيغيروا: في بعض الأحيان، لا نفهم حتى كيف يحل الذكاء الاصطناعي مشكلة بطريقة معينة. نحن لا نفهم عملية التفكير داخل النظام البيئي للذكاء الاصطناعي. أضف إلى هذا مفهوم يسمى القابلية للتفسير. يجب أن تكون قادرًا على تحديد كيفية اتخاذ القرار. لكن مع الذكاء الاصطناعي، لا يمكن تفسير ذلك دائمًا، وله نتائج مختلفة.

كيف تختلف هذه العوامل مع الذكاء الاصطناعي؟

فيغيروا: الذكاء الاصطناعي القابل للتفسير أقل قوة قليلاً لأن لديك المزيد من القيود، ولكن مرة أخرى، لديك سؤال أخلاقي.

على سبيل المثال، ضع في اعتبارك الأطباء الذين يعالجون حالة السرطان. لديهم العديد من العلاجات المتاحة. أحد الأدوية الثلاثة يمكن تفسيره تمامًا وسيعطي المريض فرصة 60٪ للشفاء. ثم يكون لديهم علاج غير قابل للتفسير، استنادًا إلى البيانات التاريخية، سيكون له احتمال علاج بنسبة 80٪، لكنهم لا يعرفون السبب حقًا.

هذا المزيج من الأدوية، إلى جانب الحمض النووي للمريض وعوامل أخرى، يؤثر على النتيجة. إذن ماذا يجب أن يأخذ المريض؟ كما تعلم، إنه قرار صعب.

كيف تعرف “الذكاء” من حيث تطوير الذكاء الاصطناعي؟

فيغيروا: الذكاء يمكننا تعريفه على أنه القدرة على حل المشكلات. تعمل أجهزة الكمبيوتر على حل المشكلات بطريقة مختلفة تمامًا عن الأشخاص. نحلها من خلال الجمع بين الضمير والذكاء، مما يمنحنا القدرة على الشعور بالأشياء وحل المشكلات معًا.

سيحل الذكاء الاصطناعي المشاكل من خلال التركيز على النتائج. مثال نموذجي هو السيارات ذاتية القيادة. ماذا لو كانت كل النتائج سيئة؟

ستختار السيارة ذاتية القيادة أقل النتائج سوءًا من بين جميع النتائج الممكنة. إذا كان على الذكاء الاصطناعي أن يختار مناورة ملاحية تقتل “سائق الراكب” أو تقتل شخصين على الطريق الذي يعبر بضوء أحمر، فيمكنك إثبات القضية في كلا الاتجاهين.

يمكنك أن تجعل المشاة قد ارتكبوا خطأ. لذا فإن الذكاء الاصطناعي سيصدر حكمًا أخلاقيًا ويقول لنقتل المشاة. أو يمكن أن يقول الذكاء الاصطناعي دعونا نحاول قتل أقل عدد ممكن من الناس. لا توجد إجابة صحيحة.

ماذا عن القضايا المحيطة بالتنظيم؟

فيغيروا: أعتقد أنه يجب تنظيم الذكاء الاصطناعي. من الممكن إيقاف التطوير أو الابتكار حتى يكون لدينا تقييم واضح للتنظيم. لن نحصل على ذلك. نحن لا نعرف بالضبط ما الذي ننظمه أو كيفية تطبيق التنظيم. لذلك علينا أن نبتكر طريقة جديدة للتنظيم.

أحد الأشياء التي يجيدها مطورو OpenAI هو بناء تقنيتهم ​​على مرأى من الجميع. يمكن للمطورين العمل على تقنيتهم ​​لمدة عامين آخرين والتوصل إلى تقنية أكثر تعقيدًا. لكنهم قرروا كشف الاختراق الحالي للعالم، حتى يتمكن الناس من البدء في التفكير في التنظيم ونوع التنظيم الذي يمكن تطبيقه عليه.

كيف تبدأ عملية التقييم؟

فيغيروا: كل شيء يبدأ بسؤالين. الأول، ما هو التنظيم؟ إنه توجيه صادر عن سلطة. ثم السؤال الثاني هو، من هي السلطة – كيان لديه سلطة إصدار الأوامر واتخاذ القرارات وتنفيذ تلك القرارات؟

يتعلق بهذين السؤالين الأولين سؤال ثالث: من أو من هم المرشحون؟ يمكن أن يكون لدينا حكومة محلية في بلد واحد أو كيانات وطنية منفصلة مثل الأمم المتحدة التي قد تكون عاجزة في هذه المواقف.

عندما يكون لديك تنظيم ذاتي للصناعة، يمكنك إثبات أن هذه هي أفضل طريقة للذهاب. لكن سيكون لديك الكثير من الممثلين السيئين. يمكن أن يكون لديك منظمات مهنية، ولكن بعد ذلك تدخل في مزيد من البيروقراطية. في غضون ذلك، يتحرك الذكاء الاصطناعي بسرعة مذهلة.

ما رأيك في أفضل نهج؟

فيغيروا: يجب أن يكون مزيجًا من الحكومة والصناعة والمنظمات المهنية وربما المنظمات غير الحكومية التي تعمل معًا. لكنني لست متفائلاً للغاية، ولا أعتقد أنهم سيجدون حلاً جيدًا بما يكفي لما هو آت.

هل هناك طريقة للتعامل مع الذكاء الاصطناعي والتعلم الآلي لوضع تدابير أمان مؤقتة إذا تجاوز الكيان الإرشادات؟

فيغيروا: يمكنك دائمًا القيام بذلك. لكن أحد التحديات هو عدم القدرة على التنبؤ بجميع النتائج المحتملة لهذه التقنيات.

في الوقت الحالي، لدينا جميع اللاعبين الكبار في الصناعة – OpenAI و Microsoft و Google – يعملون على المزيد من التكنولوجيا التأسيسية. أيضًا، تعمل العديد من شركات الذكاء الاصطناعي بمستوى آخر من التجريد، باستخدام التكنولوجيا التي يتم إنشاؤها. لكنهم أقدم الكيانات.

لذلك لديك عقل وراثي لتفعل ما تريد. إذا كانت لديك الأخلاق والإجراءات المناسبة، يمكنك تقليل الآثار الضارة وزيادة السلامة وتقليل التحيز. لكن لا يمكنك القضاء على ذلك على الإطلاق. علينا أن نتعايش مع ذلك وأن نخلق بعض المساءلة واللوائح. إذا حدثت نتيجة غير مرغوب فيها، يجب أن نكون واضحين بشأن مسؤوليتها. أعتقد أن هذا هو المفتاح.

ما الذي يجب القيام به الآن لرسم مسار الاستخدام الآمن للذكاء الاصطناعي والتعلم الآلي؟

فيغيروا: أولاً نص فرعي مفاده أننا لا نعرف كل شيء ونتقبل حدوث عواقب سلبية. على المدى الطويل، الهدف هو أن تفوق النتائج الإيجابية السلبيات.

ضع في اعتبارك أن ثورة الذكاء الاصطناعي لا يمكن التنبؤ بها ولكن لا مفر منها في الوقت الحالي. يمكنك إثبات إمكانية وضع اللوائح، وقد يكون من الجيد إبطاء السرعة والتأكد من أننا بأمان قدر الإمكان. تقبل أننا سنعاني من بعض العواقب السلبية على أمل أن تكون الآثار طويلة المدى أفضل بكثير وستوفر لنا مجتمعًا أفضل بكثير.

المصدر: technewsworld

قد يهمك:

شراء قالب ووردبريس Divi

قالب جنة مدفوع

شراء قوالب ووردبريس

شراء قالب ووردبريس flatsome

شراء قالب ووردبريس adforest

قالب ووردبريس Digiqole

شراء قالب Foxiz الإخباري مدفوع

شراء قالب WoodMart مدفوع

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي