قال رئيس السحابة إن Google تجري محادثات مثمرة مع الاتحاد الأوروبي بشأن تنظيم الذكاء الاصطناعي

  • أجرت Google ”محادثات مثمرة” مع المنظمين في الاتحاد الأوروبي حول وضع لوائح للذكاء الاصطناعي، وفقًا لما صرح به رئيس السحابة السحابية في الشركة توماس كوريان لشبكة CNBC. 
  • قال كوريان:” نرحب بالتنظيم”، متحدثًا عن العديد من المقترحات المقدمة من المنظمين العالميين بهدف كبح جماح التطوير غير المقيد للتكنولوجيا.
  • وافق المشرعون مؤخرًا على قانون الاتحاد الأوروبي للذكاء الاصطناعي، والذي يتطلب من المطورين تقديم نماذج الذكاء الاصطناعي الخاصة بهم للمراجعة قبل الإصدار التجاري.

لندن – جوجل قال رئيس قسم الحوسبة السحابية في الشركة لشبكة CNBC، إنه يجري محادثات مبكرة مثمرة مع المنظمين في الاتحاد الأوروبي حول لوائح الذكاء الاصطناعي الرائدة في الاتحاد وكيف يمكن له والشركات الأخرى بناء الذكاء الاصطناعي بأمان ومسؤولية.

يعمل رائد البحث على الإنترنت على أدوات لمعالجة عدد من مخاوف الكتلة المحيطة بالذكاء الاصطناعي – بما في ذلك القلق الذي قد يصبح من الصعب التمييز بين المحتوى الذي تم إنشاؤه بواسطة البشر والمحتوى الذي تم إنتاجه بواسطة الذكاء الاصطناعي.

″نجري محادثات مثمرة مع حكومة الاتحاد الأوروبي. قال توماس كوريان في مقابلة، متحدثًا مع سي إن بي سي حصريًا من مكتب الشركة في لندن، لأننا نريد إيجاد طريق للمضي قدمًا.

″هذه التقنيات تنطوي على مخاطر، ولكن لديها أيضًا قدرة هائلة تولد قيمة حقيقية للناس.”

قال كوريان إن Google تعمل على تقنيات للتأكد من أن الناس يمكنهم التمييز بين المحتوى الذي تم إنشاؤه بواسطة الإنسان والذكاء الاصطناعي

. كشفت الشركة عن حل” العلامة المائية” الذي يصنف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي في حدث I / O الشهر الماضي.

إنه يلمح إلى كيفية عمل Google وشركات التكنولوجيا الكبرى الأخرى على وسائل لجلب الإشراف الذي يحركه القطاع الخاص إلى الذكاء الاصطناعي قبل اللوائح الرسمية المتعلقة بالتكنولوجيا.

تتطور أنظمة الذكاء الاصطناعي بوتيرة سريعة، مع أدوات مثل ChatGPT و Stability Diffusion قادرة على إنتاج أشياء تتجاوز إمكانيات التكرارات السابقة للتكنولوجيا.

 يتم استخدام ChatGPT وأدوات مثله بشكل متزايد من قبل مبرمجي الكمبيوتر كرفاق لمساعدتهم على إنشاء التعليمات البرمجية، على سبيل المثال.

ومع ذلك، فإن أحد الشواغل الرئيسية لدى صانعي السياسات والهيئات التنظيمية في الاتحاد الأوروبي هو أن نماذج الذكاء الاصطناعي التوليدية قد خفضت الحاجز أمام الإنتاج الضخم للمحتوى بناءً على المواد التي تنتهك حقوق الطبع والنشر، ويمكن أن تضر بالفنانين وغيرهم من المهنيين المبدعين الذين يعتمدون على الإتاوات لكسب المال. 

يتم تدريب نماذج الذكاء الاصطناعي التوليدية على مجموعات ضخمة من بيانات الإنترنت المتاحة للجمهور، وكثير منها محمي بحقوق النشر.

في وقت سابق من هذا الشهر، وافق أعضاء في البرلمان الأوروبي على تشريع يهدف إلى فرض الرقابة على انتشار الذكاء الاصطناعي في الكتلة.

 يتضمن القانون، المعروف باسم قانون الاتحاد الأوروبي للذكاء الاصطناعي، أحكامًا لضمان أن بيانات التدريب الخاصة بأدوات الذكاء الاصطناعي التوليفية لا تنتهك قوانين حقوق النشر.

قال كوريان:” لدينا الكثير من العملاء الأوروبيين الذين يبنون تطبيقات الذكاء الاصطناعي التوليدية باستخدام منصتنا”. ″نواصل العمل مع حكومة الاتحاد الأوروبي للتأكد من أننا نتفهم مخاوفهم.” 

″نحن نقدم أدوات، على سبيل المثال، للتعرف على ما إذا كان المحتوى قد تم إنشاؤه بواسطة نموذج. 

وهذا لا يقل أهمية عن قول إن حقوق النشر مهمة، لأنه إذا لم تتمكن من معرفة ما تم إنشاؤه بواسطة إنسان أو ما تم إنشاؤه بواسطة نموذج، فلن تكون قادرًا على فرضه”.

أصبح الذكاء الاصطناعي ساحة معركة رئيسية في صناعة التكنولوجيا العالمية حيث تتنافس الشركات على دور رائد في تطوير التكنولوجيا – لا سيما الذكاء الاصطناعي التوليدي، والذي يمكنه إنشاء محتوى جديد من مطالبات المستخدم. 

ما يمكن للذكاء الاصطناعي التوليدي القيام به، من إنتاج كلمات الموسيقى إلى إنشاء التعليمات البرمجية، قد أذهل الأكاديميين ومجالس الإدارة. 

لكنه أدى أيضًا إلى مخاوف بشأن الاستغناء عن الوظائف والمعلومات المضللة والتحيز.

يحتاج الذكاء الاصطناعي إلى تعاون جذري لوقف العواقب غير المقصودة، كما يقول هيمانت تانيجا من جنرال كاتاليست

أعرب العديد من كبار الباحثين والموظفين داخل صفوف Google الخاصة عن قلقهم بشأن السرعة التي تتحرك بها وتيرة الذكاء الاصطناعي. 

أطلق موظفو Google على إعلان الشركة عن Bard ، روبوتها الآلي للمحادثة AI لمنافسة OpenAI’s ChatGPT المدعومة من Microsoft ، بأنه” متسرع” و” فاشل” و “un-Googley” في الرسائل على المنتدى الداخلي Memegen ، على سبيل المثال. 

كما أطلق العديد من الباحثين البارزين السابقين في Google ناقوس الخطر بشأن تعامل الشركة مع الذكاء الاصطناعي وما يقولون إنه عدم الاهتمام بالتطور الأخلاقي لهذه التكنولوجيا. 

ومن بينهم Timnit Gebru ، الرئيس المشارك السابق لفريق الذكاء الاصطناعي الأخلاقي في Google ، بعد دق ناقوس الخطر بشأن الإرشادات الداخلية للشركة بشأن أخلاقيات الذكاء الاصطناعي، وجيفري هينتون ، رائد التعلم الآلي المعروف باسم” الأب الروحي للذكاء الاصطناعي”، والذي ترك الشركة مؤخرًا بسبب مخاوف من أن دفعها العدواني إلى الذكاء الاصطناعي كان يخرج عن نطاق السيطرة.

تحقيقًا لهذه الغاية، يريد كوريان من Google أن يعرف المنظمون العالميون أنه ليس خائفًا من الترحيب بالتنظيم.

قال كوريان لشبكة CNBC:” قلنا على نطاق واسع أننا نرحب بالتنظيم”. ″

نعتقد أن هذه التقنيات قوية بما يكفي، ويجب تنظيمها بطريقة مسؤولة، ونحن نعمل مع الحكومات في الاتحاد الأوروبي والمملكة المتحدة والعديد من البلدان الأخرى لضمان اعتمادها بالطريقة الصحيحة.”

في مكان آخر من الاندفاع العالمي لتنظيم الذكاء الاصطناعي، قدمت المملكة المتحدة إطارًا لمبادئ الذكاء الاصطناعي للجهات التنظيمية لفرض نفسها بدلاً من كتابة لوائحها الرسمية في القانون. 

في الولايات المتحدة، اقترحت إدارة الرئيس جو بايدن والعديد من الوكالات الحكومية الأمريكية أيضًا أطرًا لتنظيم الذكاء الاصطناعي.

ومع ذلك، فإن المشكلة الرئيسية بين المطلعين على صناعة التكنولوجيا هي أن المنظمين ليسوا الأسرع تحركًا عندما يتعلق الأمر بالاستجابة للتقنيات الجديدة المبتكرة. 

هذا هو السبب في أن العديد من الشركات تبتكر مناهجها الخاصة لإدخال حواجز حماية حول الذكاء الاصطناعي، بدلاً من انتظار صدور القوانين المناسبة.

المصدر: cnbc

شاهد ايضا:

سيو

إنشاء موقع ويب

ترجمة عربي سويدي

الربح من الانترنت

افضل استضافة مشتركة

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي