مع نمو المهارات اللغوية للذكاء الاصطناعي تزداد مخاوف العلماء أيضًا

يمكن أن تكون أحدث بنيات الذكاء الاصطناعي في صناعة التكنولوجيا مقنعة جدًا إذا سألتهم عن شعور أن يكون المرء حاسوبًا واعيًا، أو ربما مجرد ديناصور أو سنجاب. لكنهم ليسوا جيدين – وأحيانًا سيئون بشكل خطير – في التعامل مع مهام أخرى تبدو مباشرة.
خذ، على سبيل المثال، GPT-3، وهو نظام تتحكم فيه Microsoft يمكنه إنشاء فقرات من نص يشبه الإنسان بناءً على ما تم تعلمه من قاعدة بيانات ضخمة من الكتب الرقمية والكتابات عبر الإنترنت. تعتبر واحدة من أكثر خوارزميات الذكاء الاصطناعي تقدمًا والتي يمكنها التحدث وإنشاء نص مقروء عند الطلب وحتى إنتاج صور ومقاطع فيديو جديدة.
من بين أشياء أخرى، يمكن لـ GPT-3 كتابة معظم أي نص تطلبه – خطاب تغطية لوظيفة zookeeping ، على سبيل المثال، أو قصيدة على طراز شكسبير على المريخ. ولكن عندما سألها الأستاذ في كلية بومونا، جاري سميث، سؤالًا بسيطًا ولكن لا معنى له حول المشي في الطابق العلوي، قام GPT-3 بكتمه.Close Player
أجاب الذكاء الاصطناعي: “نعم ، من الآمن أن تمشي على يديك بالطابق العلوي إذا قمت بغسلهما أولاً”.
أنظمة الذكاء الاصطناعي القوية والقوية هذه، والمعروفة تقنيًا باسم “نماذج اللغة الكبيرة” لأنها تم تدريبها على مجموعة ضخمة من النصوص والوسائط الأخرى، يتم دمجها بالفعل في روبوتات الدردشة لخدمة العملاء وعمليات البحث على Google و “الإكمال التلقائي” ميزات البريد الإلكتروني التي تنهي جملك نيابة عنك. لكن معظم شركات التكنولوجيا التي قامت ببنائها كانت سرية بشأن أعمالها الداخلية، مما يجعل من الصعب على الغرباء فهم العيوب التي يمكن أن تجعلها مصدرًا للمعلومات المضللة والعنصرية والأضرار الأخرى.
قال تيفن لو سكاو ، مهندس باحث في شركة Hugging Face الناشئة للذكاء الاصطناعي: “إنهم جيدون جدًا في كتابة النصوص بإتقان البشر”. “الشيء الذي لا يجيدونه هو أن يكونوا واقعيين. تبدو متماسكة للغاية. يكاد يكون صحيحًا. لكنها غالبًا ما تكون خاطئة “.
وهذا أحد أسباب قيام تحالف من باحثي الذكاء الاصطناعي بقيادة مشتركة Le Scao – بمساعدة من الحكومة الفرنسية – بإطلاق نموذج لغوي كبير جديد يوم الثلاثاء من المفترض أن يكون بمثابة ترياق للأنظمة المغلقة مثل GPT-3. تسمى المجموعة BigScience ونموذجها هو BLOOM، من أجل BigScience Large Open-science Open-access Multilingual Language Model. يتمثل إنجازها الرئيسي في أنها تعمل عبر 46 لغة، بما في ذلك العربية والإسبانية والفرنسية – على عكس معظم الأنظمة التي تركز على اللغة الإنجليزية أو الصينية.
لا تهدف مجموعة Le Scao فقط إلى فتح الصندوق الأسود لنماذج لغة الذكاء الاصطناعي. كما تدعو شركة Meta التابعة لشركة Big Tech ، الشركة الأم لفيسبوك وإنستغرام ، إلى اتباع نهج أكثر انفتاحًا حيث تحاول اللحاق بالأنظمة التي أنشأتها Google و OpenAI ، الشركة التي تدير GPT-3.
قالت جويل بينو، المديرة الإدارية: “لقد رأينا إعلانًا تلو إعلانًا بعد إعلان عن قيام أشخاص بهذا النوع من العمل، ولكن بشفافية قليلة جدًا، وقدرة قليلة جدًا على الأشخاص للنظر حقًا تحت غطاء محرك السيارة وإلقاء نظرة خاطفة على كيفية عمل هذه النماذج”. من Meta AI.
قال بيرسي ليانغ، أستاذ مشارك في علوم الكمبيوتر، إن الضغط التنافسي لبناء النظام الأكثر بلاغة أو إفادة – والاستفادة من تطبيقاته – هو أحد الأسباب التي تجعل معظم شركات التكنولوجيا تحافظ على ضوابطها ولا تتعاون في معايير المجتمع. في ستانفورد الذي يدير مركز أبحاث النماذج الأساسية.
قال ليانغ: “هذه هي الصلصة السرية لبعض الشركات”. لكنهم غالبًا ما يكونون قلقين أيضًا من أن فقدان السيطرة قد يؤدي إلى استخدامات غير مسؤولة. نظرًا لأن أنظمة الذكاء الاصطناعي أصبحت قادرة بشكل متزايد على كتابة مواقع المشورة الصحية ، أو أوراق الفصل الدراسي الثانوية ، أو النصوص السياسية ، يمكن أن تتكاثر المعلومات المضللة وسيزداد صعوبة معرفة ما يأتي من الإنسان أو الكمبيوتر.
أطلقت Meta مؤخرًا نموذجًا لغويًا جديدًا يسمى OPT-175B يستخدم البيانات المتاحة للجمهور – من التعليقات الساخنة على منتديات Reddit إلى أرشيف سجلات براءات الاختراع الأمريكية ومجموعة من رسائل البريد الإلكتروني من فضيحة شركة Enron. تقول Meta إن انفتاحها بشأن البيانات والرموز وسجلات الأبحاث يجعل من السهل على الباحثين الخارجيين المساعدة في تحديد وتخفيف التحيز والسمية التي تلتقطها من خلال استيعاب كيفية كتابة الأشخاص الحقيقيين والتواصل معهم.
“من الصعب القيام بذلك. نحن نفتح أنفسنا لانتقادات ضخمة. نحن نعلم أن النموذج سيقول أشياء لن نفخر بها ، “قال بينيو.
في حين أن معظم الشركات قد وضعت إجراءات وقائية داخلية خاصة بها للذكاء الاصطناعي ، قال ليانج إن المطلوب هو معايير مجتمعية أوسع لتوجيه الأبحاث والقرارات ، مثل موعد إطلاق نموذج جديد في البرية.
لا يساعد في أن هذه النماذج تتطلب قدرًا كبيرًا من القوة الحاسوبية بحيث لا يمكن إلا للشركات العملاقة والحكومات تحمل تكاليفها. BigScience ، على سبيل المثال ، كانت قادرة على تدريب نماذجها لأنها عُرضت عليها الوصول إلى الحاسوب العملاق الفرنسي Jean Zay بالقرب من باريس.
قفز الاتجاه نحو نماذج لغة الذكاء الاصطناعي الأكبر والأكثر ذكاءً والتي يمكن “تدريبها مسبقًا” على مجموعة واسعة من الكتابات قفزة كبيرة في عام 2018 عندما قدمت Google نظامًا يعرف باسم BERT يستخدم ما يسمى بـ “المحول” تقنية تقارن الكلمات عبر الجملة للتنبؤ بالمعنى والسياق. ولكن ما أثار إعجاب عالم الذكاء الاصطناعي حقًا هو GPT-3 ، الذي أصدرته شركة OpenAI الناشئة في سان فرانسيسكو في عام 2020 وبعد فترة وجيزة حصلت على ترخيص حصري من Microsoft.
أدت GPT-3 إلى طفرة في التجارب الإبداعية حيث استخدمها باحثو الذكاء الاصطناعي ذوو الوصول المدفوع كصندوق رمل لقياس أدائها – على الرغم من عدم وجود معلومات مهمة حول البيانات التي تم تدريبها عليها.
لقد وصفت OpenAI على نطاق واسع مصادرها التدريبية في ورقة بحثية، كما أفادت علنًا عن جهودها للتصدي للانتهاكات المحتملة للتكنولوجيا. لكن توماس وولف، القائد المشارك في BigScience ، قال إنه لا يقدم تفاصيل حول كيفية تصفية تلك البيانات أو منح إمكانية الوصول إلى النسخة المعالجة للباحثين الخارجيين.
قال وولف، وهو أيضًا كبير مسؤولي العلوم في Hugging Face: “لذلك، لا يمكننا في الواقع فحص البيانات التي تم إدخالها في تدريب GPT-3”. “جوهر هذه الموجة الأخيرة من تقنية الذكاء الاصطناعي موجود في مجموعة البيانات أكثر من النماذج. العنصر الأكثر أهمية هو البيانات و OpenAI سرية للغاية بشأن البيانات التي يستخدمونها “.
قال وولف إن فتح مجموعات البيانات المستخدمة في النماذج اللغوية يساعد البشر على فهم تحيزاتهم بشكل أفضل. وقال إن النموذج متعدد اللغات الذي يتم تدريبه باللغة العربية أقل احتمالا بكثير للتعبير عن ملاحظات مسيئة أو سوء فهم حول الإسلام من نموذج تم تدريبه فقط على نص باللغة الإنجليزية في الولايات المتحدة.
أحد أحدث النماذج التجريبية للذكاء الاصطناعي على الساحة هو LaMDA من Google ، والذي يتضمن أيضًا الكلام وهو مثير للإعجاب في الرد على أسئلة المحادثة لدرجة أن أحد مهندسي Google جادل بأنه كان يقترب من الوعي – وهو ادعاء أوقفه عن وظيفته الشهر الماضي.
أمضت الباحثة جانيل شين، ومقرها كولورادو، ومؤلفة مدونة AI Weirdness ، السنوات القليلة الماضية في اختبار هذه النماذج بشكل إبداعي، وخاصة GPT-3 – غالبًا لتأثير روح الدعابة. ولكن للإشارة إلى عبثية التفكير في أن هذه الأنظمة مدركة لذاتها، فقد أصدرت تعليماتها مؤخرًا بأن تكون ذكاءً إصطناعيًا متقدمًا، لكنها في السر هي Tyrannosaurus rex أو سنجاب.
“إنه لأمر مثير للغاية أن تكون سنجابًا. يمكنني الركض والقفز واللعب طوال اليوم. قال GPT-3، بعد أن طلب منه شين نسخة من مقابلة وطرح بعض الأسئلة.
لقد تعلم شين المزيد عن نقاط قوتها، مثل سهولة تلخيص ما قيل حول الإنترنت حول موضوع ما، ونقاط ضعفه، بما في ذلك افتقارها إلى مهارات التفكير، وصعوبة التمسك بفكرة عبر جمل متعددة، والميل إلى الوجود. جارح.
قالت: “لا أريد نموذجًا نصيًا يوزع النصيحة الطبية أو يتصرف كرفيق”. “إنه لأمر جيد في ذلك المظهر السطحي للمعنى إذا لم تكن تقرأ عن كثب. إنها مثل الاستماع إلى محاضرة وأنت تغفو “.
المصدر: khaleejtimes
شاهد ايضا: