برمجيات إلكترونية جديدة “يمكنها اختبار حدود معرفة الذكاء الاصطناعي”

طور فريق من الباحثين برنامجًا جديدًا يزعمون أنه يمكنه تقييم المستوى الحقيقي للمعرفة التي تمتلكها أنظمة الذكاء الاصطناعي.
تم تصميم البرنامج للتحقق من دقة وعمق فهم نظام الذكاء الاصطناعي لموضوع معين، وهو أمر مهم لضمان أداء موثوق في مختلف الصناعات، من الرعاية الصحية إلى التمويل.
يقول الفريق إنه يمكنه أيضًا تحديد الثغرات في معرفة نظام الذكاء الاصطناعي واقتراح مجالات للتحسين.
يمكن أن يثبت البحث اختراقًا مهمًا في مجال طرق التحقق للبرامج الغنية بالذكاء الاصطناعي وصنع القرار، مما يجعل الذكاء الاصطناعي أكثر أمانًا.
كما قام الباحثون في الورقة التي نشرتها جامعة ساري بتعريف منطق “البرنامج المعرفي” ، والذي يسمح للبرامج بتحديد مستوى معرفتها.
يمكّن النظام البرامج من التفكير في الأشياء التي لن تكون صحيحة إلا بعد انتهاء تشغيلها والعمليات الأخرى.
يركز الابتكار على طرق جديدة للتحقق تلقائيًا من الخصائص المعرفية للبرامج التي تركز على الذكاء الاصطناعي، وتحليل البرامج الملموسة (عبر مجال تعسفي من الدرجة الأولى) بالإضافة إلى المتطلبات الأكثر ثراءً من ذي قبل.
البرنامج الذي طوره الفريق قادر على التحقق من مقدار المعلومات التي اكتسبها نظام الذكاء الاصطناعي من قاعدة البيانات الرقمية للمؤسسة. يمكنه أيضًا تحديد ما إذا كان نظام الذكاء الاصطناعي قادرًا على استغلال العيوب في كود البرنامج.
يعتبر البرنامج خطوة مهمة نحو ضمان النشر الآمن والمسؤول لنماذج الذكاء الاصطناعي التوليدية.
وقالت الدكتورة سولوفومبيونونا فورتونات راجاونا ، المؤلفة الرئيسية للورقة البحثية، إن القدرة على التحقق مما تعلمته منظمة العفو الدولية ستمنح المؤسسات الثقة لإطلاق العنان لقوة الذكاء الاصطناعي بأمان في إعدادات آمنة.
قال: “في العديد من التطبيقات، تتفاعل أنظمة الذكاء الاصطناعي مع بعضها البعض أو مع البشر، مثل السيارات ذاتية القيادة في الطرق السريعة أو روبوتات المستشفيات. إن معرفة ما يعرفه نظام بيانات الذكاء الاصطناعي هو مشكلة مستمرة استغرقنا سنوات لإيجاد حل عملي لها “.
يمكن استخدام البرنامج كجزء من بروتوكول الأمان عبر الإنترنت للشركة للتأكد من أن أنظمة الذكاء الاصطناعي لا تصل إلى البيانات الحساسة أو تستغل عيوب رموز البرامج.
أكد البروفيسور أدريان هيلتون، مدير معهد الذكاء الاصطناعي المرتكز على الناس في جامعة ساري، على أهمية إنشاء أدوات يمكنها التحقق من أداء الذكاء الاصطناعي التوليدي.
قال “هذا البحث هو خطوة مهمة نحو الحفاظ على خصوصية وسلامة مجموعات البيانات المستخدمة في التدريب”.
ناقشت الورقة أيضًا تحديات تقييم الخصائص التي تركز على المعرفة في صنع القرار القائم على الذكاء الاصطناعي. يجادل بأن منطق المعرفة أو المنطق المعرفي قد تم استكشافه جيدًا في علوم الكمبيوتر منذ Hintikka.
كان Jaakko Hintikka فيلسوفًا ومنطقًا فنلنديًا معروفًا بعمله على المنطق النموذجي ودلالات نظرية اللعبة. قدم مفهوم العوالم الممكنة إلى المنطق النمطي وكان أول من استخدم دلالات نظرية اللعبة لتحليل المنطق النمطي.
ابتكر الباحثون طرقًا جديدة لتحليل كيفية تفكير برامج الكمبيوتر والعقلانية. تساعد هذه الأساليب البرامج على فهم الحقائق ليس فقط بعد قيامهم بعمل ما، ولكن أيضًا قبل القيام به.
يدعو قادة التكنولوجيا إلى بروتوكول تطوير وسلامة يقاس بالذكاء الاصطناعي
دعت مارثا لين فوكس، رائدة التكنولوجيا البريطانية، إلى مناقشة أكثر عقلانية حول تأثير الذكاء الاصطناعي وحذرت من المبالغة فيه.
مع الاعتراف بأن الأطر المتعلقة بالذكاء الاصطناعي ضرورية، فإنها تدعو إلى اتباع نهج أكثر قياسًا من الشركات في تطوير تكنولوجيا الذكاء الاصطناعي.
تعتقد السيدة لين فوكس أن الذكاء الاصطناعي يوفر فرصًا للمجتمع والشركات، لكنها تؤكد أنه يجب رقمنتها بطريقة أخلاقية ومستدامة.
انضم Elon Musk ، مؤسس Tesla والرئيس التنفيذي لشركة Twitter ، إلى قادة التكنولوجيا في توقيع خطاب مفتوح يحث مختبرات الذكاء الاصطناعي على إيقاف تطوير أنظمة الذكاء الاصطناعي القوية مؤقتًا لمدة ستة أشهر على الأقل.
أعربت الرسالة عن القلق من أن تكنولوجيا الذكاء الاصطناعي ذات الذكاء التنافسي على المستوى البشري يمكن أن تشكل مخاطر كبيرة على المجتمع.
تقترح الرسالة أن تعمل مختبرات الذكاء الاصطناعي على تطوير بروتوكولات السلامة التي تشرف عليها لجنة مستقلة قبل تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4.
يقترح الخطاب أيضًا الحاجة إلى جهات تنظيمية جديدة، ورقابة، وتمويل عام لأبحاث سلامة الذكاء الاصطناعي، والمسؤولية عن الضرر الناجم عن الذكاء الاصطناعي.
المصدر: thenationalnews
اقرا ايضا: