في يوم الثلاثاء، أصدرت OpenAI أدوات جديدة مصممة لمساعدة المطورين والشركات على بناء وكلاء الذكاء الاصطناعي – أنظمة آلية يمكنها إنجاز المهام بشكل مستقل – باستخدام نماذج الذكاء الاصطناعي وإطارات العمل الخاصة بالشركة.
تعتبر الأدوات جزءًا من واجهة برمجة التطبيقات الجديدة للردود من OpenAI، والتي تتيح للشركات تطوير وكلاء ذكاء اصطناعي مخصصين يمكنهم إجراء عمليات بحث على الويب، ومسح ملفات الشركة، والتنقل عبر المواقع الإلكترونية، تمامًا مثل منتج مشغل OpenAI.
تحل واجهة برمجة التطبيقات للردود بشكل فعال محل واجهة برمجة التطبيقات للمساعدين من OpenAI، والتي تخطط الشركة لإيقافها في النصف الأول من عام 2026.
لقد زاد الضجيج حول وكلاء الذكاء الاصطناعي بشكل كبير في السنوات الأخيرة على الرغم من أن صناعة التكنولوجيا كافحت لإظهار للناس، أو حتى تعريف، ما هي “وكلاء الذكاء الاصطناعي” حقًا.
في أحدث مثال على الضجيج حول الوكلاء الذي يتجاوز الفائدة، أصبحت شركة Butterfly Effect الصينية الناشئة في وقت سابق من هذا الأسبوع فيروسية من أجل منصة جديدة لوكلاء الذكاء الاصطناعي تُدعى Manus التي اكتشف المستخدمون بسرعة أنها لم تحقق العديد من وعود الشركة.
بعبارة أخرى، المخاطر عالية بالنسبة لأوبن أيه آي للحصول على الوكلاء بشكل صحيح.
“من السهل جدًا عرض وكيلك”، قال أوليفييه جودمان، رئيس منتج واجهة برمجة التطبيقات في OpenAI، لموقع TechCrunch في مقابلة. “توسيع نطاق وكيل أمر صعب جدًا، وجعل الناس يستخدمونه بشكل متكرر أمر صعب جدًا.”
في وقت سابق من هذا العام، قدمت OpenAI وكيلين من الذكاء الاصطناعي في ChatGPT: المشغل، الذي يتصفح المواقع نيابة عنك، والبحث العميق، الذي يجمع تقارير البحث لك. قدمت كلا الأداتين لمحة عما يمكن أن تحققه التكنولوجيا الوكيلة، لكنها تركت الكثير مما يمكن تحسينه في قسم “الاستقلالية”.
الآن مع واجهة برمجة التطبيقات للردود، تريد OpenAI بيع الوصول إلى المكونات التي تدعم وكلاء الذكاء الاصطناعي، مما يسمح للمطورين ببناء تطبيقات وكيل خاصة بهم على غرار المشغل والبحث العميق.
تأمل OpenAI أن يتمكن المطورون من إنشاء بعض التطبيقات باستخدام تقنية الوكيل الخاصة بها التي تشعر بأنها أكثر استقلالية مما هو متاح اليوم.
باستخدام واجهة برمجة التطبيقات للردود، يمكن للمطورين الاستفادة من نفس نماذج الذكاء الاصطناعي (في المعاينة) تحت غطاء أداة البحث على الويب ChatGPT Search من OpenAI: بحث GPT-4o وبحث GPT-4o المصغر.
يمكن للنماذج تصفح الويب للعثور على إجابات للأسئلة، مع الاستشهاد بالمصادر أثناء توليد الردود.
تدعي OpenAI أن GPT-4o search و GPT-4o mini search دقيقان للغاية من الناحية الواقعية.
في معيار SimpleQA الخاص بالشركة، الذي يقيس قدرة النماذج على الإجابة على الأسئلة القصيرة التي تبحث عن الحقائق، سجل GPT-4o search 90% بينما سجل GPT-4o mini search 88% (كلما كان الرقم أعلى كان أفضل).
للمقارنة، GPT-4.5 — النموذج الأكبر بكثير الذي أطلقته OpenAI مؤخرًا — سجل فقط 63%.
تتضمن واجهة برمجة التطبيقات للردود أيضًا أداة بحث عن الملفات يمكنها مسح الملفات في قواعد بيانات الشركة بسرعة لاسترجاع المعلومات. (تدعي OpenAI أنها لن تدرب النماذج على هذه الملفات).
بالإضافة إلى ذلك، يمكن للمطورين الذين يستخدمون واجهة برمجة التطبيقات للردود الاستفادة من نموذج وكيل استخدام الكمبيوتر (CUA) من OpenAI، الذي يدعم المشغل.
يقوم النموذج بإنشاء إجراءات الماوس ولوحة المفاتيح، مما يسمح للمطورين بأتمتة مهام استخدام الكمبيوتر مثل إدخال البيانات وتدفقات العمل للتطبيقات.
يمكن للمؤسسات تشغيل نموذج CUA اختياريًا، والذي يتم إصداره في معاينة البحث، محليًا على أنظمتها الخاصة، حسبما قالت OpenAI. النسخة الاستهلاكية من CUA المتاحة في Operator يمكنها فقط اتخاذ إجراءات على الويب.
لتكون واضحًا، فإن واجهة برمجة التطبيقات للردود لن تحل جميع المشكلات التقنية التي تعاني منها وكلاء الذكاء الاصطناعي اليوم.
بينما تعتبر أدوات البحث المدعومة بالذكاء الاصطناعي أكثر دقة من نماذج الذكاء الاصطناعي التقليدية – وهي حقيقة ليست مفاجئة نظرًا لأنها يمكن أن تبحث فقط عن الإجابة الصحيحة – فإن البحث على الويب لا يجعل هلوسات الذكاء الاصطناعي مشكلة محلولة.
لا يزال بحث GPT-4o يخطئ في 10% من الأسئلة الواقعية. بخلاف دقتها، تميل أدوات البحث بالذكاء الاصطناعي أيضًا إلى المعاناة مع الاستفسارات القصيرة والتنقلية (مثل “نتيجة ليكرز اليوم”)، وتقارير حديثة تشير إلى أن استشهادات ChatGPT ليست دائمًا موثوقة.
في منشور مدونة قدمته TechCrunch، قالت OpenAI إن نموذج CUA “ليس موثوقًا للغاية بعد لأتمتة المهام على أنظمة التشغيل”، وأنه عرضة لارتكاب أخطاء “غير مقصودة”.
ومع ذلك، قالت OpenAI إن هذه هي النسخ الأولية من أدوات الوكلاء الخاصة بهم، وأنهم يعملون باستمرار على تحسينها.
بالإضافة إلى واجهة برمجة التطبيقات للردود، تطلق OpenAI مجموعة أدوات مفتوحة المصدر تُدعى Agents SDK، والتي تقدم للمطورين أدوات مجانية لدمج النماذج مع أنظمتهم الداخلية، ووضع تدابير الأمان، ومراقبة أنشطة وكلاء الذكاء الاصطناعي لأغراض تصحيح الأخطاء والتحسين.
تعتبر Agents SDK متابعة من نوع ما لـ Swarm من OpenAI، وهو إطار عمل لتنسيق الوكلاء المتعددين الذي أطلقته الشركة في أواخر العام الماضي.
قال جوديمونت إنه يأمل أن تتمكن OpenAI من سد الفجوة بين عروض وكلاء الذكاء الاصطناعي والمنتجات هذا العام، وأنه، في رأيه، “الوكلاء هم أكثر التطبيقات تأثيرًا للذكاء الاصطناعي التي ستحدث.”
وهذا يت echo إعلان الرئيس التنفيذي لشركة OpenAI سام ألتمان الذي أدلى به في يناير: أن عام 2025 هو العام الذي يدخل فيه وكلاء الذكاء الاصطناعي سوق العمل.
سواء أصبحت 2025 حقًا “عام وكيل الذكاء الاصطناعي” أم لا، فإن الإصدارات الأخيرة من OpenAI تظهر أن الشركة تريد الانتقال من العروض الترويجية اللامعة للوكلاء إلى أدوات مؤثرة.
المصدر: techcrunch