كيف يستخدم Spotify ML لإنشاء مستقبل التخصيص

التعلم الآلي هو الدافع وراء التخصيص على Spotify. قد يكون لدينا نظام أساسي واحد به 381 مليون مستخدم مختلف، ولكن قد يكون أكثر دقة أن نقول إن هناك 381 مليون إصدار فردي من Spotify ، كل منها مليء بصفحات رئيسية وقوائم تشغيل وتوصيات مختلفة.

 ولكن مع وجود مكتبة تضم أكثر من 70 مليون مسار، كيف يمكن لنماذج ML الخاصة بنا اتخاذ هذه القرارات؟

حسنًا، ألقى Oskar Stål نائب الرئيس للتخصيص في Spotify حديثًا حديثًا في TransformX ، وهي قمة للقادة في ML وAI ، لمناقشة ذلك بالضبط.

 تابع القراءة للحصول على لمحة عن كيفية مساعدة التعلم المعزز والتعلم الآلي في إبلاغ توصيات الموسيقى والبودكاست الخاصة بنا، ولا تنس الاطلاع على عرض أوسكار هنا (أو أدناه!) لتسمع المزيد عن مستقبل ML في Spotify.

كيف نستخدم ML؟ 

كل شيء يبدأ بالبيانات. على المستوى الأساسي، يتم إدخال جميع أنواع معلومات المستخدم – قوائم التشغيل وسجل الاستماع والتفاعلات مع واجهة مستخدم Spotify وما إلى ذلك – في نماذج ML الخاصة بنا، مع الحفاظ على الثقة والمسؤولية في المقدمة. 

كل يوم، تتم معالجة ما يقرب من نصف تريليون حدث، وكلما جمعت عارضاتنا المزيد من المعلومات، أصبحوا أكثر ذكاءً في تكوين روابط بين مختلف الفنانين والأغاني والبودكاست وقوائم التشغيل.

لكن نماذج التعلم الآلي لدينا تتجاوز هذا الأمر، حيث تضم عوامل أخرى في عمليات صنع القرار الخاصة بهم. 

اي وقت من اليوم هو؟ هل قائمة التشغيل هذه للتمرين أو الاسترخاء؟ هل أنت على الهاتف المحمول أو سطح المكتب؟ من خلال دمج العديد من نماذج ML هذه في جميع أنحاء البنية التحتية لـ Spotify ، يمكننا تقديم توصيات متخصصة وذكية بشكل متزايد يمكنها، كما يقول أوسكار، “خدمة حتى أضيق الأذواق”.

نحن لا نبحث فقط عن إرضاء مستخدمينا الفوري، على الرغم من ذلك. 

نريد تزويد المستمعين بتجارب صوتية رائعة مدى الحياة وأن نكون معهم في كل خطوة من تلك الرحلة. وهذا يقودنا إلى ما نعمل عليه الآن.

المستقبل هو التعلم المعزز

التعلم المعزز، أو RL، هو نوع من نماذج التعلم الآلي الذي يستجيب لبيئته الحالية في محاولة لتعظيم المكافأة النهائية طويلة الأجل، مهما كان ذلك.

 في حالتنا، هذه المكافأة هي رضا مستخدمينا على المدى الطويل عن Spotify. 

لا تتعلق RL بالحلول قصيرة المدى. إنها تلعب دائمًا اللعبة الطويلة.

بشكل عام، يحاول نموذج RL الخاص بنا التنبؤ بمدى رضا المستخدمين عن تجربتهم الحالية، ويحاول حثهم على استهلاك محتوى أكثر إشباعًا في نظامهم الغذائي الصوتي لجعلهم أكثر سعادة بالخدمة.

 بعبارة أخرى، بدلاً من منح المستخدمين “السعرات الحرارية الفارغة” لنظام غذائي المحتوى الذي يرضيهم فقط في الوقت الحالي، تهدف RL إلى دفعهم إلى نظام غذائي أكثر استدامة وتنوعًا ومرضيًا يستمر مدى الحياة. 

قد يعني هذا تشغيل مسار رقص جديد نعتقد أنه قد يتناسب مع الحالة المزاجية الحالية للمستخدم، أو قد يعني اقتراح قطعة هادئة ومحيطية لمساعدتهم على الدراسة. 

إن توقع ما يريده المستخدم بعد 10 دقائق من الآن، ويوم واحد من الآن، وأسبوع من الآن، يعني إنشاء عدد كبير من عمليات المحاكاة وتشغيل نموذج RL مقابل تلك المحاكاة لجعلها أكثر ذكاءً، مثل الكمبيوتر الذي يلعب ضد نفسه في لعبة الشطرنج للحصول على أفضل في اللعبة.

مع ML وRL، نحاول إنشاء تجربة صوتية أكثر شمولية، تركز على التوصيات التي تضمن الرضا والتمتع على المدى الطويل.

 نهجنا في التخصيص لا يفيد المستمعين فقط: توصيات أفضل وأكثر إرضاء تساعد الفنانين، وتعريض أعمالهم لجمهور أكبر من المرجح أن يستمتع به. بعد كل شيء، هناك سبب لوجود 16 مليار اكتشاف فنان كل شهر على منصتنا. والأفضل لم يأت بعد.

المصدر: engineering

قد يهمك:

قالب ووردبريس adforest

قالب ووردبريس Digital Agency

ترجمة عربي سويدي

أفضل شركات إنشاء مواقع الويب

إنشاء حساب انستقرام جديد

أفضل 10 محركات بحث

ترجمة عربي هولندي

شراء قالب جنة

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي