هل سيبشر الذكاء الاصطناعي التوليدي بعصر جديد لاكتشاف الاحتيال؟

يمكن استخدام البيانات التي تم إنشاؤها بواسطة الذكاء الاصطناعي التوليدي لزيادة وتحسين استراتيجيات الكشف عن الاحتيال، كما كتب أوليفر تيرل من شركة ai Corporation
تم استكشاف التطبيقات المحتملة للذكاء الاصطناعي التوليدي من قبل الكثيرين في الأسابيع الأخيرة، ومع ذلك، فإن أحد الموضوعات الرئيسية التي لم يتم استكشافها بالكامل هو كيف يمكن استخدام البيانات التي تم إنشاؤها بواسطة الذكاء الاصطناعي التوليدي لزيادة وتحسين استراتيجيات الكشف عن الاحتيال، والآثار المترتبة على استخدام الاصطناعية. البيانات لتدريب نماذج الاحتيال وتحسين معدلات الكشف.
من المعروف جيدًا في دوائر علوم البيانات أن جودة البيانات المقدمة إلى نموذج التعلم الآلي تجعل النتيجة النهائية أو تكسرها، وينطبق هذا بشكل خاص على اكتشاف الاحتيال. تعتمد العديد من أدوات التعلم الآلي المطبقة على اكتشاف الاحتيال على إشارة احتيال قوية – عادةً أقل من 0.5٪ من البيانات – مما يجعل من الصعب تدريب أي نموذج بشكل فعال. في تمرين علم البيانات المثالي، قد تحتوي البيانات المستخدمة لتدريب أي نموذج ذكاء اصطناعي على مزيج بنسبة 50/50 من عينات الاحتيال / عدم الاحتيال، ولكن هذا صعب التحقيق، وبالتالي قد يكون غير واقعي بالنسبة للكثيرين. في حين أن هناك العديد من الطرق للتعامل مع عدم التوازن (الفئة) هذا، مثل التجميع أو التصفية أو الإفراط في أخذ العينات، إلا أنها لا تعوض تمامًا عن عدم توازن البيانات الشديد بين السجلات الحقيقية والاحتيالية.
ما هو الذكاء الاصطناعي التوليدي وكيف يتم استخدامه؟
تم تصميم الذكاء الاصطناعي التوليدي، وهو تطبيق للشبكات العصبية العميقة للمحول مثل ChatGPT من OpenAI ، لإنتاج تسلسلات من البيانات كمخرجات ويجب تدريبه باستخدام البيانات المتسلسلة، مثل الجمل وتاريخ الدفع على سبيل المثال. هذا يختلف عن العديد من الأساليب الأخرى، والتي تنتج “تصنيفات” فردية (احتيال / ليس احتيال) بناءً على المدخلات المقدمة وبيانات التدريب، والتي يمكن تقديمها إلى النموذج بأي ترتيب؛ يمكن أن يستمر إنتاج AI التوليدي إلى أجل غير مسمى، بينما تميل طرق التصنيف إلى إنتاج مخرجات فردية.
وبالتالي، فإن الذكاء الاصطناعي التوليدي هو الأداة المثالية لتوليد البيانات الاصطناعية التي تستند إلى بيانات حقيقية، وسيكون لتطور هذه التكنولوجيا تطبيقات مهمة في مجال الكشف عن الاحتيال، حيث، كما أوضحنا سابقًا، يكون مقدار عينات الاحتيال القابلة للتطبيق منخفضًا للغاية يصعب على التعلم الآلي التعلم منه بشكل فعال. باستخدام الذكاء الاصطناعي التوليدي، يمكن للنموذج استخدام الأنماط الحالية وإنشاء عينات اصطناعية جديدة تشبه عينات الاحتيال “الحقيقية”، مما يعزز إشارة الاحتيال لأدوات التعلم الآلي الأساسية للكشف عن الاحتيال.
إشارة الاحتيال النموذجية هي مزيج من البيانات الحقيقية والاحتيالية. تأتي البيانات الأصلية (عادةً) أولاً في تسلسل الأحداث وتحتوي على نشاط سلوكي حقيقي لحامل البطاقة، على سبيل المثال، مع دفعات احتيالية مختلطة بمجرد اختراق البطاقة / طريقة الدفع الأخرى. يمكن للذكاء الاصطناعي التوليدي إنتاج تسلسلات دفع مماثلة، ومحاكاة هجوم احتيالي على بطاقة، والتي يمكن إضافتها بعد ذلك إلى بيانات التدريب لمساعدة أدوات التعلم الآلي للكشف عن الاحتيال ومساعدتها على الأداء بشكل أفضل.
كيف يمكن أن يساعد الذكاء الاصطناعي التوليدي في الكشف عن الاحتيال؟
أحد أكبر الانتقادات الموجهة إلى ChatGPT من OpenAI هو أن نماذج اليوم يمكن أن تنتج مخرجات غير دقيقة أو “مهلوسة” – وهو عيب كثير في مجال المدفوعات والاحتيال قلقون بشأنه، لأنهم لا يريدون أدواتهم العامة، مثل تقديم روبوتات المحادثة لخدمة العملاء. معلومات خاطئة أو مختلقة. ومع ذلك، يمكننا الاستفادة من هذا “الخلل” في إنشاء بيانات احتيال اصطناعي، حيث يمكن أن يؤدي الاختلاف التركيبي في المخرجات المركبة إلى إنشاء أنماط احتيال فريدة تمامًا، مما يعزز أداء اكتشاف الاحتيال لنموذج الدفاع عن الاحتيال النهائي.
كما يعلم الكثيرون، لا تؤدي الأمثلة المتكررة لإشارة الاحتيال نفسها إلى تحسين الاكتشاف بشكل فعال، حيث تتطلب معظم طرق التعلم الآلي حالات قليلة جدًا من كل منها للتعلم منها. يضيف الاختلاف في المخرجات الناتجة من النموذج التوليدي قوة إلى نموذج نهاية الاحتيال، مما يمكّنه ليس فقط من اكتشاف أنماط الاحتيال الموجودة في البيانات، ولكن أيضًا اكتشاف هجمات مماثلة يمكن تفويتها بسهولة باستخدام عملية تقليدية.
قد يكون هذا مزعجًا بعض الشيء لحاملي البطاقات ومديري الاحتيال – الذين يحق لهم التساؤل عن الكيفية التي يمكن أن يساعد بها نموذج الاحتيال المدرب على البيانات المفبركة في تحسين اكتشاف الاحتيال، وما هي فوائد القيام بذلك. ما قد لا يدركونه هو أنه قبل استخدام أي نموذج في المدفوعات الحية، فإنه يخضع لتدريبات تقييم صارمة لضمان الأداء المتوقع. إذا كان النموذج لا يفي بالمعايير العالية للغاية المتوقعة، يتم إهماله، ويتم تدريب البدائل حتى يتم العثور على نموذج مناسب. هذه عملية قياسية وتتبع مع جميع نماذج التعلم الآلي المنتجة، حتى النماذج المدربة على بيانات أصلية يمكن أن ينتهي بها الأمر بتقديم نتائج دون المستوى في مرحلة التقييم.
يُعد الذكاء الاصطناعي التوليدي أداة رائعة مع العديد من التطبيقات عبر مجموعة من الصناعات، لكن التكرارات الحالية، مهما كانت ذكية، لها مشكلاتها. لحسن الحظ، تعتبر السمات التي يُنظر إليها على أنها قضايا خطيرة للغاية بالنسبة لبعض الصناعات ميزة مهمة بالنسبة للآخرين، ولكن تظل متطلبات التنظيم والحوكمة الصارمة قائمة. يتطلب الاستخدام المستقبلي للذكاء الاصطناعي التوليدي مراجعة كاملة لكيفية استخدام النماذج التي يتم تدريبها على البيانات التي تم إنشاؤها جزئيًا، ويجب تشديد عمليات الحوكمة وفقًا لذلك لضمان تلبية السلوك والأداء المطلوبين للأدوات باستمرار.
المصدر: fintechmagazine
قد يهمك: