10 طرق يمكن أن يعزز بها ChatGPT والذكاء الاصطناعي التوليفي عدم الثقة

يجب أن تبدأ إمكانات ChatGPT في تحسين الأمن السيبراني وانعدام الثقة بهدف التعلم من كل محاولة خرق – وأن تصبح أقوى منها.

 يمكن للذكاء الاصطناعي التوليدي تقديم أكبر قيمة في أقصر وقت عندما ننظر إليه كمحرك تعلم مستمر يجد الارتباطات والعلاقات والعوامل السببية في بيانات التهديد – وهذا لا ينسى أبدًا. 

يمكن استخدام ChatGPT والذكاء الاصطناعي التوليفي لإنشاء “ذاكرة عضلية” أو رد فعل فوري في فرق الأمن السيبراني لوقف الانتهاكات. 

ما يسمعه الرؤساء التنفيذيون للأمن السيبراني من عملائهم 

قال الرؤساء التنفيذيون لموفري الأمن السيبراني الذين تمت مقابلتهم في RSAC 2023 الأسبوع الماضي لـ VentureBeat أن عملاء المؤسسات لديهم يدركون قيمة ChatGPT لتحسين الأمن السيبراني، لكنهم أعربوا أيضًا عن قلقهم بشأن مخاطر تعرض البيانات السرية والملكية الفكرية (IP) للخطر.

 أصدر تحالف Cloud Security Alliance أول ورقة توجيهية من ChatGPT خلال المؤتمر داعياً الصناعة إلى تحسين التعاون في خارطة طريق الذكاء الاصطناعي.

قالت كوني ستاك، الرئيس التنفيذي لشركة NextDLP ، لـ VentureBeat أن شركتها أجرت استطلاعًا حول استخدام ChatGPT من قبل عملاء Next ووجدت أن 97٪ من المؤسسات الكبيرة قد شاهدت موظفيها يستخدمون الأداة.

 تمكنت واحدة من كل 10 نقاط نهاية عبر منصة Reveal الخاصة بـ Next’s من الوصول إلى ChatGPT. 

في مقابلة في RSAC 2023، أخبر Stack VentureBeat أن “هذا المستوى من استخدام ChatGPT يمثل نقطة قلق لبعض عملائنا أثناء تقييمهم لهذا المتجه الجديد لفقدان البيانات.

قام بعض عملاء Next بحظر استخدامه تمامًا، بما في ذلك شركة رعاية صحية لا يمكن أن تتسامح مع أي مستوى من المخاطر المتعلقة بالإفصاح عن الملكية الفكرية والأسرار التجارية لنموذج لغة كبير يتعامل مع الجمهور. 

البعض الآخر منفتح على الفوائد المحتملة، ويمضي بحذر في استخدامه لدعم أشياء مثل فقدان البيانات المحسّن “البحث عن التهديدات” ودعم إنشاء المحتوى المرتبط بالأمان “.

بناء ذاكرة عضلية جديدة للأمن السيبراني 

تُعد إمكانية الذكاء الاصطناعي التوليدي لزيادة فعالية التعلم لمحللي التهديدات وصيادي التهديدات ذوي الخبرة وموظفي مركز العمليات الأمنية (SOC) دافعًا مقنعًا لموفري الأمن السيبراني لاعتماد أدوات مثل ChatGPT. 

يجب أن يكون التعلم المستمر متأصلًا في دفاعات الشركات ضد التهديدات بحيث يمكنها الرد من خلال رد الفعل، والاعتماد على “ذاكرة العضلات” للتكيف والرد والقضاء على محاولة الاختراق قبل أن تبدأ.  

في مقابلة حديثة، قال مايكل سنتون، رئيس CrowdStrike ، لـ VentureBeat: “إن المفهوم الأساسي لما يجب أن يفعله CrowdStrike هو تصور أي هجوم يستخدمه الخصم بشكل فعال بغض النظر عن ماهية هذه التقنية. 

يتمثل مفهوم الحشد في CrowdStrike في التأكد من أنه إذا هاجمني شخص ما، فإن هذه التقنية ستكون إلى الأبد جزءًا من بحثنا. لذلك إذا حاولوا استخدام نفس الهجوم عليك، فقد رأينا ذلك، لقد فعلناه “.

وتابع: “تسمح لك ChatGPT وتلك الأنواع من LLMs بالذهاب،” مرحبًا، أرني ما الذي يهاجمه الأعداء للرعاية الصحية.

 أرني ما يهاجم الأعداء المستشفيات. أرني التقنيات التي يستخدمونها. هل سبق أن تم استخدام هذه التقنيات في شبكتي؟ أعطني قائمة بالآلات التي استخدمت فيها تلك التقنيات.

 وبعد ذلك يمكنك الاستمرار في هذه العملية. ليس عليك أن تكون خبيرًا، ولكن استخدام هذه التكنولوجيا يمكن أن يخفض حاجز الدخول لتصبح صائدًا لائقًا للتهديدات، وإيجابيًا “.

كان الموضوع الأكثر مناقشة RSAC 2023 هو منتجات وتكامل ChatGPT المعلن عنه حديثًا.

من بين البائعين العشرين الذين أعلنوا عن منتجات جديدة وتكامل، أكثرهم جديرًا بالملاحظة هم Airgap Networks و  Google Security AI Workbench و Microsoft Security Copilot (تم إطلاقه قبل العرض) و Recorded Future و SecurityScorecard و SentinelOne .

تم تدريب أكثر الأشخاص موثوقية في قاعة العرض سابقًا على مجموعات بيانات واسعة النطاق. أظهرت دقتها سبب أهمية تدريب نموذج بالبيانات الصحيحة.

جدير بالملاحظة جدار حماية Airgap’s Zero Trust Firewall (ZTFW) مع ThreatGPT. 

لقد تم تصميمه لاستكمال البنى التحتية الحالية لجدار الحماية المحيط عن طريق إضافة طبقة مخصصة من التجزئة الدقيقة والوصول في قلب الشبكة.

 قال ريتيش أغراوال، الرئيس التنفيذي لشركة Airgap: “من خلال اكتشاف الأصول بدقة عالية، والتجزئة الدقيقة بدون وكيل، والوصول الآمن، تقدم Airgap ثروة من الذكاء لمكافحة التهديدات المتطورة”. 

“ما يحتاجه العملاء الآن هو طريقة سهلة لتسخير هذه القوة دون أي برمجة. وهذا هو جمال ThreatGPT – ذكاء استخراج البيانات الهائل للذكاء الاصطناعي إلى جانب واجهة لغة طبيعية سهلة. إنها لعبة تغيير لفرق الأمن “.

تعتبر Airgap واحدة من أكثر فرق تطوير المنتجات والهندسة ابتكارًا من بين أفضل 20 شركة ناشئة بدون ثقة. 

يستخدم ThreatGPT من Airgap مجموعة من قواعد بيانات الرسم البياني ونماذج GPT-3 لتقديم رؤى غير متوفرة في السابق حول الأمن السيبراني.

 قامت الشركة بتكوين نماذج GPT-3 لتحليل استعلامات اللغة الطبيعية وتحديد التهديدات الأمنية المحتملة، بينما تم دمج قواعد بيانات الرسم البياني لتوفير معلومات سياقية حول علاقات حركة المرور بين نقاط النهاية.

كيف سيعزز ChatGPT عدم الثقة 

تتمثل إحدى الطرق التي يمكن بها للذكاء الاصطناعي التوليدي في تعزيز الثقة الصفرية عن طريق تحديد وتعزيز أسطح التهديدات الأكثر ضعفًا في الأعمال التجارية.

 نصح John Kindervag، مبتكر انعدام الثقة، في مقابلة مع VentureBeat في وقت سابق من هذا العام بأن “تبدأ بسطح محمي”، وتحدث عن أنه أطلق عليه ” منحنى التعلم بدون ثقة.

 أنت لا تبدأ في التكنولوجيا، وهذا هو سوء الفهم “. 

فيما يلي طرق محتملة يمكن للذكاء الاصطناعي التوليدي أن يعزز المجالات الأساسية لعدم الثقة كما هو محدد في معيار NIST 800-207:

التوحيد والتعلم من تحليل التهديدات والاستجابة للحوادث على مستوى المؤسسة

يخبر CISOs VentureBeat أنهم يريدون دمج مجموعات التكنولوجيا الخاصة بهم لأن هناك الكثير من الأنظمة المتضاربة لتحليل التهديدات، والاستجابة للحوادث وأنظمة التنبيه، ومحللو SOC ليسوا متأكدين مما هو الأكثر إلحاحًا.

 لقد أثبت الذكاء الاصطناعي التوليدي وChatGPT بالفعل أنهما أدوات قوية لدمج التطبيقات. سيقومون أخيرًا بإعطاء CISOs وجهة نظر واحدة لتحليل التهديدات والاستجابة للحوادث عبر البنية التحتية الخاصة بهم.

تحديد محاولات الخرق الداخلية والخارجية القائمة على الهوية بشكل أسرع مع المراقبة المستمرة

في وسط انعدام الثقة توجد الهويات. يتمتع الذكاء الاصطناعي التوليدي بالقدرة على التحديد السريع لما إذا كان نشاط هوية معينة يتوافق مع تاريخها السابق.

يخبر CISOs VentureBeat أن الخرق الأكثر صعوبة الذي يجب إيقافه هو الخرق الذي يبدأ من الداخل بهويات وبيانات اعتماد شرعية.

تتمثل إحدى نقاط القوة الأساسية في LLM في القدرة على اكتشاف الحالات الشاذة في البيانات بناءً على أحجام عينات صغيرة. 

هذا مثالي لتأمين IAM وPAM وActive Directory. أثبتت LLM فعاليتها في تحليل سجلات وصول المستخدم واكتشاف النشاط المشبوه. 

التغلب على أكثر حواجز التقسيم الجزئي تحديًا

يمكن للتحديات العديدة التي تواجه الحصول على التجزئة الدقيقة بشكل صحيح أن تجعل مشاريع التجزئة الدقيقة واسعة النطاق تستمر لأشهر أو حتى سنوات. 

بينما يهدف التجزئة المصغرة للشبكة إلى فصل وعزل الأجزاء المحددة في شبكة مؤسسة، نادرًا ما تكون مهمة واحدة وفعلت.

يمكن أن يساعد الذكاء الاصطناعي التوليدي من خلال تحديد أفضل طريقة لإدخال التجزئة المصغرة دون مقاطعة الوصول إلى الأنظمة والموارد في العملية.

 أفضل ما في الأمر أنه يمكن أن يقلل من آلاف بطاقات المشاكل في أنظمة إدارة خدمات تكنولوجيا المعلومات التي تم إنشاؤها بواسطة مشروع التقسيم الدقيق السيئ.

حل التحدي الأمني ​​لإدارة وحماية نقاط النهاية والهويات

يبحث المهاجمون عن الفجوات بين أمان نقطة النهاية وإدارة الهوية. 

يمكن للذكاء الاصطناعي التوليدي وChatGPT المساعدة في حل هذه المشكلة من خلال تزويد الباحثين عن التهديدات بالذكاء الذي يحتاجون إليه لمعرفة نقاط النهاية الأكثر خطورة من الاختراق.

تمشيا مع الحاجة إلى تحسين ذاكرة العضلات، خاصة عندما يتعلق الأمر بنقاط النهاية، يمكن استخدام الذكاء الاصطناعي التوليدي لمعرفة باستمرار كيف وأين وبأي طرق يحاول المهاجمون اختراق نقطة النهاية والهويات التي يحاولون استخدامها.  

الحصول على أقل امتياز للوصول إلى مستوى جديد تمامًا

يُعد تطبيق الذكاء الاصطناعي التوليدي في مواجهة التحدي المتمثل في تقييد الوصول إلى الموارد عن طريق الهوية والنظام وطول الوقت من أقوى حالات الاستخدام غير الموثوق بها.

 إن طلب ChatGPT لتدقيق البيانات حسب المورد وملف تعريف الأذونات سيوفر لمسؤولي النظام وفرق SOC آلاف الساعات سنويًا.

جزء أساسي من الوصول الأقل امتيازًا هو حذف الحسابات القديمة.

 وجد تقرير حالة التأهب الأمني ​​لعام 2023 الصادر عن Ivanti أن 45٪ من الشركات تشك في أن الموظفين والمقاولين السابقين لا يزال لديهم وصول نشط إلى أنظمة وملفات الشركة.

قال الدكتور سينيفان موكا مالا، كبير مسؤولي المنتجات في Ivanti : “غالبًا ما تفشل المؤسسات الكبيرة في حساب النظام البيئي الضخم للتطبيقات والأنظمة الأساسية وخدمات الجهات الخارجية التي تمنح حق الوصول بعد انتهاء فترة عمل الموظف”. 

“نحن نطلق على بيانات اعتماد الزومبي هذه، ولا يزال عدد كبير جدًا من المتخصصين في مجال الأمن – وحتى المديرين التنفيذيين على مستوى القيادة – يتمتعون بإمكانية الوصول إلى أنظمة وبيانات أصحاب العمل السابقين.”

صقل التحليلات السلوكية وتسجيل المخاطر والتعديل في الوقت الفعلي لشخصيات وأدوار الأمان

سيمكن الذكاء الاصطناعي التوليدي وChatGPT محللي وفرق SOC من التكيف بشكل أسرع مع الحالات الشاذة التي يكتشفها التحليل السلوكي وتسجيل المخاطر.

 يمكنهم بعد ذلك إيقاف أي حركة جانبية يحاول مهاجم محتمل على الفور. تحديد امتياز الوصول من خلال درجة المخاطرة وحدها سيكون عفا عليه الزمن؛ سيضع الذكاء الاصطناعي التوليدي الطلب في سياقه ويرسل تنبيهًا إلى خوارزمياته لتحديد تهديد محتمل.

تحليلات محسّنة في الوقت الفعلي، وإعداد تقارير وإمكانية رؤية للمساعدة في وقف الاحتيال عبر الإنترنت

تُبنى معظم مبادرات عدم الثقة الناجحة على أساس بيانات متكامل يجمع ويبلغ عن التحليلات في الوقت الفعلي وإعداد التقارير والرؤية.

 سيؤدي استخدام هذه البيانات لتعليم نماذج الذكاء الاصطناعي التوليدية إلى تقديم رؤى لم يسبق لها مثيل من قبل SOC وصائدي التهديدات ومحللي المخاطر.

ستكون النتائج قابلة للقياس على الفور في وقف الاحتيال في التجارة الإلكترونية، حيث يفترس المهاجمون أنظمة التجارة الإلكترونية التي لا يمكنها مواكبة الهجمات.

 سيعرف محللو التهديد من خلال وصول ChatGPT إلى البيانات التاريخية على الفور ما إذا كانت المعاملة التي تم وضع علامة عليها مشروعة.

تحسين الوصول الواعي بالسياق، معززًا بضوابط الوصول الدقيقة

عنصر أساسي آخر لعدم الثقة هو دقة ضوابط الوصول حسب الهوية والأصل ونقطة النهاية.

 ابحث عن الذكاء الاصطناعي التوليدي لإنشاء تدفقات عمل جديدة تمامًا يمكنها اكتشاف مجموعة أنماط حركة مرور الشبكة وسلوك المستخدم والذكاء السياقي من البيانات المتكاملة بشكل أكثر دقة لاقتراح تغييرات السياسة حسب الهوية أو الدور أو الشخصية. 

سوف يعرف صائدو التهديدات ومحللو SOC ومحللو الاحتيال في ثوانٍ كل بيانات اعتماد وصول مميزة مخترقة وسيكونون قادرين على تقييد الوصول بالكامل باستخدام أمر ChatGPT بسيط.

تعزيز التكوين والامتثال لجعلها أكثر توافقًا مع انعدام الثقة

أثبتت نماذج LLM التي يعتمد عليها ChatGPT فعاليتها بالفعل في تحسين اكتشاف الأخطاء وتبسيط اكتشاف الاحتيال.

 الخطوة التالية في هذا المجال هي الاستفادة من نماذج ChatGPT لأتمتة سياسة الوصول وإنشاء مجموعة مستخدمين وتحسين كيفية إدارة الامتثال ببيانات الوقت الفعلي التي تم إنشاؤها بواسطة النماذج.

ستجعل ChatGPT إدارة التكوين ومخاطر الحوكمة وتقارير الامتثال ممكنة في جزء بسيط من الوقت الذي تستغرقه اليوم.  

تحديد نصف قطر الانفجار لسلاح المهاجم المفضل: هجوم التصيد

إنه التهديد السطحي الذي يزدهر به المهاجمون – إغراء الضحايا بمخططات الهندسة الاجتماعية التي تشير إلى دفعات نقدية كبيرة.

 أثبت ChatGPT بالفعل فعاليته الكبيرة في معالجة اللغة الطبيعية (NLP)، وهذا بالإضافة إلى LLMs يجعله فعالًا في اكتشاف أنماط النص غير العادية في رسائل البريد الإلكتروني – وهي أنماط غالبًا ما تكون علامة على احتيال البريد الإلكتروني التجاري (BEC).

 يمكن لـ ChatGPT أيضًا تحديد رسائل البريد الإلكتروني التي يتم إنتاجها بنفسه وإرسالها إلى الحجر الصحي. يتم استخدامه لإنشاء الجيل التالي من الأنظمة الأساسية المرنة وأنظمة الكشف الإلكترونية.

ركز على تحويل نقاط ضعف الثقة الصفرية إلى نقاط قوة

يمكن لـ ChatGPT والذكاء الاصطناعي التوليدي مواجهة التحدي المتمثل في التحسين المستمر لذكاء التهديدات والمعرفة من خلال تقوية الذاكرة العضلية لأمان عدم الثقة في المؤسسة.

 حان الوقت لرؤية هذه التقنيات على أنها أنظمة تعليمية يمكن أن تساعد المؤسسات على صقل مهاراتها الآلية – والبشرية – في الحماية من التهديدات الخارجية والداخلية، عن طريق تسجيل وفحص جميع حركة مرور الشبكة، والحد من الوصول والتحكم فيه، والتحقق من موارد الشبكة وتأمينها.

المصدر: venturebeat

قد يهمك:

شركة سيو

قالب صحيفة Sahifa

قالب astra

قالب متجر إلكتروني

انشاء متجر الكتروني

إنشاء موقع ويب عبر جودادي

أنت تستخدم إضافة Adblock

يعتمد موقع انشاء على الاعلانات كمصدر لدعم الموقع، يجب عليك ايقاف تشغيل حاجب الاعلانات لمشاهدة المحتوي