قام خبراء كاسبرسكي بإجراء بحث كان الهدف منه دراسة إمكانية اكتشاف روابط التصيد على روبوت الدردشة القائم على الذكاء الاصطناعي ChatGPT. وأثبت هذا الروبوت في مرات سابقه قدرته على إنشاء رسائل بريد إلكتروني للتصيد الاحتيالي، وكتابة برامج خبيثة ، لكن فعاليته في اكتشاف الروابط الخبيثة كانت محدودة. وكشفت الدراسة أيضاً أنه رغم معرفة هذا الروبوت الكثير عن التصيد الاحتيالي، مع إمكانية تخمين هدف هجوم التصيد، إلا أنه حقق معدلات إيجابية خاطئة بمستوى عالٍ وصل إلى 64%. وفي الكثير من الأحيان، قدم تفسيرات وهمية وأدلة غير دقيقة من أجل تبرير الأحكام التي توصل إليها.
وكان ChatGPT، وهو نموذج مدعوم بالذكاء الاصطناعي، موضوع نقاش في عالم الأمن السيبراني بسبب قدرته على إنشاء رسائل بريد إلكتروني تصيدية، والمخاوف بشأن تأثيره على الأمن الوظيفي لخبراء الأمن السيبراني، رغم التحذيرات من الخبراء المختصين بأن الوقت لا يزال مبكر جداً لتطبيق التكنولوجيا الجديدة على مثل هذه المجالات عالية الخطورة. وقرر خبراء كاسبرسكي إجراء تجربة للكشف عن قدرة ChatGPT على اكتشاف روابط التصيد، إضافة إلى مدى معرفته بالأمن السيبراني التي تعلموها أثناء التدريب. وأجرى خبراء الشركة اختباراً على (gpt-3.5-turbo)، النموذج المسؤول عن تشغيل الروبوت ChatGPT، على أكثر من 2,000 رابط اعتبرته تقنيات مكافحة التصيد الاحتيالي من كاسبرسكي تصيداً احتيالياً، وتم خلطها مع آلاف العناوين الإلكترونية الآمنة.
وخلال التجربة، تختلف معدلات الكشف اعتماداً على الطلب المستخدم. واستندت التجربة إلى طرح سؤالين على ChatGPT، وهما: "هل يؤدي هذا الرابط إلى موقع إلكتروني للتصيد الاحتيالي؟" و "هل هذا الرابط آمن للزيارة؟". وأظهرت النتائج أن معدل اكتشافه بلغ 82%، بينما قدم معدلاً إيجابياً خاطئاً بنسبة 23.2% للسؤال الأول. أما السؤال الثاني، وهو "هل هذا الرابط آمن للزيارة؟"، فقد كان معدل الكشف أعلى مسجلاً نسبة قدرها 93.8%، في حين بلغ معدل الكشف الإيجابي الخاطئ نسبة أعلى قدرها 64.3%. ومع أن معدل الكشف كان مرتفعاً للغاية، إلا أن المعدل الإيجابي الخاطئ مرتفع جداً لأي نوع من تطبيقات الإنتاج.
السؤال المطروح
| نسبة الكشف
| المعدل الإيجابي الخاطئ
|
هل يؤدي هذا الرابط إلى موقع إلكتروني للتصيد الاحتيالي؟
| 87.2%
| 23.2%
|
هل هذا الرابط آمن للزيارة؟
| 93.8%
| 64.3%
|
ولم تكن النتائج غير المرضية في مهمة الكشف مفاجئة، ولكن هل يمكن أن يساعد ChatGPT في تصنيف الهجمات والتحقيق فيها؟ بما أن المهاجمين يذكرون عادةً العلامات التجارية الشهيرة في روابطهم لخداع المستخدمين، ودفعهم للاعتقاد أن عنوان الموقع الإلكتروني موثوق ، وينتمي إلى شركة حقيقية، فإن نموذج لغة الذكاء الاصطناعي يُظهر نتائج رائعة في تحديد أهداف التصيد المحتملة. وعلى سبيل المثال، نجح ChatGPT في استخراج هدف من أكثر من نصف عناوين المواقع الإلكترونية، بما في ذلك مواقع مثل فيسبوك وتيك توك وغوغل، وأسواق التجارة الإلكترونية، مثل أمازون وستيم، والعديد من البنوك من جميع أنحاء العالم، فضلاً عن جهات كثيرة أخرى، دون أي تمارين إضافية.
وأظهرت التجربة أيضاً أن ChatGPT قد يواجه مشكلات خطيرة عندما يتعلق الأمر بإثبات وجهة نظره بشأن القرارات حول ما إذا كانت الروابط خبيثة أو آمنة. وكانت بعض التفسيرات صحيحة وتستند إلى الحقائق، بينما كشف البعض الآخر عن قيود معروفة لنماذج اللغة، بما في ذلك التنبؤات الخاطئة والتحريفات، بينما كانت العديد من التفسيرات مضللة، علماً أن نبرة اللغة كانت واثقة.
وفيما يلي نماذج من التفسيرات المضللة التي قدمها ChatGPT:
- مراجع WHOIS، التي لا يستطيع النموذج الوصول إليها:
وقال فلاديسلاف توشكانوف، عالم البيانات الرئيسي في كاسبرسكي: "يظهر ChatGPT بالتأكيد نتائج واعدة في مساعدة المحللين من الناس لاكتشاف هجمات التصيد الاحتيالي، ولكن يجب علينا عدم المبالغة في ذلك، لأن نماذج اللغة لا تزال محدودة. ومع أنها قد تكون بمستوى محلل التصيد المتدرب عندما يتعلق الأمر بالتفكير حول هجمات التصيد الاحتيالي واستخراج الأهداف المحتملة، إلا أنها تميل إلى التخمين الخيالي وإنتاج مخرجات عشوائية. ويستبعد تماماً لهذه النماذج أن تحدث ثورة في مشهد الأمن السيبراني حتى الآن، إلا أنها تعتبر أدوات مفيدة للمجتمع".
ولمعرفة المزيد حول التجربة، قم بزيارة Securelist.com.
يتصدر فريق تعلم الآلة في كاسبرسكي في تطبيق تقنيات التعلم الآلي على مهام الأمن السيبراني، حيث يقوم باستمرار بتحديث منتجات كاسبرسكي بأحدث التقنيات والمعلومات. وللاستفادة من خبرته في التعلم الآلي والحفاظ على الحماية، يوصي خبراء الشركة بما يلي:
انتهى-