٠٨ جمادى الأولى ١٤٤٦هـ - ٩ نوفمبر ٢٠٢٤م
الاشتراك في النشرة البريدية
عين الرياض
التكنولوجيا وتقنية المعلومات | السبت 3 فبراير, 2024 1:02 صباحاً |
مشاركة:

كاسبرسكي تعلّق على الوظيفة الجديدة التي أطلقها نظام ChatGPT

في ضوء الإعلان الأخير بشأن الوظيفة المحسنة التي كشف عنها نظام ChatGPT، حيث يمكن الآن دمج نماذج الذكاء الاصطناعي GPTs المخصصة في المحادثات مع ChatGPT الأصلي، يؤكد خبراء كاسبرسكي على ضرورة اتباع أقصى درجات الحيطة والحذر عند مشاركة المعلومات الحساسة مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي. 

 

ويعلق فلاديسلاف توشكانوف الذي يشغل منصب مدير مجموعة تطوير الأبحاث في فريق أبحاث تكنولوجيا التعلم الآلي لدى كاسبرسكي على ذلك بقوله: "يمكن لنماذج الذكاء الاصطناعي GPTs الاستفادة من الموارد والأدوات الخارجية للوظائف المتقدمة، لذا قام مختبر أبحاث الذكاء الاصطناعي OpenAI من تطوير آلية لتمكين المستخدمين من مراجعة الإجراءات التي يتبعها نظام GPT والموافقة عليها، وبذلك يمكن الحيلولة دون تسرب الحوار المحتمل. وعندما تحاول هذه الأنظمة المخصصة إرسال البيانات إلى خدمة جهة خارجية، يُطلب من المستخدمين أنفسم السماح بهذه العملية أو رفضها، فضلاً عن وجود خيار آخر لفحص البيانات باستخدام رمز القائمة المنسدلة في الواجهة، ويتم تطبيق نفس الميزة على وظيفة @mention  الجديدة".

 

وأضاف توشكانوف "رغم إدخال هذه الآليات، ينبغي على المستخدمين التحلّي بالوعي والتصرف بحذر تام، حيث يجب عليهم فحص كل طلب يتم استقباله وفهمه، ما قد يؤثر على تجاربهم عموماً. ليس هذا فحسب، بل توجد هناك طرق محتملة أخرى لتسرب بيانات المستخدم من خدمة chatbot، ويحدث ذلك نتيجة ارتكاب أخطاء أو وجود نقاط ضعف في الخدمة، إذا ما تم الاحتفاظ بالبيانات خلال عملية تدريب النموذج، أو إذا ما تمكن أحدهم من التسلل إلى حسابك. ويتعين بشكل عام توخّي الحذر، والامتناع عن مشاركة المعلومات الشخصية والسرية مع أي خدمة chatbot عبر الإنترنت".

 

مشاركة:
طباعة
اكتب تعليقك
إضافة إلى عين الرياض
أخبار متعلقة
الأخبار المفضلة