٠٧ جمادى الأولى ١٤٤٦هـ - ٨ نوفمبر ٢٠٢٤م
الاشتراك في النشرة البريدية
عين الرياض
التكنولوجيا وتقنية المعلومات | الاثنين 20 نوفمبر, 2023 9:01 صباحاً |
مشاركة:

كاسبرسكي تقدم معلومات حول أدوات التزييف الصوتي العميق

فاجأت فرقة The Beatles الموسيقية الشهيرة ملايين المعجبين عندما أصدرت أغنية جديدة لها  حتى بعد وفاة عدد من أعضائها، وذلك بفضل قدرات الذكاء الاصطناعي، الذي استخدمته الفرقة لتحسين جودة مقاطع صوتية قديمة للأعضاء الراحلين ودمجها في الأغنية الجديدة. وبينما تسببت قدرات الذكاء الاصطناعي في التزييف العميق بعض الفرح في هذه الحالة، لا يزال هناك جانب مظلم وخطر التزييف الصوتي العميق والصور. 

 

لحسن الحظ، لا يتمتع مثل هذا المحتوى المزيف (والأدوات المستخدمة في صنعه) بمستوى تطور أو انتشار كبير حالياً. ومع ذلك، تبقى إمكانية استخدامه في مخططات الاحتيال عالية للغاية. فتقنية التزييف العميق دائمة التطور، ولا تكف عن التقدم.

 

ما هي قدرات التزييف العميق للصوت؟

 

عرضت شركة OpenAI مؤخراً نموذج واجهة برمجة تطبيقات للصوت يمكنه توليد أصوات حديث وقراءة بشرية للنصوص المُدخلة. وحتى الآن، يعد هذا النموذج الذي طورته OpenAI هو الأقرب للكلام البشري الحقيقي.

 

وفي المستقبل، قد تصبح مثل هذه النماذج أداة جديدة في أيدي المخترقين. إذ تقدم واجهة برمجة التطبيقات الجديدة من OpenAI للمستخدمين خيارات عدّة للأصوات المقترح استخدامها عند قراءة النصوص المدخلة. ومع أن الإصدار الحالي للواجهة غير قادر على التزييف الصوتي العميق ، إلا أنه دليل على وتيرة التطور السريعة لتقنيات توليد الأصوات. 

 

من ناحية عملية، لا يستطيع أي جهاز حالي توليد صوت مزيف عالي الجودة وغير قابل للتمييز عن كلام البشر الحقيقي. لكن وبالعودة إلى الأشهر القليلة الماضية، يبدو من الواضح أن العديد من أدوات توليد الأصوات البشرية الجديدة تظهر بشكل مستمر. كما بات استخدام هذه الأدوات أسهل عما كان في السابق، إذ كان المستخدمون يحتاجون إلى مهارات برمجية أساسية لاستخدام مثل هذه الأدوات. وفي المستقبل القريب، يمكننا أن نتوقع رؤية نماذج تزييف عميق سهلة الاستخدام وتقدم نتائج عالية الجودة أيضاً.

 

لا يعد الاحتيال باستخدام الذكاء الاصطناعي شائعاً كثيراً، لكن هناك أمثلة على حالات احتيال «ناجحة» منذ الآن. ففي منتصف شهر أكتوبر 2023، حذّر مستثمر رأس المال المخاطر الأمريكي «تيم دريبر» متابعيه على منصة تويتر  من مخططات الاحتيال التي تستغل صوته المولّد بالتزييف العميق. وهو ما يدل على ارتفاع مستوى تطوّر التقنية.

 

كيف تحمي نفسك من الاحتيال بالتزييف العميق للصوت؟

 

حتى الآن، قد لا يتعامل معظم الناس مع التزييف الصوتي العميق على أنه تهديد سيبراني محتمل. إذ لا تزال حالات استخدامه لغايات خبيثة قليلة جداً، وهو ما يجعل التقنيات التي تحمي منه بطيئة الظهور. 

 

مبدئياً، أفضل طريقة لحماية نفسك من الاحتيال الذي يستخدم التزييف الصوتي العميق هي الاستماع بعناية لما يقوله المتصل بك عبر الهاتف.  فإذا لاحظت أن جودة صوت المكالمة رديئة، وسمعت فيها ضوضاء غريبة، وظننت أن الصوت يبدو آلياً، فذلك سبب وجيه لئلا تثق بالمعلومات التي تسمعها. 

 

هناك طريقة أخرى جيدة لمعرفة ما إذا كان المتصل بك بشرياً، وهي طرح أسئلة غير متوقعة. فإذا كان المتصل روبوت ذكاء اصطناعي، يمكن أن يتركه السؤال عن لونه المفضل في حيرة من أمره، لأن هذا السؤال نادر الطرح من ضحايا الاحتيال المحتملين عادة. وحتى إذا كان المتصل بشرياً يقوم بتشغيل إجابات الروبوت الصوتية في هذه الحالة، سيكون هامش الانتظار الطويل للإجابة على سؤالك دليلاً واضحاً على أنك تتعرض للاحتيال.

 

يمكنك أيضاً تثبيت حل أمني موثوق وشامل لتعزيز حمايتك من هذا النوع من الاحتيال. فمع أن الحلول الأمنية لا تمتلك قدرات كاملة على رصد الأصوات المزيفة، إلا أنها تحمي متصفحات الويب وتتحقق من جميع الملفات الموجودة على الحاسوب، مما قد يساعد المستخدمين على تجنب ما هو مشبوه من مواقع الويب، وعمليات الدفع وعمليات تحميل  البرمجيات الخبيثة. 

 

وعلّق «ديمتري أنيكين»، كبير علماء البيانات في شركة كاسبرسكي، على هذا الموضوع قائلاً: «النصيحة الأهم الآن هي عدم المغالاة في التهديد أو محاولة اكتشاف التزييف العميق في غير أماكن وجوده.  ففي الوقت الحالي، من غير المرجح أن تكون التقنية المتاحة قوية بما يكفي لإنشاء صوت مزيف لن يتمكن الأشخاص من تمييزه.  وعلى جميع الأحوال، عليك أن تكون على دراية بالتهديدات المحتملة وأن تكون متحضراً لكون الاحتيال المتقدم باستخدام التزييف العميق سيصبح واقعاً في المستقبل القريب.» 

 

مشاركة:
طباعة
اكتب تعليقك
إضافة إلى عين الرياض
أخبار متعلقة
الأخبار المفضلة