• 20/03/2024
  •  https://dg.samrl.org/l?a5206 
    الاستخبارات المعادية: تحليل حالات استخدام الذكاء الاصطناعي الضار
    الحقوق الرقمية |

    يحدد بحث جديد أجرته مجموعة Insikt Group التابعة لشركة Recorded Future تحقيقًا تعاونيًا أجراه محللو استخبارات التهديدات ومهندسو البحث والتطوير في الاستخدامات الضارة المحتملة للذكاء الاصطناعي (AI) من قبل الجهات الفاعلة في مجال التهديد. لقد جربوا مجموعة متنوعة من نماذج الذكاء الاصطناعي، بما في ذلك نماذج اللغات الكبيرة، ونماذج الصور متعددة الوسائط، ونماذج تحويل النص إلى كلام، دون أي ضبط دقيق أو تدريب إضافي، لتقليد الموارد التي قد تكون لدى الجهات الفاعلة في مجال التهديد بشكل واقعي.

    تشير النتائج التي توصلوا إليها إلى أنه في عام 2024، ستكون التطبيقات الضارة الأكثر احتمالاً للذكاء الاصطناعي من خلال عمليات التزييف العميق المستهدفة وعمليات التأثير. ويمكن استخدام تقنية التزييف العميق، التي تم إنشاؤها باستخدام أدوات مفتوحة المصدر، لانتحال شخصية المديرين التنفيذيين، في حين يمكن للصوت والفيديو الناتج عن الذكاء الاصطناعي تعزيز حملات الهندسة الاجتماعية. ومن المتوقع أن تنخفض تكلفة إنشاء المحتوى لعمليات التأثير بشكل كبير، مما يسهل استنساخ مواقع الويب أو إنشاء منافذ إعلامية مزيفة. يمكن للذكاء الاصطناعي أيضًا مساعدة مطوري البرامج الضارة في تجنب الكشف ومساعدة الجهات الفاعلة في مجال التهديد في جهود الاستطلاع، مثل تحديد الأنظمة الصناعية المعرضة للخطر أو تحديد مواقع المرافق الحساسة.

    يسلط النص الضوء على القيود الحالية، بما في ذلك توافر النماذج مفتوحة المصدر التي تكاد تكون فعالة مثل النماذج الحديثة وتجاوز التدابير الأمنية في حلول الذكاء الاصطناعي التجارية. وتتوقع استثمارات كبيرة عبر قطاعات متعددة في تقنيات التزييف العميق والذكاء الاصطناعي المولدة، والتي من شأنها تعزيز قدرات الجهات الفاعلة في مجال التهديد، بغض النظر عن مستوى مواردها، وزيادة عدد المنظمات المعرضة للخطر.

    يُنصح المؤسسات بالاستعداد لهذه التهديدات من خلال النظر في أصوات المديرين التنفيذيين وأشكالهم، وموقعهم الإلكتروني وعلامتهم التجارية، وصورهم العامة كجزء من سطح الهجوم الخاص بهم. ويجب عليهم أيضًا أن يتوقعوا استخدامات أكثر تعقيدًا للذكاء الاصطناعي، مثل البرامج الضارة ذاتية التعزيز التي تتجنب الكشف، مما يستلزم أساليب كشف أكثر سرية.

    تشمل النتائج الرئيسية من حالات الاستخدام المحددة ما يلي:

    - يمكن إنشاء تقنية Deepfakes لانتحال شخصية المديرين التنفيذيين باستخدام أدوات مفتوحة المصدر، مما يتطلب مقاطع أقل من دقيقة واحدة للتدريب، ولكنها تواجه تحديات مثل تجاوز آليات الموافقة للاستنساخ المباشر.
    - يستطيع الذكاء الاصطناعي تمكين حملات تضليل فعالة والمساعدة في استنساخ المواقع الشرعية، على الرغم من أن التدخل البشري مطلوب لإنشاء عمليات محاكاة ساخرة قابلة للتصديق.
    - يمكن أن يساعد الذكاء الاصطناعي التوليدي البرامج الضارة على تجنب اكتشافها عن طريق تغيير كود المصدر، على الرغم من أن الحفاظ على الوظيفة بعد التشويش لا يزال يمثل تحديًا.
    - يمكن للذكاء الاصطناعي متعدد الوسائط معالجة الصور العامة لأغراض الاستطلاع، لكن ترجمة هذه البيانات إلى معلومات استخباراتية قابلة للتنفيذ لا تزال تمثل تحديًا بدون تحليل بشري.

    المصدر: Recorded Future


  •  
    جميع الحقوق محفوظة لمنظمة سام © 2023، تصميم وتطوير