ملخص
حصل فريق سلاش نكست SlashNext مؤخرًا على إمكانية الوصول إلى أداة تُعرف باسم "WormGPT" من خلال منتدى بارز على الإنترنت يرتبط غالبًا بالجرائم الإلكترونية. تقدم هذه الأداة نفسها كبديل لللقرصنة باستخدام نماذج جي بي تي GPT، المصممة خصيصًا للأنشطة الضارة.
تقوم الجهات الخبيثة الآن بإنشاء وحدات مخصصة خاصة بها مشابهة لـ شات جي بي تي ChatGPT، ولكن من السهل استخدامها لأغراض شائنة. فهم لا ينشئون هذه الوحدات المخصصة فحسب، بل يقومون أيضًا بالإعلان عنها لزملائهم الممثلين السيئين. يوضح هذا كيف أصبح الأمن السيبراني أكثر صعوبة بسبب التعقيد المتزايد والقدرة على التكيف لهذه الأنشطة في عالم شكله الذكاء الاصطناعي.
أُجريت اختبارات تركز على هجمات BEC لإجراء تقييم شامل للمخاطر المحتملة المرتبطة بـ WormGPT. في إحدى التجارب، أصدرت سلاش نكست تعليمات إلى WormGPT بإنشاء بريد إلكتروني يهدف إلى الضغط على مدير حساب مطمئن لدفع فاتورة احتيالية.
كانت النتائج مقلقة. أنتجت WormGPT بريدًا إلكترونيًا لم يكن مقنعًا بشكل ملحوظ فحسب، بل كان أيضًا ماكرًا للغاية، مما يعرض إمكاناته لهجمات التصيد الاحتيالي المعقدة و BEC.
باختصار، إن أداة WormGPT مشابهة لـ ChatGPT ولكن ليس لها حدود أو قيود أخلاقية. تؤكد هذه التجربة على التهديد الكبير الذي تشكله تقنيات الذكاء الاصطناعي التوليدية مثل WormGPT، حتى في أيدي مجرمي الإنترنت المبتدئين.
الاستخدام الناشئ للذكاء الاصطناعي التوليدي، بما في ذلك شات جي بي تي ChatGPT من أوبن آيه آي OpenAI، وأداة مكافحة الجرائم الإلكترونية وورم جي بي تيWormGPT، في هجمات اختراق البريد الإلكتروني للأعمال (BEC). تسليط الضوء على الحالات الحقيقية من منتديات الجرائم الإلكترونية، يتعمق المنشور في آليات هذه الهجمات، والمخاطر الكامنة التي تشكلها رسائل البريد الإلكتروني التصيدية التي تعتمد على الذكاء الاصطناعي، والمزايا الفريدة للذكاء الاصطناعي التوليدي في تسهيل مثل هذه الهجمات.
كيف يعمل الذكاء الاصطناعي التوليدي على إحداث ثورة في هجمات BEC
أدى تقدم تقنيات الذكاء الاصطناعي (AI)، مثل شات جي بي تي ChatGPT من أوبن آيه آي OpenAI، إلى تقديم ناقل جديد لهجمات اختراق البريد الإلكتروني للأعمال (BEC). يُنشئ شات جي بي تي ChatGPT نصًا شبيهًا بالبشر استنادًا إلى المدخلات التي يتلقاها. يمكن لمجرمي الإنترنت استخدام هذه التكنولوجيا لأتمتة إنشاء رسائل بريد إلكتروني مزيفة مقنعة للغاية، ومخصصة للمستلم، وبالتالي زيادة فرص نجاح الهجوم.
تم الكشف عن سلسلة محادثات حديثة في منتدى الجرائم الإلكترونية، حيث عرض أحد مجرمي الإنترنت إمكانية تسخير الذكاء الاصطناعي التوليدي لتحسين البريد الإلكتروني الذي يمكن استخدامه في هجوم التصيد الاحتيالي أو هجوم BEC. لقد أوصوا بتأليف البريد الإلكتروني باللغة الأم، وترجمتها، ثم إدخالها في واجهة مثل ChatGPT لتعزيز تعقيدها وشكلها. تقدم هذه الطريقة تأثيرًا صارخًا: المهاجمون، حتى أولئك الذين يفتقرون إلى الطلاقة في لغة معينة، أصبحوا الآن أكثر قدرة من أي وقت مضى على اختلاق رسائل بريد إلكتروني مقنعة للتصيد الاحتيالي أو هجمات اختراق البريد الإلكتروني للأعمال BEC.
نرى الآن اتجاهًا مقلقًا بين مجرمي الإنترنت في المنتديات، واضحًا في سلاسل المناقشات التي تقدم "كسر الحماية" لواجهات مثل ChatGPT. إن عمليات "كسر الحماية" هذه عبارة عن مطالبات متخصصة أصبحت شائعة بشكل متزايد. وهي تشير إلى المدخلات المصممة بعناية والمصممة للتعامل مع واجهات مثل ChatGPT لتوليد مخرجات قد تتضمن الكشف عن معلومات حساسة أو إنتاج محتوى غير مناسب أو حتى تنفيذ تعليمات برمجية ضارة. يسلط انتشار مثل هذه الممارسات الضوء على التحديات المتزايدة في الحفاظ على أمن الذكاء الاصطناعي في مواجهة المجرمين الإلكترونيين.
تقوم الجهات الخبيثة الآن بإنشاء وحدات مخصصة خاصة بها مشابهة لـ شات جي بي تي ChatGPT، ولكن من السهل استخدامها لأغراض شائنة. فهم لا ينشئون هذه الوحدات المخصصة فحسب، بل يقومون أيضًا بالإعلان عنها لزملائهم الممثلين السيئين. يوضح هذا كيف أصبح الأمن السيبراني أكثر صعوبة بسبب التعقيد المتزايد والقدرة على التكيف لهذه الأنشطة في عالم شكله الذكاء الاصطناعي.
الكشف عن WormGPT: ترسانة مجرمي الإنترنت
حصل فريق سلاش نكست SlashNext مؤخرًا على إمكانية الوصول إلى أداة تُعرف باسم "WormGPT" من خلال منتدى بارز على الإنترنت يرتبط غالبًا بالجرائم الإلكترونية. تقدم هذه الأداة نفسها كبديل للغطاء الأسود لنماذج جي بي تي GPT، المصممة خصيصًا للأنشطة الضارة.
WormGPT هي وحدة نمطية للذكاء الاصطناعي تعتمد على نموذج لغة GPTJ، والتي تم تطويرها في عام 2021. وتتميز بمجموعة من الميزات، بما في ذلك دعم الأحرف غير المحدود، والاحتفاظ بذاكرة الدردشة، وقدرات تنسيق التعليمات البرمجية.
يُزعم أن WormGPT تم تدريبه على مجموعة متنوعة من مصادر البيانات، مع التركيز بشكل خاص على البيانات المتعلقة بالبرامج الضارة. ومع ذلك، تظل مجموعات البيانات المحددة المستخدمة أثناء عملية التدريب سرية، وفقًا لما قرره مؤلف الأداة.
أُجريت اختبارات تركز على هجمات BEC لإجراء تقييم شامل للمخاطر المحتملة المرتبطة بـ WormGPT. في إحدى التجارب، أصدرت سلاش نكست تعليمات إلى WormGPT بإنشاء بريد إلكتروني يهدف إلى الضغط على مدير حساب مطمئن لدفع فاتورة احتيالية.
كانت النتائج مقلقة. أنتجت WormGPT بريدًا إلكترونيًا لم يكن مقنعًا بشكل ملحوظ فحسب، بل كان أيضًا ماكرًا استراتيجيًا، مما يعرض إمكاناته لهجمات التصيد الاحتيالي المعقدة و BEC.
باختصار، إنه مشابه لـ ChatGPT ولكن ليس له حدود أو قيود أخلاقية. تؤكد هذه التجربة على التهديد الكبير الذي تشكله تقنيات الذكاء الاصطناعي التوليدية مثل WormGPT، حتى في أيدي مجرمي الإنترنت المبتدئين.
طرق الحماية من هجمات الذكاء الاصطناعي التي يقودها الذكاء الاصطناعي
في الختام ، فإن نمو الذكاء الاصطناعي، على الرغم من كونه مفيدًا، يجلب نواقل هجومية تقدمية وجديدة. إن تنفيذ تدابير وقائية قوية أمر بالغ الأهمية. فيما يلي بعض الاستراتيجيات التي يمكنك استخدامها:
التدريب الخاص بـ BEC: يجب على الشركات تطوير برامج تدريب مكثفة ومحدثة بانتظام تهدف إلى مواجهة هجمات BEC، وخاصة تلك المعززة بواسطة الذكاء الاصطناعي. يجب أن تقوم مثل هذه البرامج بتثقيف الموظفين حول طبيعة تهديدات BEC، وكيفية استخدام الذكاء الاصطناعي في زيادتها، والتكتيكات التي يستخدمها المهاجمون. يجب أيضًا دمج هذا التدريب كجانب مستمر من التطوير المهني للموظفين.
تدابير التحقق من البريد الإلكتروني المحسّنة: للتحصين ضد هجمات BEC المدعومة بالذكاء الاصطناعي، يجب على المؤسسات فرض عمليات تحقق صارمة من البريد الإلكتروني. يتضمن ذلك تنفيذ الأنظمة التي تنبه تلقائيًا عندما تنتحل رسائل البريد الإلكتروني الصادرة من خارج المنظمة صفة المديرين التنفيذيين أو البائعين الداخليين ، واستخدام أنظمة البريد الإلكتروني التي تحدد الرسائل التي تحتوي على كلمات رئيسية محددة مرتبطة بهجمات BEC مثل "عاجل" أو "حساس" أو "تحويل بنكي". تضمن هذه الإجراءات إخضاع رسائل البريد الإلكتروني التي يُحتمل أن تكون ضارة لفحص شامل قبل اتخاذ أي إجراء.
بواسطة دانيال كيلي | لموقع SlashNext