أثارت شعبية شات جي بي تي ChatGPT بين المستهلكين ومحترفي تكنولوجيا المعلومات على حدٍ سواء ضجة عالمية منذ إطلاقها الأولي في نهاية العام الماضي، وأثارت كوابيس الأمن السيبراني حول كيفية استخدامها لاستغلال نقاط الضعف في النظام . أوضح خبراء الأمن السيبراني أن المشكلة الرئيسية هي قدرة ChatGPT ونماذج اللغات الفائقة الأخرى (LLMs) على إنشاء كود متعدد الأشكال أو متحور للتهرب من أنظمة الكشف عن نقطة النهاية والاستجابة (EDR) .
تظهر سلسلة حديثة من هجمات إثبات المفهوم كيف يمكن إنشاء ملف قابل للتنفيذ يبدو حميدًا بحيث يقوم في كل وقت تشغيل باستدعاء API لـ ChatGPT. بدلاً من مجرد إعادة إنتاج أمثلة لمقتطفات التعليمات البرمجية المكتوبة بالفعل، يمكن مطالبة ChatGPT بإنشاء إصدارات ديناميكية ومتغيرة من التعليمات البرمجية الضارة في كل محادثة، مما يجعل من الصعب اكتشاف الثغرات الأمنية الناتجة عن الاستغلال بواسطة أدوات الأمن السيبراني.
قال ماكنزي جاكسون، محامي المطورين في شركة GitGuardian للأمن السيبراني: "يخفض ChatGPT العوائق أمام المتسللين، والجهات الفاعلة الخبيثة التي تستخدم نماذج الذكاء الاصطناعي" Script Kiddies "الحديثة. ويضيف: "البرنامج الضار ChatGPT الذي يمكن خداعه كي ينتج، بعيد كل البعد عن أن يكون رائدًا، ولكن مع تحسن النماذج واستهلاك المزيد من بيانات العينة وطرح منتجات مختلفة في السوق، قد ينتهي الأمر بالذكاء الاصطناعي إلى إنشاء برامج ضارة لا يمكن اكتشافها إلا بواسطة أنظمة الذكاء الاصطناعي الأخرى من أجل الدفاع. أي جانب سيفوز في هذه المباراة هو تخمين أي شخص".
كان هناك العديد من الأدلة على المفاهيم التي تُظهر قدرة الأداة على استغلال قدراتها في تطوير برامج ضارة متقدمة ومتعددة الأشكال.
تتجاوز المطالبات عوامل التصفية لإنشاء تعليمات برمجية ضارة
يحتوي شات جي بي تي ChatGPT والنماذج اللغوية الفائقة LLMs الأخرى على عوامل تصفية محتوى تمنعها من إطاعة الأوامر أو المطالبات لإنشاء محتوى ضار، مثل التعليمات البرمجية الضارة. لكن يمكن تجاوز عوامل تصفية المحتوى.
يتم تحقيق جميع عمليات الاستغلال التي تم الإبلاغ عنها والتي يمكن القيام بها من خلال ChatGPT تقريبًا من خلال ما يُطلق عليه "الهندسة السريعة"، وهي ممارسة تعديل مطالبات الإدخال لتجاوز عوامل تصفية محتوى الأداة واسترداد المخرجات المرغوبة. اكتشف المستخدمون الأوائل، على سبيل المثال، أنه يمكنهم الحصول على ChatGPT لإنشاء محتوى لم يكن من المفترض أن ينشئه - "كسر الحماية" للبرنامج - من خلال تأطير المطالبات على أنها افتراضية، على سبيل المثال مطالبتهم بفعل شيء ما كما لو لم يكن ذكاءً إصطناعيًا ولكن شخص خبيث عازم على إلحاق الضرر.
قال أندرو جوزيفيدس، مدير الأبحاث الأمنية في شركة الأمن السيبراني KSOC: "قام ChatGPT بسن بعض القيود على النظام، مثل المرشحات التي تحد من نطاق الإجابات التي سيوفرها ChatGPT من خلال تقييم سياق السؤال". "إذا طلبت من ChatGPT أن يكتب لك رمزًا ضارًا، فسيتم رفض الطلب. إذا طلبت من ChatGPT كتابة رمز يمكنه القيام بالوظيفة الفعالة للرمز الخبيث الذي تنوي كتابته، فمن المحتمل أن يقوم ChatGPT ببناء هذا الرمز لك".
قال جوزيفيدس إنه مع كل تحديث، يصعب خداع ChatGPT ليصبح ضارًا، ولكن مع دخول نماذج ومنتجات مختلفة إلى السوق، لا يمكننا الاعتماد على عوامل تصفية المحتوى لمنع استخدام LLM لأغراض ضارة.
إن القدرة على خداع ChatGPT لاستخدام الأشياء التي يعرفها ولكنها محصورة خلف المرشحات هي ما يمكن أن يجعل المستخدمين يولدون شفرة ضارة فعالة. يمكن استخدامه لجعل الكود متعدد الأشكال من خلال الاستفادة من قدرة الأداة على تعديل وصقل النتائج لنفس الاستعلام إذا تم تشغيله عدة مرات.
على سبيل المثال، يمكن لملف Python التنفيذي الذي يبدو غير ضار إنشاء استعلام لإرساله إلى واجهة برمجة تطبيقات ChatGPT لمعالجة إصدار مختلف من التعليمات البرمجية الضارة في كل مرة يتم فيها تشغيل الملف التنفيذي. بهذه الطريقة، يتم تنفيذ الإجراء الضار خارج وظيفة (exec). يمكن استخدام هذه التقنية لتشكيل برنامج ضار متعدد الأشكال ومتحور يصعب اكتشافه بواسطة أجهزة فحص التهديدات.
البراهين الحالية لمفهوم البرامج الضارة متعددة الأشكال
في وقت سابق من هذا العام، نشر جيف سيمز، مهندس الأمن الرئيسي في شركة اكتشاف التهديدات HYAS InfoSec، ورقة بيضاء لإثبات المفهوم لنموذج عمل لمثل هذا الاستغلال. أظهر استخدام الهندسة السريعة والاستعلام عن ChatGPT API في وقت التشغيل لبناء حمولة كلوغر متعددة الأشكال، واصفاً إياها بـ أنها أفعى المامبا السوداء BlackMamba.
في جوهرها، تعد المامبا السوداء ملفًا تنفيذيًا بلغة بايثون Python يطالب واجهة برمجة تطبيقات ChatGPT ببناء برنامج keylogger ضار يتحور في كل محادثة في وقت التشغيل لجعلها متعددة الأشكال وتتجاوز مرشحات نقطة النهاية والاستجابة (EDR).
قال سيمز: "وظيفة (نظام التشغيل) في Python هي ميزة مضمنة تسمح لك بتنفيذ كود بايثون Python ديناميكيًا في وقت التشغيل". "يأخذ سلسلة تحتوي على الكود الذي تريد تنفيذه كمدخل، ثم ينفذ هذا الرمز. تُستخدم وظيفة نظام التشغيل (exec) بشكل شائع لتعديل البرنامج أثناء التنقل، مما يعني أنه يمكنك تعديل سلوك برنامج قيد التشغيل عن طريق تنفيذ تعليمات برمجية جديدة أثناء تشغيل البرنامج."
تنظيم الذكاء الاصطناعي من أجل الأمن
على الرغم من أن الحكومات في جميع أنحاء العالم تكافح بشأن كيفية تنظيم الذكاء الاصطناعي لمنع الضرر، فإن الصين هي الدولة الرئيسية الوحيدة حتى الآن التي سنت قواعد جديدة. يقترح الخبراء مناهج مختلفة لكبح قدرة الذكاء الاصطناعي التوليدية على إحداث ضرر.
"في الوقت الحالي، يبدو أن الحل للتحكم في المشكلات المتعلقة بالذكاء الاصطناعي هو"إضافة المزيد من الذكاء الاصطناعي"، وهو ما أعتقد أنه ليس واقعياً على الأرجح". قال جيف بولارد، المحلل في شركة فورستر Forrester. "لإضافة طبقات التحكم الصحيحة إلى هذه الحلول، نحتاج إلى إمكانية شرح وقابلية مراقبة أفضل للسياق في النظام. يجب دمجها مع واجهة برمجة التطبيقات واستخدامها لتوفير تفاصيل ذات مغزى وتقديم إمكانات إدارة لا يبدو أنها موجودة في الوقت الحالي".
ومع ذلك، فإن تنظيم الذكاء الاصطناعي التوليدي سيكون صعبًا لأن صناعة التكنولوجيا لا تزال في مرحلة ناشئة من فهم ما يمكن أن تفعله، كما قال كريس ستيفين، مدير الأبحاث في شركة Enterprise Management Associate للتحليل والاستشارات.
"السبب في أن التنظيم بمثابة احتمال مخيف هو أن ChatGPT يعد أحد تلك الأشياء التي تكون فيها الاحتمالات لا حصر لها عمليًا، وهو ليس شيئًا يمكننا الاستعداد له بسهولة بطريقة تغطي جميع الظروف المحتملة حيث يمكن لمثيل GPT أن يغطي، قال ستيفن. "سيكون الأمر صعبًا خاصة في مجالات مثل: كيفية التنظيم، والعملية التي سيتم استخدامها، ومن المسؤول."
بواسطة شويتا شارما | لموقع C Soon Line