• 18/03/2023
  •  https://dg.samrl.org/l?a4750 
    يحذر خبراء الأمن السيبراني من استخدام القراصنة GPT-4 لكتابة تعليمات برمجية ضارة أكثر تعقيدا
    الحقوق الرقمية |

    حذر خبراء الأمن السيبراني من مجموعة واسعة من المخاطر التي يمكن أن تنشأ عن شات جي بي تي فور GPT-4، أحدث نموذج لغوي فائق (LLM) أطلقته شركة أبحاث الذكاء الاصطناعي OpenAI الثلاثاء الماضي. يمكن أن تنشأ هذه التهديدات من التعقيد المتزايد للتهديدات الأمنية اليومية لقدرات الاستدلال والفهم اللغوي الأفضل لـ GPT-4، بالإضافة إلى قدرته على إنشاء نص طويل يمكن استخدامها لكتابة تعليمات برمجية أكثر تعقيدًا للعديد من البرامج الضارة.

    في حين أن روبوت الدردشة المدعوم بالذكاء الاصطناعي الخاص بـ OpenAI، وجد شعبية واسعة بعد اتاحته للجمهور منذ نوفمبر الماضي، فقد أدى انتشاره أيضًا إلى تمكن مجرمي الإنترنت من استخدام الأداة لإنشاء تعليمات برمجية ضارة - والتي يمكن استخدامها لإنشاء برامج ضارة لسرقة البيانات، ومجموعة متنوعة من المهام الأخرى.

    في مذكرة بحثية نُشرت يوم الخميس، أشارت شركة Check Point Research للأمن السيبراني، إلى أنه على الرغم من التحسينات التي أدخلت على مقاييس السلامة، لا يزال GPT-4 يواجه خطر التلاعب به من قبل مجرمي الإنترنت لإنشاء شفرة ضارة. تتضمن هذه القدرات كتابة تعليمات برمجية لبرامج ضارة يمكنها جمع ملفات المستندات المحمولة السرية (PDFs) ونقلها إلى الخوادم البعيدة من خلال نظام نقل ملفات مخفي، باستخدام لغة البرمجة C ++.

    في عرض توضيحي مُدرج في التقرير، بينما دحض GPT-4 في البداية إنشاء الكود نظرًا لوجود كلمة "برامج ضارة" في الاستعلام، فشل نموذج اللغة الفائق LLM، المتاح حاليًا في ChatGPT Plus - فئة اشتراك مدفوعة من ChatGPT - في الكشف عن القصد الخبيث من الشفرة عند إزالة كلمة البرامج الضارة.

    تشمل التهديدات الأخرى التي يمكن أن ينفذها القراصنة تكتيكًا يسمى "PHP Reverse Shell" والذي يستخدمه المتسللون للوصول عن بُعد إلى جهاز الضحية وبياناته وكتابة التعليمات البرمجية لتنزيل البرامج الضارة عن بُعد باستخدام لغة البرمجة Java، وإنشاء مسودات التصيد عن طريق انتحال صفة رسائل البريد الإلكتروني للموظفين والبنوك.

    قال أوديد فانونو، رئيس أبحاث ثغرات المنتج في Check point: يتفق زملاؤنا من خبراء الأمن على ذلك، مشيرين إلى أن GPT-4 سيستمر في فرض مجموعة واسعة من التحديات مثل توسيع نوع وحجم الجرائم الإلكترونية التي يمكن لعدد أكبر من المتسللين نشرها الآن لاستهداف الأفراد والشركات على حد سواء.

    قال مارك ثورموند، كبير مسؤولي التشغيل العالمي في شركة Tenable للأمن السيبراني ومقرها الولايات المتحدة، إن أدوات مثل روبوتات الدردشة المستندة إلى GPT-4 "ستستمر في فتح الباب لمزيد من المخاطر المحتملة، حيث إنها تخفض المعايير فيما يتعلق بمجرمي الإنترنت، ونشطاء القرصنة والمهاجمون الذين ترعاهم الدولة ".

    وأضاف ثورموند: "ستتطلب هذه الأدوات قريبًا من المتخصصين في الأمن السيبراني زيادة مهاراتهم ويقظتهم بشأن"سطح الهجوم "باستخدام هذه الأدوات، من المحتمل أن ترى عددًا أكبر من الهجمات الإلكترونية التي تستفيد من أدوات الذكاء الاصطناعي التي سيتم إنشاؤها".

    يشير سطح الهجوم إلى العدد الإجمالي لنقاط الدخول التي يمكن لمجرمي الإنترنت استخدامها لخرق النظام. قال ثورموند أن هذه الأدوات يمكن أن تخلق مجموعة واسعة من التهديدات التي لم تكن متاحة حتى الآن لأولئك الذين ليس لديهم المعرفة التقنية بسبب قدراتهم على توليد النص.

    وقال سانديب باندا، الرئيس التنفيذي لشركة الأمن السيبراني المحلية InstaSafe ومقرها دلهي، أنه بصرف النظر عن التهديدات التقنية، قد يكون هناك ارتفاع كبير في هجمات التصيد الاحتيالي والبريد العشوائي.

    وأضاف: "مع التحسين في أدوات مثل GPT-4 ، يمكن أن يؤدي ظهور هجمات الهندسة الاجتماعية الأكثر تعقيدًا، الناتجة عن المستخدمين في البلدات والمدن الهامشية، إلى خلق قدر هائل من التهديدات الإلكترونية. يمكن لعدد أكبر بكثير من المستخدمين الذين قد لا يجيدون صياغة رسائل تصيد ورسائل غير مرغوب فيها واقعية استخدام واحدة من أدوات الذكاء الاصطناعي العديدة لإنشاء مسودات الهندسة الاجتماعية، مثل انتحال شخصية موظف أو شركة، لاستهداف مستخدمين جدد".

    المصدر: Tech Circle


  •  
    جميع الحقوق محفوظة لمنظمة سام © 2023، تصميم وتطوير