• 28/01/2023
  •  https://dg.samrl.org/l?a4693 
    ChatGPT يساعد الهاكرز على كتابة أكواد ضارة لسرقة بياناتك الشخصية
    الحقوق الرقمية |

    أي تقنية لها وجهان، وبرنامج الذكاء الاصطناعي تشات جي بي تي ChatGPT  - من تطوير أوبن إيه آي Open AI المملوكة لشركة Microsoft- ليس استثناءًا. هذا البرنامج الذي فتح باب الشرور، بالنظر إلى استخدامه اللامحدود إيجابيًا كان أو سيئًا. 

    في حين أنه حظيَ بشعبية كبيرة على وسائل التواصل الاجتماعي، في وقت قياسي، فقد انضم الهاكرز إلى المشهد، في محاولة لإساءة استخدام قدرات البرنامج في إنشاء أكواد ضارة، والتي تمكنهم من تنفيذ اختراقات لأجهزة المستخدمين.

    كشفت شركة شك بوينت ريسيرش  (CPR) للأمن السيبراني عن محاولات من قبل مجرمي الإنترنت الروس لتجاوز قيود OpenAI، من أجل استخدام تشات جي بي تي ChatGPT لأغراض ضارة.

    في منتديات القرصنة السرية، يناقش الهاكرز كيفية التحايل على عناوين آي بي IP وبطاقات الدفع وعناصر التحكم في أرقام الهواتف -وكلها ضرورية للوصول إلى ChatGPT- من روسيا.

    شارك الباحثون في CPR لقطات شاشة لما رأوه، وحذروا من اهتمام المتسللين المتزايد باطراد بـ تشات جي بي تيChatGPT في مسعى منهم لتوسيع نطاق النشاط الضار للبرنامج.

    حذر سيرجي شيكيفيتش، مدير مجموعة استخبارات التهديدات في شك بوينت Check Point من أن "متسللين روس يناقشون بالفعل ويتحققون في الوقت الحالي من كيفية تجاوز الإطار الجغرافي لاستخدام ChatGPT لأغراضهم الضارة. "نعتقد أن هؤلاء المتسللين يحاولون على الأرجح استخدام ChatGPT في عملياتهم الإجرامية اليومية". يقول شيكيفيتش.

    يزداد اهتمام مجرمي الإنترنت بـ ChatGPT، لأن تقنية الذكاء الاصطناعي الكامنة وراءه يمكن أن تجعل المتسلل أكثر فعالية من حيث التكلفة. تمامًا كما يمكن استخدام ChatGPT لمساعدة المطورين في كتابة التعليمات البرمجية، يمكن أيضًا استخدامه لأغراض ضارة.

    في 29 كانون الأول (ديسمبر)، ظهر موضوع باسم "تشات جي بي تي - فوائد البرمجيات الخبيثة" ChatGPT - Benefits of Malware، ظهر في منتدى قرصنة شهير في الويب المظلم. كشف ناشر الموضوع أنه كان يختبر ChatGPT لإعادة إنشاء سلالات وتقنيات البرامج الضارة الموضحة في "المنشورات البحثية والكتابات" حول البرامج الضارة الشائعة.

    في 21 كانون الأول (ديسمبر)، نشر أحد ممثلي التهديد نصًا بلغة بايثون، أكد أنه "أول سيناريو ابتكره على الإطلاق". عندما علق مجرم إلكتروني آخر بأن نمط الكود يشبه كود OpenAI، أكد المخترق أن OpenAI ساعدتهم من دون قصد في وضع اللمسة الأخيرة للنص البرمجي.

    قد يعني هذا أن مجرمي الإنترنت المحتملين الذين لا يمتلكون سوى القليل من المهارات الشخصية الاستفادة من ChatGPT لتطوير أدوات ضارة والتحول إلى مجرمين إلكترونيين ذوي قدرات تقنية متكاملة.

    تهديد آخر هو أنه يمكن استخدام ChatGPT لنشر معلومات مضللة وأخبار مزيفة، ومع ذلك، فإن OpenAI في حالة تأهب بالفعل على هذه الجبهة.

    تعاون باحثوها مع مركز الأمن والتكنولوجيا الناشئة بجامعة جورجتاون ومرصد ستانفورد للإنترنت في الولايات المتحدة للتحقيق في كيفية إساءة استخدام النماذج اللغوية الفائقة -التي يتم إنشاؤها بناءً على المعرفة المكتسبة من مجموعات البيانات الضخمة- لأغراض التضليل.

    مع تحسن نماذج اللغة التوليدية -يتضمن النموذج التوليدي توزيع البيانات نفسها، ويخبرك بمدى احتمالية وجود مثال معين-، فإنها تفتح إمكانيات جديدة في مجالات متنوعة مثل الرعاية الصحية والقانون والتعليم والعلوم. 

    ولكن، كما هو الحال مع أي تقنية جديدة، يجدر النظر في كيفية إساءة استخدامها، إذا ما أخذنا في الاعتبار  التأثير المتكرر على الإنترنت للعمليات السرية أو الجهود الخادعة التي تهدف للتأثير على آراء الجمهور"، وفقًا لما جاء في أحدث تقرير يستند إلى ورشة عمل جمعت بين 30 باحثًا في مجال المعلومات المضللة وخبراء التعلم الآلي ومحللي السياسات.

    يضيف التقرير: "نعتقد أنه من الأهمية بمكان تحليل تهديد عمليات التأثير المدعومة بالذكاء الاصطناعي وتحديد الخطوات التي يمكن اتخاذها قبل استخدام النماذج اللغوية لعمليات التأثير على نطاق واسع".


    المصدر: Businessi Insider | ترجمة بتصرف - مشروع الحقوق الرقمية


  •  
    جميع الحقوق محفوظة لمنظمة سام © 2023، تصميم وتطوير