• 18/03/2024
  •  https://dg.samrl.org/l?a5201 
    دراسة: قد تؤدي مكونات ChatGPT الإضافية التابعة لجهات خارجية إلى عمليات الاستيلاء على الحسابات
    الحقوق الرقمية |

    وجد باحثو الأمن السيبراني أن المكونات الإضافية التابعة لجهات خارجية المتاحة لـ شات جي بي تي OpenAI ChatGPT يمكن أن تكون بمثابة سطح هجوم جديد للجهات الفاعلة التي تسعى إلى الحصول على وصول غير مصرح به إلى البيانات الحساسة.

    وفقًا لبحث جديد نشرته Salt Labs، فإن العيوب الأمنية التي تم العثور عليها مباشرة في ChatGPT وداخل النظام البيئي يمكن أن تسمح للمهاجمين بتثبيت مكونات إضافية ضارة دون موافقة المستخدمين واختطاف الحسابات على مواقع الويب التابعة لجهات خارجية مثل GitHub.

    ملحقات ChatGPT ، كما يوحي الاسم، هي أدوات مصممة للتشغيل فوق نموذج اللغة الكبير (LLM) بهدف الوصول إلى المعلومات الحديثة، أو تشغيل العمليات الحسابية، أو الوصول إلى خدمات الطرف الثالث.

    منذ ذلك الحين، قدمت OpenAI أيضًا GPTs ، وهي إصدارات مخصصة من ChatGPT مصممة لحالات استخدام محددة، مع تقليل تبعيات خدمة الطرف الثالث. اعتبارًا من 19 مارس 2024، لن يتمكن مستخدمو ChatGPT من تثبيت المكونات الإضافية الجديدة أو إنشاء محادثات جديدة باستخدام المكونات الإضافية الحالية.

    تتضمن إحدى العيوب التي اكتشفتها Salt Labs استغلال سير عمل OAuth لخداع المستخدم لتثبيت مكون إضافي عشوائي من خلال الاستفادة من حقيقة أن ChatGPT لا يتحقق من أن المستخدم بدأ بالفعل تثبيت المكون الإضافي.

    وقد يسمح هذا بشكل فعال للجهات الفاعلة في مجال التهديد باعتراض وتسلل جميع البيانات التي تشاركها الضحية، والتي قد تحتوي على معلومات خاصة.

    اكتشفت شركة الأمن السيبراني أيضًا مشكلات في PluginLab يمكن استغلالها كسلاح من قبل جهات التهديد لتنفيذ هجمات الاستيلاء على الحساب بدون نقرة، مما يسمح لهم بالتحكم في حساب المؤسسة على مواقع الويب التابعة لجهات خارجية مثل GitHub والوصول إلى مستودعات التعليمات البرمجية المصدر الخاصة بهم.

    "[نقطة النهاية] 'auth.pluginlab[.]ai/oauth/authorized' لا تقوم بتوثيق الطلب، مما يعني أن المهاجم يمكنه إدخال معرف عضو آخر (ويعرف أيضًا باسم الضحية) والحصول على رمز يمثل الضحية،" باحث أمني وأوضح أفيعاد كرمل. "وباستخدام هذا الرمز، يمكنه استخدام ChatGPT والوصول إلى GitHub الخاص بالضحية."

    يمكن الحصول على معرف العضو الخاص بالضحية عن طريق الاستعلام عن نقطة النهاية "auth.pluginlab[.]ai/members/requestMagicEmailCode." لا يوجد أي دليل على أن أي بيانات مستخدم قد تم اختراقها باستخدام هذا الخلل.

    تم اكتشاف أيضًا في العديد من المكونات الإضافية، بما في ذلك Kesem AI، خطأ في معالجة إعادة توجيه OAuth قد يسمح للمهاجم بسرقة بيانات اعتماد الحساب المرتبطة بالمكون الإضافي نفسه عن طريق إرسال رابط معد خصيصًا للضحية.

    يأتي هذا التطوير بعد أسابيع من قيام Imperva بتفصيل اثنتين من نقاط الضعف في البرمجة النصية عبر المواقع (XSS) في ChatGPT والتي يمكن تقييدها للسيطرة على أي حساب.

    في ديسمبر 2023، أظهر الباحث الأمني ​​يوهان ريبيرجر كيف يمكن للجهات الخبيثة إنشاء نقاط GPT مخصصة يمكنها التصيد الاحتيالي للحصول على بيانات اعتماد المستخدم ونقل البيانات المسروقة إلى خادم خارجي.

    تأتي النتائج أيضًا في أعقاب بحث جديد نُشر هذا الأسبوع حول هجوم قناة جانبية LLM يستخدم طول الرمز كوسيلة سرية لاستخراج الاستجابات المشفرة من مساعدي الذكاء الاصطناعي عبر الويب.

    وقال مختبر أبحاث الذكاء الاصطناعي الهجومي: "تقوم LLMs بإنشاء وإرسال الاستجابات كسلسلة من الرموز المميزة (تشبه الكلمات)، مع نقل كل رمز مميز من الخادم إلى المستخدم عند إنشائه".

    "بينما يتم تشفير هذه العملية، يكشف إرسال الرمز المميز المتسلسل عن قناة جانبية جديدة: القناة الجانبية بطول الرمز المميز. على الرغم من التشفير، يمكن أن يكشف حجم الحزم عن طول الرموز المميزة، مما يسمح للمهاجمين على الشبكة باستنتاج المعلومات الحساسة والسرية التي تتم مشاركتها في محادثات مساعد الذكاء الاصطناعي الخاصة."

    يتم تحقيق ذلك عن طريق هجوم استدلال الرمز المميز المصمم لفك تشفير الاستجابات في حركة المرور المشفرة عن طريق تدريب نموذج LLM قادر على ترجمة تسلسلات طول الرمز المميز إلى نظيراتها الجملية باللغة الطبيعية (أي نص عادي).

    بمعنى آخر، الفكرة الأساسية هي اعتراض استجابات الدردشة في الوقت الفعلي مع مزود LLM، واستخدام رؤوس حزم الشبكة لاستنتاج طول كل رمز مميز، واستخراج مقاطع النص وتحليلها، والاستفادة من LLM المخصص لاستنتاج الاستجابة.

    هناك شرطان أساسيان لتنفيذ الهجوم، وهما وجود عميل دردشة يعمل بالذكاء الاصطناعي يعمل في وضع البث وخصم قادر على التقاط حركة مرور الشبكة بين العميل وروبوت الدردشة المدعم بالذكاء الاصطناعي.

    لمواجهة فعالية هجوم القناة الجانبية، يوصى بأن تقوم الشركات التي تطور مساعدي الذكاء الاصطناعي بتطبيق حشوة عشوائية لإخفاء الطول الفعلي للرموز المميزة، ونقل الرموز المميزة في مجموعات أكبر بدلاً من فردية، وإرسال استجابات كاملة مرة واحدة، بدلاً من إرسالها بشكل فردي. أزياء رمزية تلو الأخرى.

    وخلص الباحثون إلى أن "الموازنة بين الأمان وسهولة الاستخدام والأداء تمثل تحديًا معقدًا يتطلب دراسة متأنية".

    المصدر: The Hacker News


  •  
    جميع الحقوق محفوظة لمنظمة سام © 2023، تصميم وتطوير