تعرض بيانات الأشخاص للخطر وقد يسيء المهاجمون استخدامها..
  • 29/07/2023
  •  https://dg.samrl.org/l?a4890 
    باحثون: المكونات الإضافية في شات جي بي تي تحمل مخاطر أمنية
    الحقوق الرقمية |

    تعمل المكونات الإضافية لجهات خارجية على تعزيز قدرات ChatGPT. لكن الباحثين الأمنيين يقولون إنها تشكل طبقة إضافية من المخاطر.

    على مدار الأشهر الثمانية الماضية، أثار ChatGPT إعجاب الملايين من الأشخاص بقدرته على إنشاء نص ذي مظهر واقعي، وكتابة كل شيء من القصص إلى الكود. لكن الشات بوت، الذي طورته شركة OpenAI، لا يزال محدودًا نسبيًا فيما يمكنه القيام به.

    يأخذ نموذج اللغة الكبيرة (LLM) "المطالبات" من المستخدمين التي يستخدمها لإنشاء نص مرتبط ظاهريًا. يتم إنشاء هذه الردود جزئيًا من البيانات المأخوذة من الإنترنت حتى سبتمبر 2021، ولا تسحب بيانات جديدة من الويب. أدخل المكونات الإضافية، التي تضيف وظائف ولكنها متاحة فقط للأشخاص الذين يدفعون مقابل الوصول إلى GPT-4، الإصدار المحدث من نموذج OpenAI.

    منذ أن أطلقت OpenAI المكونات الإضافية لـ ChatGPT في آذار (مارس)، تسابق المطورون لإنشاء ونشر المكونات الإضافية التي تسمح لـ chatbot بفعل المزيد. تتيح لك المكونات الإضافية الحالية البحث عن الرحلات الجوية والتخطيط للرحلات، وجعلها تتيح لـ ChatGPT الوصول إلى النصوص الموجودة على مواقع الويب وفي المستندات وفي مقاطع الفيديو وتحليلها. تعد المكونات الإضافية الأخرى أكثر تخصصًا، حيث تعدك بالقدرة على الدردشة مع دليل مالك Tesla أو البحث في الخطابات السياسية البريطانية. يوجد حاليًا أكثر من 100 صفحة من المكونات الإضافية المدرجة في متجر المكونات الإضافية في ChatGPT.

    ولكن وسط انفجار هذه الإضافات، يقول باحثو الأمن إن هناك بعض المشكلات في طريقة عمل المكونات الإضافية، والتي يمكن أن تعرض بيانات الأشخاص للخطر أو من المحتمل أن يسيء المتسللون الضارون استخدامها.

    يوهان ريبرغر، مدير الفريق الأحمر في Electronic Arts وباحث الأمان، يوثق المشكلات المتعلقة بالمكونات الإضافية لـ ChatGPT في أوقات فراغه. قام الباحث بتوثيق كيف يمكن استخدام مكونات ChatGPT الإضافية لسرقة محفوظات الدردشة لشخص ما، والحصول على معلومات شخصية، والسماح بتنفيذ التعليمات البرمجية عن بُعد على جهاز شخص ما. لقد كان يركز في الغالب على المكونات الإضافية التي تستخدم OAuth، وهو معيار ويب يسمح لك بمشاركة البيانات عبر الحسابات عبر الإنترنت. يقول Rehberger إنه كان على اتصال بشكل خاص مع حوالي نصف دزينة من مطوري المكونات الإضافية لإثارة المشكلات ، وقد اتصل بـ OpenAI عدة مرات.

    يقول Rehberger: "لا يمكن لـ ChatGPT الوثوق بالمكون الإضافي". "لا يمكنه في الأساس الوثوق بما يعود من المكون الإضافي لأنه يمكن أن يكون أي شيء." يمكن أن يحاول موقع ويب أو مستند ضار، من خلال استخدام مكون إضافي، تشغيل هجوم حقن سريع ضد نموذج اللغة الكبير (LLM). أو يمكن أن يدخل حمولات ضارة، كما يقول ريبرغر.

    "من المحتمل أن تمنحها مفاتيح المملكة - الوصول إلى قواعد البيانات والأنظمة الأخرى الخاصة بك."
    ستيف ويلسون، مدير المنتج في شركة Contrast Security

    يقول الباحث إنه من المحتمل أيضًا أن تتم سرقة البيانات من خلال تزوير طلبات المكونات الإضافية. يمكن أن يشتمل موقع الويب على حقنة فورية تجعل ChatGPT يفتح مكونًا إضافيًا آخر ويقوم بإجراءات إضافية، والتي أظهرها من خلال إثبات المفهوم. يسمي الباحثون هذا "التسلسل"، حيث يقوم أحد المكونات الإضافية باستدعاء آخر للعمل. يقول Rehberger: "لا توجد حدود أمنية حقيقية" داخل مكونات ChatGPT الإضافية. "لم يتم تحديده جيدًا ، ما هو الأمان والثقة، وما هي المسؤوليات الفعلية [هي] لكل صاحب مصلحة."

    منذ إطلاقها في آذار (مارس)، كانت المكونات الإضافية لـ ChatGPT في مرحلة تجريبية - وهي في الأساس نسخة تجريبية مبكرة. عند استخدام المكونات الإضافية في ChatGPT، يحذر النظام من أن الأشخاص يجب أن يثقوا في المكون الإضافي قبل استخدامه، وأنه لكي يعمل المكون الإضافي، قد يحتاج ChatGPT إلى إرسال محادثتك وبيانات أخرى إلى المكون الإضافي.

    يقول نيكو فيليكس، المتحدث باسم OpenAI، إن الشركة تعمل على تحسين ChatGPT ضد "الثغرات" التي يمكن أن تؤدي إلى إساءة استخدام نظامها. تقوم حاليًا بمراجعة المكونات الإضافية قبل تضمينها في متجرها. في منشور مدونة في يونيو، قالت الشركة إنها شاهدت بحثًا يوضح كيف أن "البيانات غير الموثوقة من مخرجات الأداة يمكن أن توجه النموذج لأداء إجراءات غير مقصودة". وهذا يشجع المطورين على جعل الأشخاص ينقرون على أزرار التأكيد قبل تنفيذ الإجراءات ذات "التأثير الواقعي"، مثل إرسال بريد إلكتروني، بواسطة ChatGPT.

    يقول فيليكس: "بينما يتم تطوير مكونات ChatGPT الإضافية خارجيًا لـ OpenAI، فإننا نهدف إلى توفير مكتبة من المكونات الإضافية لجهات خارجية والتي يمكن لمستخدمينا الوثوق بها"، مضيفًا أنها "تستكشف" طرقًا لجعل المكونات الإضافية أكثر أمانًا للمستخدمين. "على سبيل المثال، تسهيل تقديم تدفق تأكيد المستخدم إذا كان يعتزم المكون الإضافي الخاص بهم اتخاذ إجراء مهم." أزال OpenAI مكونًا إضافيًا واحدًا على الأقل - والذي أنشأ إدخالات على صفحة GitHub للمطور دون طلب إذن المستخدمين - لخرق سياسته التي تتطلب التأكيد قبل اتخاذ أي إجراء.

    على عكس متاجر تطبيقات Apple و Google، لا يبدو أن مكتبة المكونات الإضافية في ChatGPT تسرد حاليًا معلومات بشأن مطوري المكون الإضافي أو تقدم أي معلومات حول كيفية استخدام أي بيانات تم جمعها في المكون الإضافي. يجب على المطورين الذين ينشئون المكونات الإضافية، وفقًا لإرشادات OpenAI، اتباع إرشادات المحتوى الخاصة بها وتقديم ملف بيان، والذي يتضمن معلومات الاتصال لمنشئي المكونات الإضافية، من بين تفاصيل أخرى. عند البحث عن مكون إضافي في ChatGPT وتشغيله، لا يظهر سوى اسمه ووصف قصير وشعار. (يعرض موقع ويب جهة خارجية غير تابع مزيدًا من المعلومات).

    عندما أطلقت OpenAI المكونات الإضافية في مارس، حذر الباحثون من مخاطر الأمان المحتملة والآثار المترتبة على ربط GPT-4 بالويب. ومع ذلك، فإن المشكلات المتعلقة بالمكونات الإضافية لا تقتصر على OpenAI و ChatGPT. تنطبق مخاطر مماثلة على أي LLMs أو أنظمة ذكاء اصطناعي توليدية متصلة بالويب. من الممكن أن تلعب المكونات الإضافية دورًا كبيرًا في الطريقة التي يستخدم بها الأشخاص LLM في المستقبل. قالت Microsoft، التي استثمرت بكثافة في OpenAI ، إنها ستستخدم نفس معايير إنشاء المكونات الإضافية مثل ChatGPT. قال كيفن سكوت، كبير مسؤولي التكنولوجيا في Microsoft في مايو: "أعتقد أنه سيكون هناك في النهاية نظام بيئي غني بشكل لا يصدق من المكونات الإضافية".

    يقول Chang Kawaguchi، نائب رئيس أمن الذكاء الاصطناعي في Microsoft ، إن الشركة تتخذ نهجًا "تكراريًا" لإطلاق دعم المكونات الإضافية في أداة مساعد AI Copilot الخاصة بها. "سنقوم بتوسيع عملياتنا الحالية لنشر عمليات تكامل المنتجات والتحقق منها والمصادقة عليها ونشرها وإدارتها للمكونات الإضافية، لضمان تمتع عملاء Microsoft Copilots بالتحكم الكامل في المكونات الإضافية، والبيانات التي يمكنهم الوصول إليها، و الأشخاص المرخص لهم بنشرها "، كما يقول كاواجوتشي، مضيفًا أن الشركة ستوثق الإرشادات الأمنية وتعمل مع باحثين خارجيين بشأن المشكلات التي يجدونها.

    تدور العديد من المشكلات المتعلقة بالمكونات الإضافية - و LLM على نطاق أوسع - حول الثقة. يتضمن ذلك ما إذا كان بإمكان الأشخاص الوثوق ببياناتهم الخاصة وبيانات الشركة مع الأنظمة وما إذا كانت الضوابط والتدابير موضوعة للتأكد من عدم إمكانية استخدام ما يتم تسليمه أو الوصول إليه بشكل غير صحيح.

    يقول ستيف ويلسون، مدير المنتج في Contrast Security وقائد مشروع يشرح بالتفصيل المخاطر الأمنية مع LLMs: "من المحتمل أن تمنحها مفاتيح المملكة - الوصول إلى قواعد البيانات والأنظمة الأخرى الخاصة بك". اجتمع حوالي 450 خبيرًا في مجال الأمن والذكاء الاصطناعي لإنشاء قائمة بأهم 10 تهديدات أمنية حول LLMs كجزء من مشروع Open Worldwide Application Security Project (OWASP)، وفقًا لما قاله ويلسون، منسق المشروع.

    يقول إن الجهد موجود، حيث يسارع المطورون لإنشاء تطبيقات وخدمات تعمل بنظام LLM. ولكن في الوقت الحالي، هناك القليل من الإرشادات حول ما يتعين عليهم فعله لتأمين ما يقومون بصنعه. يُدرج التهديد الأعلى على أنه هجمات الحقن الفوري (حيث تحاول البيانات الضارة السيطرة على نظام ذكاء اصطناعي) ولكن يتم تضمينه أيضًا في تسمم البيانات ونقاط ضعف سلسلة التوريد. تفرد القائمة أيضًا المكونات الإضافية باعتبارها خطرًا أمنيًا.

    يسرد باحثو OWASP ست طرق محتملة يمكن بها مهاجمة المكونات الإضافية لـ LLM. يتضمن ذلك عناوين URL الضارة التي يتم استخدامها من خلال المكونات الإضافية وهجمات SQL ، ومن خلال السماح للمكونات الإضافية باتخاذ إجراءات دون التحقق من الصحة. تشير المجموعة إلى عدد لا يحصى من الخطوات التي يجب على المطورين اتخاذها لتجنب المخاطر، بما في ذلك التأكد من وجود المصادقة الصحيحة ومنع "استدعاء المكونات الإضافية الحساسة بعد أي مكون إضافي آخر".

    يقول ويلسون أنه بشكل عام، كان يخبر أي شخص يستخدم LLMs العامة ليكون "حذرًا حقًا" بشأن المعلومات التي يضعونها فيها. يقول ويلسون: "لست متأكدًا بالضرورة من كيفية استخدام ذلك، والحفاظ عليه، وربما ارتجاعه في مكان آخر". "هذه المكونات الإضافية، بالتأكيد، تضيف مستوى آخر من التعرض. بالكاد يُفهم الفن المتعلق بتأمين هذه الأشياء، وبالتالي فإن القدرة على تأمينها حقًا غير موجودة حتى الآن".

    بواسطة: مات بورغيس، لموقع وايرد 
    By: Matt Burgess | Wired 


  •  
    جميع الحقوق محفوظة لمنظمة سام © 2023، تصميم وتطوير