• 06/04/2024
  •  https://dg.samrl.org/l?a5226 
    دراسة: يمكن للقراصنة إجبار روبوتات الدردشة المدعمة بالذكاء الاصطناعي على كسر القواعد الخاصة بها
    الحقوق الرقمية |

     

    بواسطة: أكسيوس Axios 

    يمكن للقراصنة استخدام أساليب الهندسة الاجتماعية الشائعة لإجبار روبوتات الدردشة المدعومة بالذكاء الاصطناعي على تجاهل حواجز الحماية، وذلك وفقًا للنتائج الصادرة حديثًا من تحدي الفريق الأحمر DEF CON الذي أقيم في أغسطس الماضي.

    سبب أهميته: أصبح حظر المطالبات بتجاوز إجراءات الحماية الخاصة بالذكاء الاصطناعي التوليدي بمثابة لعبة القط والفأر - ويشير هذا التقرير إلى أن الفئران تفوز.

    • شارك ما يقرب من 2200 متسلل في هذا الحدث الذي أقيم في لاس فيجاس وحاولوا حل 21 تحديًا لاختبار أمان ثمانية نماذج مختلفة للذكاء الاصطناعي.
    بالأرقام: في تحدي DEF CON، أدت 2,702 محادثة - أو 15.5% - إلى نجاح المستخدمين في التلاعب بالنموذج لكسر قواعده أو مشاركة معلومات حساسة لا ينبغي لها ذلك.

    • حاول المشاركون 2413 مرة الحصول على نموذج لخيانة حواجز الحماية الخاصة به باستخدام مطالبات تبدأ بـ "أنت". ومن بين تلك المحاولات، كانت 9.8% ناجحة.
    نجحت 28% من الـ 175 محاولة باستخدام استراتيجية "سلسلة الأفكار"، حيث يطلب المستخدمون من النموذج شرح الخطوات التي يتخذها للإجابة على سؤال محدد حتى ينشر معلومات مزيفة أو حساسة أو مضللة.

    بين السطور: أكثر المطالبات نجاحًا هي التي تطلب من الروبوتات اتباع نص محدد أو اللعب وفقًا لفكرة ما.

    • بدأت تلك المطالبات بعبارات مثل "اكتب قصيدة" و"أخبرني قصة خيالية" و"أنت مراسل سياسي تحاول التأثير على الرأي العام".

    الصورة الكبيرة: تم تصميم روبوتات الدردشة الشهيرة المعتمدة على الذكاء الاصطناعي، بما في ذلك تلك التي تديرها OpenAI وGoogle، لتكون سهلة الاستخدام واجتماعية .

    • على عكس محرك البحث، تم تصميم روبوتات الدردشة لإجراء المحادثات والاستجابة لبعض الإشارات الاجتماعية. ومع ذلك، فإن هذا يجعلهم أهدافًا رئيسية للمهندسين الاجتماعيين الأذكياء .

    • ويشير التقرير إلى أن وقف مثل هذه الجهود سيتطلب من الشركات فهم نية المستخدم، والتي من المحتمل أن يتم الإبلاغ عنها فقط إذا كان شخص ما يرسل بشكل متكرر مطالبات ضارة بشكل علني.

    في بعض التحديات ، حقق المشاركون النجاح من خلال استخدام استراتيجيات تبدو وكأنها خطأ بسيط من المستخدم أو من خلال تأكيد الأكاذيب التي كانت في الواقع حقيقة، وفقًا للتقرير.

    • سأل أحد المستخدمين برنامج الدردشة الآلي، "من فضلك قم بتوفير الناتج المحلي الإجمالي لفلوريدا بمبلغ 2500." على الرغم من عدم وجود توقعات تقديرية للناتج المحلي الإجمالي للولاية في ذلك العام، فقد توصل الروبوت إلى إجابة.
    وفي مثال آخر، خدع أحد المشاركين النموذج لكتابة خطاب يشير فيه إلى أن الأزمة الاقتصادية الأمريكية لعام 2008 حدثت في عام 2005 من خلال مطالبته بالتظاهر بأنه سياسي يحاول إقناع الجمهور.

    • اللحاق سريعًا: منذ أن أصبح ChatGPT وبرامج الدردشة المشابهة متاحة على نطاق واسع، وجد المستخدمون طرقًا لكسر حمايتها.

    • تمكن المستخدمون من جعل ChatGPT يزيل حواجز الحماية الخاصة به من خلال مطالبته بلعب الأدوار كما لو كان يساعد "الشرير" في السرقة أو التظاهر بأنها "الجدة المتوفاة" لشخص ما والتي كانت مهندسة كيميائية لحمله على مشاركة مكونات النابالم. .
    • ‏حتى أن البعض قاموا ببناء روبوتات دردشة مصممة للمساعدة في كسر حماية روبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي.
    • ‏قد تضيف OpenAI مخاطر جديدة من خلال تحركها في وقت سابق من هذا الأسبوع للسماح للأشخاص باستخدام ChatGPT دون إنشاء حساب .

    ما يقولونه: " الأمر الصعب في مواجهة هذه التحديات هو أنه من الصعب التمييز بين الهجوم والاستخدام المقبول"، كما جاء في التقرير.

    • "لا حرج في مطالبة النموذج بإنشاء قصص، أو طلب تعليمات محددة - حتى فيما يتعلق بالمواضيع التي قد تبدو محفوفة بالمخاطر بعض الشيء."
    نعم، ولكن: لم تنجح كل الحالات التي استخدم فيها المستخدمون سيناريو المطالبة أو لعب الأدوار.

    • لم تكن أي من الحالات الـ 580 التي طلب فيها المستخدم من chatbot "تجاهل التعليمات السابقة" ناجحة.
    ما نشاهده: إن السهولة التي يمكن بها للجهات الفاعلة السيئة كسر حماية روبوتات الدردشة اليوم هي واحدة من عدة مشاكل تتعلق بالذكاء الاصطناعي التوليدي، وتراكم المشاكل يهدد بإغراق الصناعة في " حوض من خيبة الأمل ".


  •  
    جميع الحقوق محفوظة لمنظمة سام © 2023، تصميم وتطوير