• 29/05/2023
  •  https://dg.samrl.org/l?a4812 
    استدلال العضوية وتسمم البيانات.. هجمات جديدة تستهدف تطبيقات الذكاء الاصطناعي
    الحقوق الرقمية |

    نحن نعيش في عصر الذكاء الاصطناعي (AI)، ولا يقتصر تأثير هذه التقنية على أدوات مثل ChatGPT أو Google Bard. يُحدث الذكاء الاصطناعي ثورة في العديد من القطاعات في جميع أنحاء العالم حيث تستفيد الشركات من قوة التعلم الآلي (ML) لتفريغ الأنشطة الرئيسية في تطبيقات الذكاء الاصطناعي لتحقيق كفاءة أفضل. ومع ذلك، في الوقت نفسه، لم يفلت الاعتماد الواسع على هذه الأدوات من انتباه المهاجمين السيبرانيين، إذ بدأت أنواع جديدة من الهجمات التي تستهدف تطبيقات الذكاء الاصطناعي في الظهور.

    في هذه المقالة، نتطرق لهجومين يستهدفان بشكل خاص آلية عمل التطبيقات المستندة إلى الذكاء الاصطناعي وكيف يمكنها استغلال الأعمال الداخلية لهذه التطبيقات، بما يسمى هجمات استدلال العضوية وهجمات تسمم البيانات.

    استدلال العضوية
    يجب أن نفهم كيفية عمل تطبيقات التعلم الآلي لفهم هجمات استدلال العضوية. يتم تدريب هذه التطبيقات على كمية هائلة من البيانات للتنبؤ بالنتائج المستقبلية واتخاذ القرارات. يمكن أن تكون هذه البيانات حساسة للغاية، مثل استخدام تطبيقات الذكاء الاصطناعي في قطاعات مثل الرعاية الصحية والمدفوعات والخدمات الحكومية وما إلى ذلك.

    في هجوم استدلال العضوية، يكون هدف المهاجم هو معرفة ما إذا تم استخدام مجموعة بيانات معينة في التدريب. إذا نجح المهاجم، فقد يكون لذلك آثار كبيرة على الخصوصية، مثل تمكين المهاجم من معرفة ما إذا تم استخدام وجه معين في تطبيق التعرف على الوجه أو ما إذا كان شخص ما متورطًا في إجراء طبي معين.

    لا توفر معظم تطبيقات الذكاء الاصطناعي هذه البيانات ولكنها تستجيب بنتائج الثقة عند الاستعلام عنها. من خلال الاستعلام باستمرار عن نموذج التعلم الآلي ومراقبة مستوى درجات الثقة التي يتم إنشاؤها، يمكن للمهاجمين تجميع نوع البيانات التي تم استخدامها في التدريب.

    هذا الهجوم فريد من نوعه في كيفية إساءة استخدامه لطبيعة تطبيقات الذكاء الاصطناعي وكيفية اعتمادها على البيانات لاتخاذ قراراتها. يمكن للمهاجم استنتاج الاختلافات عند إعطاء النموذج البيانات التي تم تدريبه عليها مقابل البيانات التي لا يتعرف عليها ويبني هذا النمط بمرور الوقت.

    هجمات تسمم البيانات
    إذا هاجم استدلال العضوية خصوصية وسرية تطبيق التعلم الآلي، فإن النوع التالي من الهجوم، تسمم البيانات، يستهدف النزاهة.

    كما ذكرنا سابقًا، يحتاج التعلم الآلي إلى البيانات والكثير منها. تعد دقة هذه البيانات وأمنها أمرًا بالغ الأهمية لأن ذلك سيشكل أساس تدريبها ويؤثر على كيفية اتخاذ القرارات في المستقبل. في هذا النوع من الهجمات يسمم المهاجم البيانات المستخدمة للتدريب لإفساد آلية قيام التطبيق بعمل تنبؤات أو قرارات مستقبلية.

    تخيل برنامجًا لمكافحة البرامج الضارة تم تدريبه على التعرف على سلوك معين، وقام أحد المهاجمين بإدخال الكود الضار الخاص به في مجموعة بيانات السلوك "المعتمد". قد يعني ذلك نظريًا أن برنامج مكافحة البرامج الضارة لن يقوم أبدًا بالإبلاغ عن هذا الرمز الخبيث مما يمنح المهاجم بابًا خلفيًا لمهاجمة أي شركة تستخدم هذا المنتج! أو إتلاف مجموعة بيانات مستخدمة بواسطة برامج التعلم الآلي الأخرى عمداً مما يتسبب في حدوث فوضى واسعة النطاق.

    يمكن للمهاجم أن يخطئ في تسمية مجموعة بيانات التدريب المستخدمة للسيارات ذاتية القيادة، مما يجعله يخطئ في التعرف على الأشياء والمدنيين على حد سواء، مما يؤدي إلى الإصابة أو حتى فقدان الأرواح. سواء كان الهدف هو "خداع" تطبيق الذكاء الاصطناعي أو إضعاف أدائه، يمكن أن يكون لتسمم البيانات آثار أمنية عميقة على الشركات التي تستخدمها.

    يتم تضخيم المخاطر من خلال حقيقة أن معظم الشركات لا تنشئ مجموعات بيانات تدريبية من البداية ولكنها تعتمد على مخازن البيانات المدربة مسبقًا والتي يتم مشاركتها بين آلاف الشركات. إذا تمكن المهاجم من تسميم تجمع البيانات هذه، فقد يفسد عملية صنع القرار في جميع هذه الشركات.

    الحماية من هذه الهجمات
    تتطلب الهجمات الجديدة أنواعًا جديدة من الضوابط، ويجب على متخصصي الأمن السيبراني تحسين مهاراتهم فيما يتعلق بهذه التهديدات الجديدة.

    بعض الضوابط الأساسية التي يمكن تنفيذها هي:
    بالنسبة لاستدلال العضوية
    : إضافة "تشويش" إلى الاستجابات التي قدمها النموذج يجعل من الصعب على المهاجمين التفرقة بين الردود الفردية التي تخبرهم بالبيانات التي تم استخدامها لتدريب النموذج. هذا مشابه لكيفية تنقيح المخرجات في هجمات تطبيقات الويب بحيث لا تعطي رموز الخطأ الكثير من المعلومات. يمكن أيضًا تنفيذ عناصر تحكم أمنية أخرى، مثل التنبيهات في حالة حدوث استعلام مفرط من مكان واحد، مما قد يشير إلى أن المهاجم يحاول ارتكاب هجمات استدلال.

    لتسمم البيانات: يُنصح بتنفيذ ضوابط أمنية قوية ضد مخازن البيانات المستخدمة لأغراض التدريب حتى لا يتمكن المهاجمون من اختراقها. يجب أيضًا اختبار تطبيقات الذكاء الاصطناعي كلما تم تحديثها بحيث يتم تحديد أي تغييرات في السلوك أو اتخاذ القرار على الفور.
    أتطلع قدما
    يجب على محترفي الأمن السيبراني فهم كيفية عمل هذا النوع الجديد من الهجمات والتقنيات الأساسية المستخدمة للتغلب على تطبيقات التعلم الآلي لتكون في وضع يسمح لها بالحماية منها في المستقبل. الذكاء الاصطناعي هو المستقبل، وهجمات تطبيقات الذكاء الاصطناعي موجودة هنا لتقولها. مع تطور الهجمات الإلكترونية، يجب أن تتطور ضوابط الأمان معها وأن تتكيف وفقًا لذلك.

    ما هو هجوم استدلال العضوية؟
    هجوم استنتاج العضوية هو خرق للخصوصية حيث يحاول المهاجم تحديد ما إذا كان قد تم استخدام سجل بيانات معين لتدريب نموذج ذكاء اصطناعي. في حالة نجاح ذلك، يمكن أن يكشف هذا عن معلومات حساسة عن الأفراد.

    كيف يعمل هجوم استدلال العضوية؟
    تستغل هجمات استدلال العضوية ميل نماذج الذكاء الاصطناعي إلى الإفراط في تزويد بيانات التدريب الخاصة بها. يمكن للمهاجم أن يستنتج ما إذا كانت نقطة البيانات جزءًا من مجموعة التدريب من خلال ملاحظة الاختلافات في سلوك النموذج للبيانات التي تم تدريبها عليها مقابل البيانات غير المرئية.

    ما هو هجوم تسمم البيانات؟
    هجوم تسمم البيانات هو نوع من التهديد السيبراني حيث يتلاعب المهاجم ببيانات التدريب لنموذج الذكاء الاصطناعي بقصد التأثير على سلوكه. يمكن أن يؤدي حقن البيانات الضارة إلى قيام النموذج بعمل تنبؤات أو قرارات غير صحيحة.

    ما هي أنواع هجمات تسمم البيانات؟
    هناك نوعان رئيسيان من هجمات تسمم البيانات: استهدافي واستكشافي. في الهجمات المستهدفة، يهدف المهاجم إلى التلاعب بتوقعات محددة. في الهجمات الاستكشافية، الهدف هو إضعاف الأداء العام للنموذج.

    المصدر: تيمور إجلال | Your Cyber Tips


  •  
    جميع الحقوق محفوظة لمنظمة سام © 2023، تصميم وتطوير