يعتقد ستة وسبعون بالمائة (76%) من المتخصصين في مجال الأمن السيبراني أن العالم قريب جدًا من مواجهة الذكاء الاصطناعي الخبيث (AI) الذي يمكنه تجاوز معظم تدابير الأمن السيبراني المعروفة. ويرى أكثر من الربع (26%) أن هذا سيحدث خلال العام المقبل، و50% خلال السنوات الخمس المقبلة. من المرجح أن تصبح عمليات التصيد الاحتيالي وتكتيكات الهندسة الاجتماعية وهجمات البرامج الضارة أكثر خطورة مع استخدام الذكاء الاصطناعي.
هذه بعض النتائج المثيرة للقلق التي توصلت إليها دراسة عالمية جديدة لمحترفي تكنولوجيا المعلومات والأمن السيبراني أجرتها شركة الأبحاث Cybersecurity Insiders، والمفصلة في تقرير "الذكاء الاصطناعي في الأمن السيبراني".
بالإضافة إلى القلق بشأن تفوق الذكاء الاصطناعي الهجومي على الذكاء الاصطناعي الدفاعي، أعرب 77% من المهنيين عن مخاوف جدية بشأن الذكاء الاصطناعي المارق، حيث ينحرف سلوك الذكاء الاصطناعي بعيدًا عن غرضه أو أهدافه المقصودة ويصبح خطيرًا وغير قابل للتنبؤ به. يُنظر إلى هجمات التصيد الاحتيالي والهندسة الاجتماعية والبرامج الضارة على أنها أهم التهديدات التي سيتم تعزيزها بواسطة الذكاء الاصطناعي، ولكن من المرجح أيضًا أن تصبح هجمات الاحتيال في الهوية وانتهاكات خصوصية البيانات وهجمات حجب الخدمة الموزعة (DDoS) أكثر فعالية.
مع ذلك، فإن المشاركين في الاستطلاع متفائلون بشأن التأثير الإيجابي للذكاء الاصطناعي على الأمن السيبراني. ومن المتوقع أن يعزز الذكاء الاصطناعي عمليات اكتشاف التهديدات وتقييمات الضعف، مع تحديد كشف التسلل ومنعه باعتباره المجال الأكثر احتمالاً للاستفادة من الذكاء الاصطناعي. يحمل التعلم العميق لاكتشاف البرامج الضارة في حركة المرور المشفرة الوعد الأكبر، حيث يتوقع 48% من متخصصي الأمن السيبراني تأثيرًا إيجابيًا من الذكاء الاصطناعي. وبرزت وفورات التكاليف باعتبارها أهم مؤشرات الأداء الرئيسية لقياس نجاح الدفاعات المعززة بالذكاء الاصطناعي، في حين يعتقد 72% من المشاركين أن أتمتة الذكاء الاصطناعي ستلعب دورًا رئيسيًا في التخفيف من النقص في المواهب في مجال الأمن السيبراني.
وبشأن الخطوات التي يجب على المؤسسات اتخاذها للاستعداد لهجمات الذكاء الاصطناعي المعقدة أو الساحقة، أشار 68% من الخبراء إلى زيادة التدريب والوعي بالأمن السيبراني للموظفين.
ويأتي تطوير خطط الاستجابة للحوادث الخاصة بالذكاء الاصطناعي في المرتبة التالية مباشرة (65%)، وذكر 61% التقييمات والتدقيقات الأمنية المنتظمة. قال أكثر من نصف المشاركين في الاستطلاع إن تعزيز الضوابط الأمنية التقليدية مثل بروتوكولات الثقة المعدومة، والمصادقة متعددة العوامل، وجدران الحماية من الجيل التالي، واستخبارات التهديدات كانت أساسية للتحضير لهجمات الذكاء الاصطناعي المتطورة.
قالت لورا ويلبر، كبيرة محللي الصناعة في Enea: "إن فهم التأثير العميق للذكاء الاصطناعي على الأمن السيبراني أمر بالغ الأهمية للتعامل مع مشهد التهديدات المتطور. ويبدأ ذلك من خلال الاستماع عن كثب إلى مخاوف وآمال قادة الأمن السيبراني وفرقهم في المقدمة."
يؤكد هذا التقرير المخاوف المتزايدة بشأن الاستخدام الضار للذكاء الاصطناعي، ولكنه يسلط الضوء أيضًا على بعض الابتكارات الرائعة في استخدام الذكاء الاصطناعي لتبسيط الدفاعات وأتمتتها. وقد تم بالفعل تحقيق مكاسب كبيرة، مثل تقليل متوسط الوقت المستغرق لاكتشاف التهديدات واحتوائها. ومع ذلك، فإن الذكاء الاصطناعي ليس حلاً واحدًا يناسب الجميع - فمن الضروري أن تتخذ الشركات نهجًا واضحًا ومنهجيًا لتنفيذ استراتيجيات الذكاء الاصطناعي من أجل تحقيق أقصى قدر من الاستعداد والمرونة.
المصدر: Inea