• 12/08/2024
  •  https://dg.samrl.org/l?a5339 
    لقد وصلت آثار الذكاء الاصطناعي إلى هنا – نهاية البداية
    الحقوق الرقمية |

    بواسطة: The Hacker News

    بعد عام جيد من البهجة المستمرة، حانت أخيراً فترة الركود. إنها فترة خفيفة (في الوقت الحالي)، حيث تقوم السوق بتصحيح أسعار أسهم اللاعبين الرئيسيين (مثل إنفيديا ومايكروسوفت وجوجل)، بينما تعيد شركات أخرى تقييم السوق وتعديل الأولويات. وتسميها شركة جارتنر "نقطة خيبة الأمل" ، عندما يتضاءل الاهتمام وتفشل التطبيقات في تحقيق الاختراقات الموعودة. ويفشل منتجو التكنولوجيا أو ينهارون. ولا يستمر الاستثمار إلا إذا قام المزودون الناجون بتحسين منتجاتهم بما يرضي المستخدمين الأوائل.

    دعونا نكون واضحين، كان من المفترض أن يكون هذا هو الحال دائمًا: الثورة ما بعد البشرية التي وعد بها مشجعو الذكاء الاصطناعي لم تكن هدفًا واقعيًا أبدًا، والإثارة المذهلة التي أثارتها برامج النماذج اللغوية الكبيرة المبكرة لم تكن مبنية على نجاح السوق.

    الذكاء الاصطناعي هنا للبقاء
    ولكن ما الذي ينتظر الذكاء الاصطناعي بعد ذلك؟ إذا سارت الأمور على نفس المنوال الذي سارت عليه دورة الضجيج التي ذكرها تقرير جارتنر، فإن الانهيار العميق يتبعه منحدر التنوير حيث تستعيد التكنولوجيا الناضجة موطئ قدمها، وتتبلور الفوائد، ويطرح البائعون منتجات الجيل الثاني والثالث في السوق. وإذا سارت الأمور على ما يرام، فإن ذلك يتبعه هضبة الإنتاجية المقدسة، حيث ينطلق التبني السائد مدفوعا بجاذبية التكنولوجيا الواسعة في السوق. وتصر جارتنر على وجود عدد من الشروط الكبيرة: فليس كل تكنولوجيا محكوما عليها بالتعافي بعد الانهيار، والمهم هو أن يجد المنتج ملاءمته للسوق بسرعة كافية.

    في الوقت الحالي، يبدو من المؤكد تقريبًا أن الذكاء الاصطناعي سيبقى هنا. تعمل شركتا أبل وجوجل على جلب منتجات استهلاكية إلى السوق تعيد تغليف التكنولوجيا في أجزاء أصغر وأكثر قابلية للهضم وسهلة الاستخدام (تحرير الصور، وتحرير النصوص، والبحث المتقدم). وفي حين لا تزال الجودة غير متساوية للغاية، يبدو الأمر كما لو أن بعض اللاعبين على الأقل وجدوا طريقة لتحويل الذكاء الاصطناعي التوليدي إلى منتجات ذات معنى - سواء بالنسبة للمستهلكين أو بالنسبة لنتائجهم المالية.

    ماذا فعلت لنا LLM؟
    حسنًا، أين يترك هذا عملاء المؤسسات - وتطبيقات الأمن السيبراني على وجه الخصوص؟ الحقيقة هي أن الذكاء الاصطناعي التوليدي لا يزال يعاني من عيوب كبيرة تعيق تبنيه على نطاق واسع. أحد هذه العيوب هو الطبيعة غير الحتمية للذكاء الاصطناعي التوليدي. نظرًا لأن التكنولوجيا نفسها تستند إلى نماذج احتمالية (ميزة، وليست خللًا!)، فسيكون هناك تباين في الناتج. قد يخيف هذا بعض المحاربين القدامى في الصناعة الذين يتوقعون سلوكيات برمجيات المدرسة القديمة. وهذا يعني أيضًا أن الذكاء الاصطناعي التوليدي لن يكون بديلاً سريعًا للأدوات الحالية - بل إنه بالأحرى تعزيز وزيادة للأدوات الحالية. ومع ذلك، لديه القدرة على العمل كطبقة واحدة من دفاع متعدد الطبقات، وهو ما يصعب على المهاجمين التنبؤ به أيضًا.

    إن العيب الآخر الذي يسبب احتكاكًا في تبني هذه النماذج هو التكلفة. إذ إن تدريب النماذج مكلف للغاية ، ويتم حاليًا نقل هذه التكلفة المرتفعة إلى مستهلكي النماذج. وبالتالي، هناك الكثير من التركيز على خفض تكلفة الاستعلام الواحد. وتَعِد التطورات في الأجهزة، إلى جانب النتائج المذهلة في تحسين النماذج، بانخفاض كبير في استخدام الطاقة لتشغيل نماذج الذكاء الاصطناعي، وهناك توقع معقول بأن (الناتج القائم على النص على الأقل) سيتحول إلى عمل مربح.

    إن النماذج الأرخص والأكثر دقة رائعة، ولكن هناك أيضًا إدراك متزايد بأن مهمة دمج هذه النماذج في سير العمل التنظيمي ستشكل تحديًا كبيرًا. كمجتمع، ليس لدينا بعد الخبرة لمعرفة كيفية دمج تقنيات الذكاء الاصطناعي بكفاءة في ممارسات العمل اليومية. هناك أيضًا مسألة كيف ستتقبل القوى العاملة البشرية الحالية التقنيات الجديدة وتعمل بها. على سبيل المثال، رأينا حالات يفضل فيها العمال والعملاء التفاعل مع نموذج يفضل القدرة على التفسير على الدقة. وجدت دراسة أجرتها كلية الطب بجامعة هارفارد في مارس 2024 أن تأثير مساعدة الذكاء الاصطناعي كان غير متسق ومتنوع عبر عينة اختبار من أطباء الأشعة، مع تحسن أداء بعض أطباء الأشعة باستخدام الذكاء الاصطناعي وتدهوره لدى آخرين. التوصية هي أنه في حين يجب تقديم أدوات الذكاء الاصطناعي إلى الممارسة السريرية، يجب اتباع نهج دقيق وشخصي ومعاير بعناية لضمان نتائج مثالية للمرضى.

    ماذا عن ملاءمة السوق التي ذكرناها سابقًا؟ في حين أن الذكاء الاصطناعي التوليدي لن يحل (على الأرجح) محل المبرمج (بغض النظر عما تدعيه بعض الشركات)، فقد أصبح إنشاء التعليمات البرمجية بمساعدة الذكاء الاصطناعي أداة مفيدة للنماذج الأولية لمجموعة متنوعة من السيناريوهات. وهذا مفيد بالفعل لمتخصصي الأمن السيبراني: التعليمات البرمجية أو التكوين المولد هو نقطة بداية معقولة لبناء شيء ما بسرعة قبل تحسينه.

    التحذير الضخم: تتمتع التكنولوجيا الحالية بفرصة تسريع عمل المحترفين المخضرمين، الذين يمكنهم تصحيح أخطاء النص الناتج (الرمز أو التكوين) وإصلاحه بسرعة. ولكن يمكن أن يكون ذلك كارثيًا بالنسبة للمستخدم الذي ليس من قدامى المحاربين في هذا المجال: هناك دائمًا فرصة لإنشاء تكوين غير آمن أو رمز غير آمن، وإذا شق طريقه إلى الإنتاج، فسيؤدي ذلك إلى خفض موقف الأمن السيبراني للمنظمة. لذا، مثل أي أداة أخرى، يمكن أن تكون مفيدة إذا كنت تعرف ما تفعله، ويمكن أن تؤدي إلى نتائج سلبية إذا لم تكن كذلك.

    وهنا نحتاج إلى التحذير من سمة خاصة واحدة للجيل الحالي من أدوات الذكاء الاصطناعي التوليدي: فهي تبدو واثقة بشكل مخادع عند إعلان النتائج. وحتى لو كان النص خاطئًا بشكل صارخ، فإن جميع الأدوات الحالية تقدمها بطريقة واثقة من نفسها تضلل المستخدمين المبتدئين بسهولة. لذا، ضع في اعتبارك: الكمبيوتر يكذب بشأن مدى ثقته، وأحيانًا يكون مخطئًا جدًا.

    هناك حالة استخدام فعّالة أخرى وهي دعم العملاء، وبشكل أكثر تحديدًا دعم المستوى الأول - القدرة على مساعدة العملاء الذين لا يكلفون أنفسهم عناء قراءة الدليل أو الأسئلة الشائعة المنشورة. يمكن لروبوت المحادثة الحديث الإجابة بشكل معقول على الأسئلة البسيطة، وتوجيه الاستفسارات الأكثر تقدمًا إلى مستويات أعلى من الدعم. وفي حين أن هذا ليس مثاليًا تمامًا من وجهة نظر تجربة العملاء، فإن وفورات التكلفة (خاصة بالنسبة للمؤسسات الكبيرة جدًا التي تضم الكثير من المستخدمين غير المدربين) قد تكون ذات مغزى.

    إن عدم اليقين بشأن كيفية دمج الذكاء الاصطناعي في الأعمال التجارية يشكل نعمة لصناعة الاستشارات الإدارية . على سبيل المثال، تكسب مجموعة بوسطن الاستشارية الآن 20٪ من إيراداتها من المشاريع المتعلقة بالذكاء الاصطناعي بينما تتوقع ماكينزي أن يأتي 40٪ من إيراداتها من مشاريع الذكاء الاصطناعي هذا العام. كما تشارك شركات استشارية أخرى مثل IBM و Accenture. المشاريع التجارية متنوعة للغاية: تسهيل ترجمة الإعلانات من لغة إلى أخرى، وتعزيز البحث عن المشتريات عند تقييم الموردين، ودردشة خدمة العملاء المعززة التي تتجنب الهلوسة وتتضمن إشارات إلى المصادر لتعزيز الجدارة بالثقة. على الرغم من أن 200 فقط من 5000 استفسار من العملاء تمر عبر Chatbot في ING، فمن المتوقع أن يزداد هذا مع زيادة جودة الردود. وعلى غرار تطور البحث على الإنترنت، يمكن للمرء أن يتخيل نقطة تحول حيث يصبح رد فعل انفعالي "اسأل الروبوت" بدلاً من الخوض في مستنقع البيانات.

    يجب على حوكمة الذكاء الاصطناعي أن تعالج مخاوف الأمن السيبراني
    وبغض النظر عن حالات الاستخدام المحددة، فإن أدوات الذكاء الاصطناعي الجديدة تجلب مجموعة كاملة جديدة من مشكلات الأمن السيبراني. فمثلها كمثل أتمتة العمليات الروبوتية في الماضي، تحتاج برامج المحادثة التي تتعامل مع العملاء إلى هويات آلية مع إمكانية وصول مناسبة ومتميزة في بعض الأحيان إلى أنظمة الشركات. على سبيل المثال، قد تحتاج برامج المحادثة إلى القدرة على تحديد هوية العميل وسحب بعض السجلات من نظام إدارة علاقات العملاء ــ وهو ما ينبغي أن يثير على الفور مخاوف خبراء إدارة الهوية والوصول. وسوف يشكل تحديد ضوابط وصول دقيقة حول هذه التكنولوجيا التجريبية جانباً رئيسياً من عملية التنفيذ.

    وينطبق الأمر نفسه على أدوات توليد التعليمات البرمجية المستخدمة في عمليات التطوير أو التطوير التشغيلي: فضبط الوصول الصحيح إلى مستودع التعليمات البرمجية من شأنه أن يحد من دائرة الانفجار في حالة حدوث خطأ ما. كما يقلل من تأثير الاختراق المحتمل، في حالة تحول أداة الذكاء الاصطناعي نفسها إلى مسؤولية أمنية سيبرانية.

    وبطبيعة الحال، هناك دائماً خطر الطرف الثالث: فمن خلال الاستعانة بمثل هذه الأداة القوية ولكن غير المفهومة إلى حد كبير، تفتح المنظمات نفسها أمام الخصوم الذين يستكشفون حدود تكنولوجيا إدارة قواعد البيانات. وقد يكون الافتقار النسبي إلى النضج هنا مشكلة: فنحن لا نملك بعد أفضل الممارسات لتعزيز أنظمة إدارة قواعد البيانات، لذا فنحن بحاجة إلى التأكد من عدم حصولها على امتيازات الكتابة في الأماكن الحساسة.

    الفرص المتاحة للذكاء الاصطناعي في إدارة الهوية والوصول

    في هذه المرحلة، تتشكل حالات الاستخدام والفرص المتاحة للذكاء الاصطناعي في التحكم في الوصول وإدارة الهوية والوصول ، ويتم تقديمها للعملاء في المنتجات. تتم إعادة النظر في المجالات التقليدية للتعلم الآلي الكلاسيكي مثل استخراج الأدوار وتوصيات الاستحقاق في ضوء الأساليب الحديثة وواجهات المستخدم مع إنشاء الأدوار وتطورها بشكل أكثر إحكامًا في سير عمل الحوكمة وواجهات المستخدم الجاهزة. أصبحت الابتكارات الحديثة المستوحاة من الذكاء الاصطناعي مثل تحليل مجموعات الأقران وتوصيات القرار والحوكمة القائمة على السلوك جزءًا من عالم حوكمة الهوية. يتوقع العملاء الآن أن تقدم تقنيات نقطة الإنفاذ مثل أنظمة إدارة وصول SSO وأنظمة إدارة الحسابات المميزة اكتشاف الشذوذ والتهديدات المدعوم بالذكاء الاصطناعي استنادًا إلى سلوك المستخدم والجلسات.

    بدأت واجهات اللغة الطبيعية في تحسين تجربة المستخدم بشكل كبير عبر كل هذه الفئات من حلول إدارة الهوية والوصول من خلال السماح بالتبادلات التفاعلية باللغة الطبيعية مع النظام. ما زلنا بحاجة إلى تقارير ولوحات معلومات ثابتة، ولكن قدرة الأشخاص ذوي المسؤوليات والاحتياجات المختلفة على التعبير عن أنفسهم باللغة الطبيعية وتحسين نتائج البحث بشكل تفاعلي تقلل من المهارات والتدريب اللازمين لضمان تحقيق المؤسسات للقيمة من هذه الأنظمة.

    هذه هي نهاية البداية
    هناك أمر واحد مؤكد: أياً كانت حالة تكنولوجيا الذكاء الاصطناعي في منتصف عام 2024، فلن يكون ذلك نهاية هذا المجال. إن الذكاء الاصطناعي التوليدي ودرجات الماجستير في القانون ليست سوى مجال فرعي واحد من الذكاء الاصطناعي، مع تحقيق العديد من المجالات الأخرى المرتبطة بالذكاء الاصطناعي تقدماً سريعاً بفضل التقدم في الأجهزة والتمويل البحثي السخي من الحكومة والقطاع الخاص.

    وبغض النظر عن الشكل الذي قد تتخذه الذكاء الاصطناعي الناضج الجاهز للاستخدام في المؤسسات، يتعين على خبراء الأمن بالفعل أن يأخذوا في الاعتبار الفوائد المحتملة التي يمكن أن يجلبها الذكاء الاصطناعي التوليدي إلى وضعهم الدفاعي، وما يمكن أن تفعله هذه الأدوات لاختراق الدفاعات الحالية، وكيف يمكننا احتواء دائرة الانفجار إذا فشلت التجربة.

    ملاحظة: هذه المقالة المكتوبة بخبرة ساهم بها روبرت بيرن، الاستراتيجي الميداني في شركة One Identity. يتمتع روب بخبرة تزيد عن 15 عامًا في مجال تكنولوجيا المعلومات، حيث شغل مناصب مختلفة مثل التطوير والاستشارات والمبيعات الفنية. ركزت حياته المهنية بشكل أساسي على إدارة الهوية. قبل الانضمام إلى Quest، عمل روب مع Oracle وSun Microsystems. حصل على درجة البكالوريوس في الرياضيات والحوسبة.
     


  •  
    جميع الحقوق محفوظة لمنظمة سام © 2023، تصميم وتطوير