• 18/04/2024
  •  https://dg.samrl.org/l?a5237 
    لافندر.. آلة الذكاء الاصطناعي التي توجه موجة القصف الإسرائيلي على غزة
    الحقوق الرقمية |

    وجد تقرير أعده صحفيون استقصائيون مقيمون في القدس ونُشر في مجلة +972 أن أنظمة الاستهداف بالذكاء الاصطناعي لعبت دورًا رئيسيًا في تحديد - وربما الخطأ في التعرف - على عشرات الآلاف من الأهداف في غزة. ويشير هذا إلى أن الحرب المستقلة لم تعد سيناريو مستقبليًا. لقد وصل الأمر بالفعل إلى هنا والعواقب مروعة.

    هناك نوعان من التقنيات المعنية. الأول، "لافندر" ، هو نظام توصيات يعمل بالذكاء الاصطناعي مصمم لاستخدام الخوارزميات لتحديد نشطاء حماس كأهداف.

    والثاني، المسمى بشكل غريب "أين أبي؟" ، هو نظام يتتبع الأهداف جغرافيًا بحيث يمكن متابعتهم إلى مساكن عائلاتهم قبل مهاجمتهم. يشكل هذان النظامان معًا أتمتة لمكونات البحث عن المسار والهدف لما يعرفه الجيش الحديث باسم "سلسلة القتل" .

    أنظمة مثل Lavender ليست أسلحة ذاتية التشغيل، لكنها تعمل على تسريع سلسلة القتل وتجعل عملية القتل أكثر استقلالية بشكل تدريجي. تعتمد أنظمة استهداف الذكاء الاصطناعي على البيانات من أجهزة استشعار الكمبيوتر وغيرها من المصادر لإجراء تقييم إحصائي لما يشكل هدفًا محتملاً. وتقوم المخابرات الإسرائيلية بجمع كميات هائلة من هذه البيانات من خلال مراقبة 2.3 مليون نسمة من سكان غزة.

    ويتم تدريب مثل هذه الأنظمة على مجموعة من البيانات لإنتاج ملف تعريفي لأحد نشطاء حماس. يمكن أن تكون هذه بيانات حول الجنس والعمر والمظهر وأنماط الحركة والعلاقات على الشبكات الاجتماعية والملحقات وغيرها من " الميزات ذات الصلة ". ثم يعملون بعد ذلك على مطابقة الفلسطينيين الفعليين مع هذا الملف الشخصي حسب درجة الملاءمة.

    يمكن تعيين فئة ما يشكل السمات ذات الصلة بالهدف بشكل صارم أو فضفاض حسب الرغبة. في حالة لافندر، يبدو أن إحدى المعادلات الرئيسية كانت "الذكر يساوي المتشدد".

    وهذا يعيد أصداء التفويض السيئ السمعة "جميع الذكور في سن الخدمة العسكرية هم أهداف محتملة" لحروب الطائرات بدون طيار الأمريكية عام 2010، والتي حددت فيها إدارة أوباما واغتالت مئات الأشخاص الذين تم تصنيفهم كأعداء " استنادًا إلى البيانات الوصفية ".

    ما يختلف في الذكاء الاصطناعي في هذا المزيج هو السرعة التي يمكن من خلالها تحديد الأهداف خوارزميًا وتفويض العمل الذي يطرحه هذا الأمر. يشير تقرير +972 إلى أن استخدام هذه التكنولوجيا أدى إلى إبادة الآلاف من الأهداف المؤهلة - وغير المؤهلة - بسرعة ودون إشراف بشري كبير.

    وسارع الجيش الإسرائيلي إلى نفي استخدام أنظمة استهداف الذكاء الاصطناعي من هذا النوع. ومن الصعب التحقق بشكل مستقل مما إذا كانت قد تم استخدامها، وإذا كان الأمر كذلك، مدى استخدامها، وكيف تعمل بالضبط. لكن الوظائف التي وصفها التقرير معقولة تمامًا، خاصة بالنظر إلى تفاخر الجيش الإسرائيلي بكونه " واحدًا من أكثر المنظمات التكنولوجية " ومن أوائل المتبنين للذكاء الاصطناعي.

    مع سعي برامج الذكاء الاصطناعي العسكرية في جميع أنحاء العالم إلى تقصير ما يسميه الجيش الأمريكي "الجدول الزمني من أجهزة الاستشعار إلى مطلق النار" و "زيادة القدرة الفتاكة" في عملياتها، لماذا لا تستفيد منظمة مثل جيش الدفاع الإسرائيلي من أحدث التقنيات؟

    الحقيقة هي أن أنظمة مثل Lavender وWhere's Daddy؟ هي تجسيد لاتجاه أوسع كان جاريًا منذ عقد جيد، وجيش الدفاع الإسرائيلي ووحدات النخبة التابعة له ليسوا الوحيدين الذين يسعون إلى تنفيذ المزيد من أنظمة استهداف الذكاء الاصطناعي في عملياتهم.

    عندما تتفوق الآلات على البشر
    في وقت سابق من هذا العام، نشرت بلومبرج تقريرا عن أحدث إصدار من مشروع مافن ، وهو برنامج مستكشف الذكاء الاصطناعي التابع لوزارة الدفاع الأمريكية، والذي تطور من كونه برنامج تحليل بيانات أجهزة الاستشعار في عام 2017 إلى نظام كامل للتوصية بالهدف مدعوم بالذكاء الاصطناعي مصمم للسرعة. وكما ذكرت كاترينا مانسون، صحفية بلومبرج ، فإن المشغل "يستطيع الآن التوقيع على ما يصل إلى 80 هدفًا في ساعة عمل واحدة، مقابل 30 بدونها".

    قوات الجيش الإسرائيلي تقوم بدورية في غزة وسط الأنقاض والمباني المتضررة.
    موجه بواسطة آلة: تستخدم قوات الجيش الإسرائيلي بشكل متزايد الذكاء الاصطناعي لتحديد وتعقب مقاتلي حماس المشتبه بهم في غزة. يوميوري شيمبون عبر AP Images
    يقتبس مانسون أحد ضباط الجيش الأمريكي المكلف بتعلم النظام الذي يصف عملية التوافق مع استنتاجات الخوارزمية، والتي يتم تسليمها بطريقة متقطعة سريعة: "اقبل. اقبل. اقبل، اقبل». من الواضح هنا كيف أن المشغل البشري متجذر بعمق في المنطق الرقمي الذي يصعب الاعتراض عليه. وهذا يؤدي إلى ظهور منطق السرعة وزيادة الإنتاج الذي يتفوق على كل شيء آخر.

    كفاءة إنتاج الموت تنعكس أيضاً في حساب +972 الذي يشير إلى ضغط هائل لتسريع وزيادة إنتاج الأهداف وقتل هذه الأهداف. وكما يقول أحد المصادر: «كنا نتعرض لضغوط مستمرة: احضروا لنا المزيد من الأهداف. لقد صرخوا علينا حقًا. لقد انتهينا من [قتل] أهدافنا بسرعة كبيرة”.

    التحيزات المضمنة
    تثير أنظمة مثل Lavender العديد من الأسئلة الأخلاقية المتعلقة ببيانات التدريب، والتحيزات، والدقة، ومعدلات الخطأ، والأهم من ذلك، أسئلة حول تحيز الأتمتة. إن تحيز الأتمتة يتنازل عن كل السلطة، بما في ذلك السلطة الأخلاقية، للواجهة المحايدة للمعالجة الإحصائية.

    السرعة والفتك هما شعار التكنولوجيا العسكرية. ولكن عند إعطاء الأولوية للذكاء الاصطناعي، يتم تهميش نطاق الفعل البشري . إن منطق النظام يتطلب ذلك، بسبب الأنظمة المعرفية البشرية البطيئة نسبياً. كما أنه يزيل الشعور الإنساني بالمسؤولية عن النتائج التي ينتجها الكمبيوتر.

    لقد كتبت في مكان آخر كيف يؤدي هذا إلى تعقيد مفاهيم السيطرة (على جميع المستويات) بطرق يجب أن نأخذها بعين الاعتبار. عندما يشكل الذكاء الاصطناعي والتعلم الآلي والتفكير البشري نظامًا بيئيًا محكمًا، فإن القدرة على التحكم البشري تكون محدودة. يميل البشر إلى الثقة بكل ما تقوله أجهزة الكمبيوتر، خاصة عندما تتحرك بسرعة كبيرة بحيث لا يمكننا متابعتها.

    وتنتج مشكلة السرعة والتعجيل أيضًا شعورًا عامًا بالإلحاح، والذي يفضل العمل على عدم الفعل. وهذا يحول فئات مثل "الأضرار الجانبية" أو "الضرورة العسكرية"، التي ينبغي أن تكون بمثابة تقييد للعنف، إلى قنوات لإنتاج المزيد من العنف.

    بواسطة: إلك شوارتز | The Conversation


  •  
    جميع الحقوق محفوظة لمنظمة سام © 2023، تصميم وتطوير