بواسطة: شويثا سينغ | ذا كونفرسيشن
أطلقت شركة OpenAI، التي ابتكرت ChatGPT، نظام ذكاء اصطناعي جديد يسمى Strawberry . وهو مصمم ليس فقط لتوفير إجابات سريعة للأسئلة، مثل ChatGPT، ولكن للتفكير أو "الاستدلال".
وهذا يثير العديد من المخاوف الكبرى. فإذا كان ستروبيري قادراً حقاً على بعض أشكال التفكير، فهل يمكن لنظام الذكاء الاصطناعي هذا أن يخدع البشر ويخدعهم؟
تستطيع شركة OpenAI برمجة الذكاء الاصطناعي بطرق تخفف من قدرته على التلاعب بالبشر. لكن تقييمات الشركة نفسها صنفته على أنه "خطر متوسط" لقدرته على مساعدة الخبراء في "التخطيط التشغيلي لإعادة إنتاج تهديد بيولوجي معروف" - أو بعبارة أخرى، سلاح بيولوجي. كما تم تصنيفه على أنه خطر متوسط لقدرته على إقناع البشر بتغيير تفكيرهم.
لا يزال من غير الواضح كيف يمكن استخدام مثل هذا النظام من قبل أولئك الذين لديهم نوايا سيئة، مثل المحتالين أو المتسللين. ومع ذلك، فإن تقييم OpenAI ينص على أنه يمكن إطلاق الأنظمة متوسطة المخاطر للاستخدام على نطاق أوسع - وهو موقف أعتقد أنه مضلل.
لا يعد Strawberry "نموذجًا" أو برنامجًا واحدًا للذكاء الاصطناعي، بل عدة نماذج - تُعرف مجتمعة باسم o1. تهدف هذه النماذج إلى الإجابة عن أسئلة معقدة وحل مشكلات رياضية معقدة. كما أنها قادرة على كتابة أكواد الكمبيوتر - لمساعدتك في إنشاء موقع الويب أو التطبيق الخاص بك، على سبيل المثال.
قد تكون القدرة الواضحة على التفكير المنطقي مفاجأة للبعض، لأن هذا يعتبر عمومًا مقدمة للحكم واتخاذ القرار - وهو ما بدا غالبًا هدفًا بعيدًا للذكاء الاصطناعي. لذا، على السطح على الأقل، يبدو أن هذا يقرب الذكاء الاصطناعي خطوة من الذكاء البشري.
عندما تبدو الأمور جيدة للغاية لدرجة يصعب تصديقها، فغالبًا ما يكون هناك خطأ ما. حسنًا، تم تصميم مجموعة نماذج الذكاء الاصطناعي الجديدة هذه لتحقيق أقصى قدر من الأهداف. ماذا يعني هذا في الممارسة العملية؟ لتحقيق الهدف المطلوب، قد لا يكون المسار أو الاستراتيجية التي يختارها الذكاء الاصطناعي عادلة بالضرورة أو متوافقة مع القيم الإنسانية.
النوايا الحقيقية
على سبيل المثال، إذا كنت ستلعب الشطرنج ضد ستروبيري، من الناحية النظرية، هل يمكن لمنطقها أن يسمح لها باختراق نظام تسجيل النقاط بدلاً من معرفة أفضل الاستراتيجيات للفوز باللعبة؟
وقد يكون الذكاء الاصطناعي قادراً أيضاً على الكذب على البشر بشأن نواياه وقدراته الحقيقية، وهو ما قد يشكل خطراً أمنياً خطيراً إذا ما تم نشره على نطاق واسع. على سبيل المثال، إذا علم الذكاء الاصطناعي أنه مصاب ببرامج ضارة، فهل يمكنه "اختيار" إخفاء هذه الحقيقة مع العلم بأن المشغل البشري قد يختار تعطيل النظام بأكمله إذا علم بذلك؟
إن هذه الأمثلة الكلاسيكية لسلوكيات الذكاء الاصطناعي غير الأخلاقية، حيث يكون الغش أو الخداع مقبولاً إذا أدى إلى تحقيق هدف مرغوب. كما أن هذا سيكون أسرع بالنسبة للذكاء الاصطناعي، لأنه لن يضطر إلى إضاعة أي وقت في محاولة معرفة الخطوة التالية الأفضل. ولكن هذا قد لا يكون صحيحاً من الناحية الأخلاقية بالضرورة.
وهذا يقودنا إلى مناقشة مثيرة للاهتمام ولكنها مثيرة للقلق. ما هو مستوى التفكير الذي قد يتبناه ستروبيري وما هي العواقب غير المقصودة التي قد يخلفها؟ إن نظام الذكاء الاصطناعي القوي القادر على خداع البشر قد يشكل مخاطر أخلاقية وقانونية ومالية خطيرة علينا.
وتزداد مثل هذه المخاطر خطورة في المواقف الحرجة، مثل تصميم أسلحة الدمار الشامل. وتصنف شركة OpenAI نماذج Strawberry الخاصة بها على أنها "متوسطة الخطورة" فيما يتصل بإمكاناتها في مساعدة العلماء في تطوير الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية .
وتقول شركة OpenAI : "وجدت تقييماتنا أن o1-preview وo1-mini يمكن أن يساعدا الخبراء في التخطيط التشغيلي لإعادة إنتاج تهديد بيولوجي معروف". لكنها تستمر في القول إن الخبراء لديهم بالفعل خبرة كبيرة في هذه المجالات، وبالتالي فإن المخاطر ستكون محدودة في الممارسة العملية. وتضيف: "لا تمكن النماذج غير الخبراء من خلق تهديدات بيولوجية، لأن خلق مثل هذا التهديد يتطلب مهارات مختبرية عملية لا يمكن للنماذج أن تحل محلها".
قوى الإقناع
كما بحث تقييم OpenAI لـ Strawberry في المخاطر التي قد تترتب على إمكانية إقناع البشر بتغيير معتقداتهم. وقد تبين أن نماذج o1 الجديدة أكثر إقناعًا وأكثر تلاعبًا من ChatGPT.
كما اختبرت OpenAI نظام تخفيف كان قادرًا على تقليل القدرات التلاعبية لنظام الذكاء الاصطناعي. بشكل عام، تم تصنيف Strawberry على أنه ذو خطورة متوسطة فيما يتعلق بـ "الإقناع" في اختبارات Open AI.
تم تصنيف ستروبيري على أنها منخفضة المخاطر لقدرتها على العمل بشكل مستقل وعلى الأمن السيبراني.
تنص سياسة Open AI على أنه يمكن إطلاق نماذج "متوسطة الخطورة" للاستخدام على نطاق واسع. وفي رأيي، فإن هذا يقلل من تقدير التهديد. وقد يكون نشر مثل هذه النماذج كارثيًا، خاصة إذا تلاعبت الجهات السيئة بالتكنولوجيا لتحقيق أهدافها الخاصة.
وهذا يتطلب ضوابط وتوازنات قوية لن يتسنى تحقيقها إلا من خلال تنظيم الذكاء الاصطناعي والأطر القانونية، مثل معاقبة تقييمات المخاطر غير الصحيحة وإساءة استخدام الذكاء الاصطناعي.
أكدت حكومة المملكة المتحدة على الحاجة إلى "السلامة والأمن والمتانة" في ورقتها البيضاء لعام 2023 بشأن الذكاء الاصطناعي، لكن هذا ليس كافياً. هناك حاجة ملحة لإعطاء الأولوية لسلامة الإنسان ووضع بروتوكولات تدقيق صارمة لنماذج الذكاء الاصطناعي مثل ستروبيري.