• 09/03/2024
  •  https://dg.samrl.org/l?a5194 
    الكشف عن الحقيقة وراء روبوتات الدردشة الخاصة بالعلاقات التي تعمل بالذكاء الاصطناعي
    الحقوق الرقمية |

    بواسطة: إيما ماكجوان | مدونة أفاست

    وجد تقرير حديث من موزيلا أن الانفجار الأخير لروبوتات الدردشة الرومانسية التي تعمل بالذكاء الاصطناعي يخلق عالمًا جديدًا تمامًا من المخاوف المتعلقة بالخصوصية.

    لقد كان شركاء الذكاء الاصطناعي الرومانسيون شيئًا في الثقافة الشعبية منذ الستينيات على الأقل. من الروبوتات الآلية الكاملة مثل "Rhoda Miller" في My Living Doll إلى الصوت غير المتجسد الذي لعبته سكارليت جوهانسون في فيلم Her عام 2013 ، كنا نحلم بشكل جماعي بالذكاء الاصطناعي الذي يلبي جميع احتياجاتنا العاطفية لأجيال. والآن، مع تطوير وإطلاق الذكاء الاصطناعي التوليدي، يبدو أن الحلم قد يصبح حقيقة في النهاية.

    ولكن هل هو حلم؟ أم أننا نسير أثناء نومنا في كابوس الخصوصية؟ هذا هو السؤال الذي تناوله فريق البحث في Mozilla في تقريرهم الأخير * الخصوصية غير المتضمنة حول روبوتات الدردشة الرومانسية التي تعمل بالذكاء الاصطناعي .

    وكانت النتائج مذهلة، حيث فشلت 10 من أصل 11 روبوتات محادثة تم اختبارها في تلبية الحد الأدنى من معايير الأمان الخاصة بموزيلا. (وهذا يعني، من بين أمور أخرى، أنها لا تطلب من المستخدمين إنشاء كلمات مرور قوية أو أن يكون لديهم طريقة للتعامل مع أي ثغرات أمنية.) ومع ما يقدر بأكثر من 100 مليون عملية تنزيل في متجر Google Play والافتتاح الأخير لـ OpenAI يشهد متجر التطبيقات تدفقًا لروبوتات الدردشة الرومانسية ، وستزداد هذه المشكلة الهائلة.

    لكن التقرير لا يتعلق بالأرقام فحسب؛ يتعلق الأمر أيضًا بالتأثيرات الرئيسية المحتملة على الخصوصية لهذه النتائج. خذ Replika AI، على سبيل المثال. ووفقا لموزيلا، يشارك الأشخاص أفكارهم ومشاعرهم وصورهم ومقاطع الفيديو الأكثر حميمية مع "رفاقهم من الذكاء الاصطناعي" على تطبيق لا يسجل تلك المعلومات فحسب، بل من المحتمل أن يعرضها للبيع لوسطاء البيانات. كما يسمح للمستخدمين بإنشاء حسابات بكلمات مرور ضعيفة مثل "111111"، مما يعرض كل تلك المعلومات الحساسة لخطر الاختراق.

    يقول كالدر إنه على الرغم من أن عيوب الخصوصية والأمان هذه "مخيفة" بدرجة كافية، إلا أن بعض الروبوتات تدعي أيضًا أنها تساعد العملاء في الحفاظ على صحتهم العقلية. وتشير إلى الذكاء الاصطناعي الرومانسي كمثال، والذي تنص شروطه وأحكامه على ما يلي:

    "إن الذكاء الاصطناعي الرومانسي ليس مزودًا للرعاية الصحية أو الخدمة الطبية ولا يقدم الرعاية الطبية أو خدمة الصحة العقلية أو أي خدمة مهنية أخرى. فقط طبيبك أو المعالج أو أي متخصص آخر يمكنه القيام بذلك. لا تقدم Romantiss AI أي مطالبات أو إقرارات أو ضمانات أو ضمانات بأن الخدمة توفر مساعدة علاجية أو طبية أو غيرها من المساعدة المهنية.

    ومع ذلك، يقول موقعهم الإلكتروني: "الذكاء الاصطناعي الرومانسي موجود هنا للحفاظ على صحتك العقلية" (التأكيد على ذلك). وعلى الرغم من أننا لا نملك أرقامًا حول عدد الأشخاص الذين قرأوا الشروط والأحكام مقابل عدد الأشخاص الذين قرأوا موقع الويب، فمن الآمن المراهنة على أن عددًا أكبر من الأشخاص يتلقون رسالة موقع الويب أكثر من إخلاء المسؤولية.

    بين ادعاءات الصحة العقلية والمعلومات الشخصية والخاصة التي يشاركها العملاء عن طيب خاطر مع "رفاق الروح" الرقميين، يخشى كالدر من وجود خطر من أن تتمكن هذه الروبوتات من التلاعب بالأشخاص بسهولة شديدة للقيام بأشياء لم يكونوا ليفعلوها بطريقة أخرى.

    "ما الذي يمنع الممثلين السيئين من إنشاء روبوتات دردشة مصممة للتعرف على رفاق الروح ثم استخدام تلك العلاقة للتلاعب بهؤلاء الأشخاص للقيام بأشياء فظيعة، أو اعتناق أيديولوجيات مخيفة، أو إيذاء أنفسهم أو الآخرين؟" يقول كالدر. "ولهذا السبب نحن بحاجة ماسة إلى مزيد من الشفافية والتحكم في المستخدم في تطبيقات الذكاء الاصطناعي هذه."

    لذلك، في حين تعد روبوتات الدردشة المدعمة بالذكاء الاصطناعي بالرفقة، إلا أننا لم نصل إلى مستواها بعد: يكشف المشهد الحالي عن حقيقة صارخة حيث خصوصية المستخدم هي ثمن القبول. لقد حان الوقت للمستخدمين والمطورين وصانعي السياسات للمطالبة بالشفافية والأمان واحترام الحدود الشخصية في عالم علاقات الذكاء الاصطناعي. عندها فقط يمكننا أن نأمل في استكشاف إمكانات هؤلاء الرفاق الرقميين بأمان دون المساس بأنفسنا الرقمية.


  •  
    جميع الحقوق محفوظة لمنظمة سام © 2023، تصميم وتطوير