وجدت دراسة أن البشر قادرون على اكتشاف الكلام المُنتَج بواسطة الذكاء الاصطناعي بنسبة 73 ٪ فقط، مع نفس مستويات الدقة الموجودة في المتحدثين باللغة الإنجليزية والماندرين.
استخدم الباحثون في يونيفرسيتي كوليدج لندن خوارزمية تحويل النص إلى كلام تم تدريبها على مجموعتي بيانات متاحتين للجمهور، واحدة باللغة الإنجليزية والأخرى بلغة الماندرين، لتوليد 50 عينة كلام مزيف في كل لغة.
التزييف العميق Deepfakes وهو شكل من أشكال الذكاء الاصطناعي التوليدي، عبارة عن وسائط تركيبية تم إنشاؤها لتشبه صوت شخص حقيقي أو شكل مظهره.
تم تشغيل عينات الصوت لـ 529 مشاركًا لمعرفة ما إذا كان بإمكانهم اكتشاف العينة الحقيقية من الكلام المزيف. تمكن المشاركون من التعرف على الكلام المزيف بنسبة 73٪ فقط من الوقت. تحسن هذا الرقم بشكل طفيف بعد أن تلقى المشاركون تدريبًا للتعرف على جوانب الكلام المزيف العميق.
هذه الدراسة هي الأولى من نوعها لتقييم قدرة الإنسان على اكتشاف الكلام المصطنع بلغة أخرى غير الإنجليزية. وهي تنم عن مخاوف من أن البشر غير قادرين على اكتشاف ما إذا كان الصوت مزيفًا عميقًا، على الرغم من التدريب على ذلك.
قال كيمبرلي ماي، المؤلف الأول للدراسة: "في دراستنا، أظهرنا أن تدريب الأشخاص على اكتشاف التزييف العميق ليس بالضرورة طريقة موثوقة لمساعدتهم على تحسين أدائهم. لسوء الحظ، تُظهر تجاربنا أيضًا أنه في الوقت الحالي لا يمكن الاعتماد على أجهزة الكشف الآلية أيضًا.
"إنهم جيدون حقًا في اكتشاف التزييف العميق إذا رأوا أمثلة مماثلة أثناء مرحلة التدريب، إذا كان المتحدث هو نفسه أو تم تسجيل المقاطع في بيئة صوتية مماثلة، على سبيل المثال. لكنها لا يمكن الاعتماد عليها عندما تكون هناك تغييرات في ظروف اختبار الصوت، مثل وجود مكبر صوت مختلف".
ولفت إلى أنه من المهم تحسين أجهزة كشف الكلام المؤتمتة لكي تفكر المؤسسات في استراتيجيات للتخفيف من التهديد الذي يشكله محتوى التزييف العميق.
في فيديو التزييف العميق، هناك المزيد من القرائن لتحديد ما إذا كان قد تم إنشاؤه صناعياً أكثر من الصوت.
قال براد سميث، رئيس شركة مايكروسوفت، هذا العام، إن أكبر مخاوفه بشأن الذكاء الاصطناعي هي التزييف العميق.
مع استمرار تطوير تقنية التزييف العميق، تتأخر أنظمة الكشف المتطورة والمتاحة على نطاق واسع.
قال سام جريجوري، المدير التنفيذي لـ Witness، الذي أنشأ مبادرات حول التزييف العميق والتلاعب بالوسائط والذكاء الاصطناعي التوليدي، إن هناك تهديدًا آخر وهو ادعاء البشر أن الصوت الحقيقي مزيف والاعتماد على حقيقة أنه لا توجد أدوات واسعة النطاق متاحة للكشف. عما إذا كان هذا صحيحًا.
وأضاف: "في ويتنس، نتحدث عن فجوة المساواة في الكشف. الأشخاص الذين يحتاجون إلى القدرة على الكشف - الصحفيون ومراقبو الحقائق والمجتمع المدني ومسؤولو الانتخابات - هم الأشخاص الذين لا يستطيعون الوصول إلى أدوات [الكشف] هذه. هذه مشكلة كبيرة ستزداد سوءًا إذا لم نستثمر في تلك المهارات والموارد.
"قد لا نحتاج إلى توفر أدوات الكشف للجميع، لأن ذلك يجعل أيضًا من الصعب أن تكون قوية. لكننا بحاجة إلى التفكير في الاستثمار في دعم الوسطاء".
المصدر: الغارديان