12 سبتمبر 2023
المترجم : عدنان أحمد الحاجي
المقالة رقم 275 لسنة 2023
Deepfakes tricky to spot
12 September 2023
قادت الدراسة(2) الدكتورة كلير سوموراي Klaire Somoray والدكتور دان جيه ميلر Dan J Miller من جامعة جيمس كوك James Cook الاسترالية. وقالوا يمكن الآن انتاج مقاطع فيديو عالية الجودة قائمة على التزييف العميق بسهولة(3)، حيث يُتلاعب بصورة شخص أو مقطع فيديو عنه حتى يشبه شخصًا آخر.
"لقد أثار هذا العمل مخاوف بشأن توظيف هذه التكنولوجيا لأغراض شريرة مثل انتاج معلومات سياسية مضللة. على سبيل المثال، [قد ينتشر مقطع فيديو قائم على التزييف العميق يدعي زورًا بأشياء لم تحدث أو لم تُقصد].
قام الدكتور سوموراي والدكتور ميلر بحشد أكثر من 450 شخصًا وعرضوا عليهم 20 مقطع فيديو، 10 منها حقيقية و 10 أخرى مزيفة. ثم صنفوا المشاركين على أساس قدرتهم على الحكم على أي من مقاطع الفيديو حقيقية وأيها مزيفة.
نصف المتطوعين دُربوا على طريقة اكتشاف مقاطع الفيديو القائمة على التزييف العميق.
"شمل التدريب الانتباه إلى أشياء مثل مستوى الإضاءة، وما إذا بدا خدا وجبهة الشخص ملساء جدًا [خالية تمامًا من الندبات] أو عليها تجاعيد، وما إذا كانت ملامح الشيخوخة على الجلد تشابه ملامح الشيخوخة على الشعر والعينين، وما إذا كان شعر الوجه يبدو حقيقيًا،" كما قال الباحثان.
في المتوسط، تعرف المشاركون بشكل صحيح على حوالي 12 مقطع فيديو من أصل 20.
بعض الأخطاء في الصورة المزيفة يمكن اكتشافها(1) |
"المشاركون الذين كان أداؤهم ضعيفًا صنفوا فقط 5 مقاطع فيديو من أصل 20 بشكل صحيح، وأما الذين كان أداؤهم الأفضل فقد صنفوا 19 مقطع فيديو من أصل 20 بشكل صحيح. تعليم المشاركين استراتيجيات اكتشاف المقاطع المزيفة لم تؤثر في مدى دقة اكتشافهم أو مدى ثقتهم في اكتشافهم، ولا على طول المدة التي قضاها المشاركون في مشاهدتهم كل مقطع فيديو، أو متوسط عدد النقرات على صفحة مقطع الفيديو ،" كما قال الدكتور سوموراي.
"النتائج ألقت بظلال من الشك على ما إذا كان مجرد تزويد بعض الناس باستراتيجيات للكشف عن مقاطع الفيديو القائمة على التزييف العميق يمكن أن يحسِّن من اكتشاف هذه المقاطع المزيفة والتعرف عليها يشكل صحيح.
وقال الدكتور ميلر: "من المثير للقلق أيضًا أن يبدو الإفراط في التفاؤل على بعض الناس بشأن قدرتهم على التأكد من صحة (أصالة - عدم زيف) كل مقطع من مقاطع الفيديو التي شاهدوها".
مصادر من داخل وخارج النص
1- https://www.gao.gov/products/gao-20-379sp
2- https://www.sciencedirect.com/science/article/pii/S0747563223002686?via%3Dihub
3- "لتزييف العميق (deepfake) هي تقنية تقومُ على انتاج فيديوهات مزيّفة باستخدام برامج حاسوبية بمساعدة تعلّم الذكاء الاصطناعي . تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع فيديو لأحد الشخصيّات من أجلِ إنتاج مقطع فيديو جديد – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في الواقع مُزيّف.استُعمِلت هذه التقنيّة في إنتاج مقاطع فيديو إباحيّة مزيفة لعددٍ من المشاهير كما استُخدمت في أحيان أخرى لانتاج أخبار كاذبة ومُحاولة خداع القُرّاء." مقتبس بتصرف من نص ورد على هذا العنوان:
https://ar.wikipedia.org/wiki/تزييف_عميق
المصدر الرئيس
https://www.jcu.edu.au/news/releases/2023/september/deepfakes-tricky-to-spot
ليست هناك تعليقات:
إرسال تعليق