في أواخر عام 2017 ، أبلغت Motherboard عن تقنية AI يمكنها تبديل الوجوه في مقاطع الفيديو. في ذلك الوقت ، أنتجت التقنية - التي سميت فيما بعد deepfakes - نتائج غير محببة وكانت تستخدم في الغالب لإنشاء مقاطع فيديو إباحية مزيفة تضم مشاهير وسياسيين.
بعد عامين ، تطورت التكنولوجيا بشكل كبير ويصعب اكتشافها بالعين المجردة. إلى جانب الأخبار المزيفة ، أصبحت مقاطع الفيديو المزورة مصدر قلق للأمن القومي ، خاصة مع اقتراب موعد الانتخابات الرئاسية لعام 2020.
منذ ظهور تقنية Deepfakes ، طورت العديد من المنظمات والشركات تقنيات لاكتشاف مقاطع الفيديو التي يتم العبث بها باستخدام الذكاء الاصطناعي. ولكن هناك خوف من أنه في يوم من الأيام ، سيكون من المستحيل اكتشاف تقنية Deepfakes.
طور الباحثون في جامعة سوري حلاً قد يحل المشكلة: بدلاً من اكتشاف ما هو خطأ ، فإنه سيثبت ما هو صحيح. من المقرر تقديمه في المؤتمر القادم حول رؤية الكمبيوتر والتعرف على الأنماط (CVPR) ، وتستخدم التكنولوجيا ، التي تسمى Archangel ، AI و blockchain لإنشاء وتسجيل بصمة رقمية مقاومة للعبث لمقاطع الفيديو الأصلية. يمكن استخدام بصمة الإصبع كنقطة مرجعية للتحقق من صحة الوسائط التي يتم توزيعها عبر الإنترنت أو بثها على التلفزيون.
◄ باستخدام الذكاء الاصطناعى لتوقيع الفيديو
الطريقة الكلاسيكية لإثبات صحة المستند الثنائي هي استخدام توقيع رقمي. يقوم الناشرون بتشغيل مستنداتهم عبر خوارزمية تشفير مثل SHA256 أو MD5 أو Blowfish ، والتي تنتج "تجزئة" ، سلسلة قصيرة من البايتات تمثل محتوى هذا الملف وتصبح توقيعه الرقمي. يؤدي تشغيل نفس الملف من خلال خوارزمية التجزئة في أي وقت إلى إنتاج نفس التجزئة إذا لم تتغير محتوياته.
تعد تجزئة البيانات مفرطة الحساسية للتغيرات في البنية الثنائية للملف المصدر. عند تعديل بايت واحد في ملف التجزئة وتشغيله من خلال الخوارزمية مرة أخرى ، فإنه ينتج نتيجة مختلفة تمامًا.
لكن على الرغم من أن التجزئات تعمل جيدًا للملفات والتطبيقات النصية ، فإنها تمثل تحديات لمقاطع الفيديو ، والتي يمكن تخزينها بتنسيقات مختلفة ، وفقًا لجون كولوموس ، أستاذ رؤية الكمبيوتر بجامعة سوري ومدير مشروع Archangel.
يقول Collomosse: "أردنا أن يكون التوقيع هو نفسه بغض النظر عن برنامج الترميز الذي يتم ضغط الفيديو به". "إذا أخذت الفيديو الخاص بي وقمت بتحويله ، على سبيل المثال ، من MPEG-2 إلى MPEG-4 ، فسيكون هذا الملف بطول مختلف تمامًا ، وسوف تتغير البتات تمامًا ، مما ينتج عنه تجزئة مختلفة. ما نحتاجه كان خوارزمية التجزئة علم المحتوى ".
لحل هذه المشكلة ، طور Collomosse وزملاؤه شبكة عصبية عميقة (deep neural network) حساسة للمحتوى الموجود في الفيديو. الشبكات العصبية العميقة هي نوع من بناء الذكاء الاصطناعي الذي يطور سلوكه من خلال تحليل كميات هائلة من الأمثلة. ومن المثير للاهتمام ، أن الشبكات العصبية هي أيضًا التكنولوجيا التي تقع في قلب اتقنية Deepfakes.
عند إنشاء Deepfakes ، يقوم المطور بتغذية الشبكة بصور لوجه الموضوع. تتعرف الشبكة العصبية على ميزات الوجه ، وبتدريب كافٍ ، تصبح قادرة على العثور على الوجوه ومبادلتها في مقاطع الفيديو الأخرى مع وجه الموضوع.
يتم تدريب شبكة Archangel العصبية على الفيديو الذي يتم التعرف عليه باستخدام البصمات. يقول كولوموس: "تبحث الشبكة في محتوى الفيديو بدلاً من البتات والبايتات الأساسية".
بعد التدريب ، عند تشغيل مقطع فيديو جديد عبر الشبكة ، سيتم التحقق من صحته عندما يحتوي على نفس محتوى الفيديو المصدر بصرف النظر عن تنسيقه وسيرفضه عندما يكون فيديو مختلفًا أو تم العبث به أو تحريره.
وفقًا لـ Collomosse ، يمكن للتكنولوجيا اكتشاف التلاعب المكاني والزماني. العبث المكاني عبارة عن تغييرات تم إجراؤها على إطارات فردية ، مثل التعديلات التي تتم في الوجه في عمليات التبادل.
ولكن تقنية Deepfakes ليست هي الطريقة الوحيدة التي يمكن العبث بها أشرطة الفيديو. أقل مناقشة ولكن بنفس القدر من الخطورة هي التغييرات المتعمدة التي تم إجراؤها على تسلسل الإطارات وعلى سرعة ومدة الفيديو. لم يتم استخدام مقطع فيديو حديث تم نشره على نطاق واسع لعبثته رئيسة مجلس النواب نانسي بيلوسي في موقع ديفي فوركس ، ولكن تم إنشاؤه من خلال الاستخدام الدقيق لتقنيات التحرير البسيطة التي جعلتها تبدو مشوشة.
"أحد أشكال العبث التي يمكننا اكتشافها هو إزالة مقاطع قصيرة من الفيديو. هذه عبثات مؤقتة. ويمكننا اكتشاف ما يصل إلى ثلاث ثوان من العبث. لذلك ، إذا كان مقطع الفيديو طويلاً لعدة ساعات وقمت فقط بإزالة ثلاث يقول Collomosse ، بعد ثوانٍ من ذلك الفيديو ، يمكننا اكتشاف ذلك ، مضيفًا أن Archangel سيكتشف أيضًا التغييرات التي تم إجراؤها على سرعة الفيديو الأصلي ، كما حدث في مقطع الفيديو Pelosi.
المصدر :
المصدر : pcmag
ليست هناك تعليقات:
إرسال تعليق