ما هي تقنية الذكاء الاصطناعي التي تستخدم في نشر فيديوهات مزيفة؟

اقرأ في هذا المقال


لقد قام باحثون بتطوير نظام خوارزمي قادر على تغيير أي من الصورة الثابتة لشخصيات تاريخية ومشاهير من العصر الحديث، إلى مجموعة من الصور المتحركة على شكل مقاطع فيديو، وذلك من خلال تقنية ذكاء اصطناعي تعرف بتقنية (Deepfake)، وقد نشر مركز (Samsung) للذكاء الصناعي في موسكو فيديو توضيحي عن كيفية عمل فيلم حركي من صورة ثابتة، ووضع بعض النماذج التي طبق عليها هذه التقنية المدهشة مثل صورة موناليزا دافينشي والرسام السريالي الشهير سلفادور دالي ونجمة هوليوود مارلين مونرو وغيرها الكثير من مشاهير العالم.

ما هي تقنية الديب فيك (Deepfake)؟

هي باختصار تقنية ذكاء اصطناعي تختص بتركيب حركات أو ممارسات أو كلام غير حقيقي على إحدى الشخصيات الحقيقية، وطرحها بفيديو بصيغة يصعب كشفها. تسعى شركات التقنية الكبرى، إلى تطوير برامج وأدوات لكشف الفيديوهات المزيفة، التي تستخدم تقنية (deepfake). وتقوم هذه التقنية على الذكاء الاصطناعي، الذي يستطيع خداع العين البشرية. حيث يعتمد تطبيق الديب فيك على الشبكة العصبية الصناعية تدعى (GAN) وهي إحدى شبكات التعلّم العميق التي تستخدم تقنية التعلّم العميق كوسيلة لفهم الأشياء.

لماذا تعد تقنية خطرة؟

إحدى أهم أنظمة الذكاء الاصطناعي تطوّرا وهي تقنية الـ”التزيف العميق” أو ما يعرف بـ”ديب فيك”. في الواقع تعتبر هذه التقنية خطيرة لسببين مهمين الأول أنها تقنية يصعب تحييدها ومنعها من الاستخدام، والسبب الثاني أنّ طرق كشفها لا تزال غير موثوقة، كما أن مقاطع الديب فيك الاحترافية تتحسن وتتطور باستمرار إلى درجة أنها تصبح قادرة على خداع أشد الخبراء.

ما هو مبدأ عمل نظام الديب فيك؟

وقد أوضح الباحثون أنه كلما زاد عدد الصور التي يتم إدخالها على النظام، كلما أصبح الفيلم الحركي أو مقطع الفيديو أكثر واقعية. حيث سوف تظهر الصور الثابتة تبتسم وتتحدث وتحرك جزءها العلوي كما لو كانت حقيقية، ولم تتدرب الخوارزمية التي ابتكرها إيغور زاخاروف بعد على تحريك الجزء السفلي من الصور. حيث قد درّب الباحثون الخوارزمية على تحديد المعالم الأساسية والمميزة للصور والتي تتضمن الفم والعينين والأنف وغيرها اعتمادا على قاعدة  بيانات متاحة للعامة على الإنترنت، بحيث تتضمن أكثر من 7 آلاف صورة لمشاهير من مقاطع فيديو يوتيوب.

وكانت تقنية مدهشة أخرى قام بها موظفون سابقون في (Google) و(Microsoft) حيث استطاعت تكرار صوت الممثل الكوميدي الشهير جو روغان بشكل مقنع. وتثير مثل هذه التقنيات أسئلة وجدل حول تزوير مقاطع فيديو لأشخاص مؤثرين ومشاهير في السياسة والفن والاقتصاد، وجعلهم يقولون كلاما لم يتفوهون به في الحقيقة، ونشر معلومات مغلوطة بطريقة مقنعة.


شارك المقالة: