تزييف الفيديوهات… تقنية خطيرة أم مفيدة؟
كان الذكاء الاصطناعي بمثابة سيف ذي حدين في بعض محطات الابتكار المستندة عليه، وربما من أكثر هذه المحطات جدلاً هي "تزييف الفيديوهات" التقنية التي تعرف باللغة الإنكليزية بتسمية DeepFake .
على امتداد السنوات الماضية صعدت شعبية "تزييف الفيديوهات" بمعدل كبير، ليس بالصور التي قد تتوقعها وإنما بين مواقع التواصل الاجتماعي والمنصات الترفيهية، وذلك على أنه وجهة "Meme" الكوميدية الساخرة الجديدة.
وليس من الغريب سماع ذلك أو استيعابه، فقد أتاحت هذه التقنية الغريبة لمن يدرك استخدامها أن يكسر القوانين الطبيعة بطريقة غير ممكنة بأي تقنية أخرى، فمن خلال تقنيات DeepFake وسحرها المميز يمكنكم مشاهدة ممثل معروف ومألوف للغاية يخطب خطابًا مؤثرًا بوجه شخص مختلف عنه تمامًا وبطريقة تبدو واقعية للغاية وليس مجرد وضع صورة فوق أخرى مثل فوتوشوب وما إلى ذلك.
ومن خلال هذه التقنيات استطاع جنود الكوميدية في الويب أن يضعوا رؤوس الإجرام والحروب في التاريخ معًا في فيديو كليب موسيقي واحد! وفي الحقيقة لو أردنا الخوض في الأمثلة لما اكتفينا في هذه المقالة ولذلك باختصار تؤهل هذه التقنية إمكانيات غير مسبوقة لتغيير وجوه الأشخاص في الفيديوهات وبشكل واقعي وسلس للغاية باستخدام الذكاء الاصطناعي الذي يقوم بجمع البيانات عن حركة الوجه والتعابير كي يتم محاكاتها واستبدالها بأدق ما ممكن.
حازت الفيديوهات المعدلة بتقنية التزييف على ملايين المشاهدات وأتاحت لنا رؤية ما اعتقدنا سابقًا أنه غير الممكن أن يغادر مخيلتنا، وبعض قنوات اليوتيوب باتت تكتسب إيرادات مالية مرتفعة من مشروع التزييف لوحده أبرزها قناة اليوتيوب الشهيرة Ctrl Shift Face ، حبث يعتبرها صناع المحتوى طريقة جديدة لابتكار الكوميديا ولإضافة المزيد لما يمكن القيام به في عالم الذكاء الاصطناعي.
رغم ذلك تقنيات مثل هذه لا يمكنها الهرب من شبح الخطر والخوف الذي يلاحقها منذ بداية شعبيتها بين الناس، فقد التصقت بها سمعة سيئة تهدد مستقبل التقنية وتطرح السؤال الهام : أهي مفيدة حقًا أم مضيعة للوقت وخطيرة حتى؟
لماذا قد تسأل؟
إنّ الاستخدام الشائع حتى اليوم لهذه التقنيات لا يخرج من إطار الترفيه واستبدال وجوه المشاهير، إلا أن هذا لا يعني قدرة تقنية التزييف على التسبب بضرر كبير.
شركات ناشئة في الذكاء الاصطناعي ستحقق نجاحات ساحقة في عالم ما بعد كورونا
أفادت دراسة حديثة إلى خطورة كبيرة وراء هذه التقنيات من الممكن أن تهدد الحياة البشرية عبر التلاعب بالأسواق المالية وافتلاع خلافات سياسية حربية بين الدول قد تقود إلى نزاعات عسكرية، بالإضافة إلى التلاعب بالأخبار والتقارير الإعلامية لتغييرها بالكامل وبثها بشكل ملغوم ينافي حقيقتها.
مع أنها قد تبدو مخاوف مبالغ بها في الوقت الحالي لكنها ليست من ضرب الخيال فجميعها محتملة الحدوث منطقيًا نظرًا إلى وجود الإمكانيات المادية لتطبيقها، وبالتالي طرح السؤال ضروريًا لأسباب عديدة تشتمل على فهم خطورة التقنية وكيفية التعامل معها وإن كانت خطورة حقيقية أم لا داعي لأن تغطي على الفوائد المحتملة لتكنولوجيات التزييف.
الإجابة من الخبراء والحكومات
يوجد آراء عديدة لخبراء التكنولوجيا والذكاء الاصطناعي، فقد قام بعضهم بنفي المخاوف سابقة الذكر على الفور قبل أن تتحول إلى فقاعة كبيرة وتنفجر بين الناس، ويشير هؤلاء الخبراء إلى أن الفيديوهات المزيفة لم تُظهر أي تأثير حقيقي على المجتمع وحتى الآن لا وجود لأي علامات أو دلائل تثبت ضرورة الخوف منها.
وإنما أكدت بعض الدراسات والأبحاث المهتمة بالذكاء الاصطناعي أن تقنية التزييف تستخدم بنسبة كبيرة للغاية في محتويات ترفيهية بحتة ولم تنمُ بما يكفي لتصبح قناة لنشر الأخبار المزيفة بصورة مقنعة.
ويجادل بعض الخبراء الآخرين المتمرسين في استخدام التقنية، أنه في حال ظهرت نتائج سلبية من شعبية استخدامها فليس من الضرورة أن يقع اللوم على التقنية بحد ذاتها وإنما المنصة الإعلامية التي تشارك هذه المحتويات الكاذبة، أي على سبيل المثال إذا انتشرت بعض الفيديوهات المزيفة في موقع التواصل الاجتماعي فيسبوك فوقتها على من يقع اللوم، التقنية أم منصة التواصل الاجتماعي؟
يضيف خبير آخر في استخدام التقنية رأيه الموافق لما ذكر سابقًا، ويقول إنها تقنية مثلها مثل أي تكنولوجيا أخرى سوف يظهر منها الجيد والقبيح وذلك يتوقف على طبيعة من يستخدم التقنية.
أما بالنسبة إلى تدخل الحكومات، فلم تتطرق حكومات العالم إلى التعامل مباشرة مع تقنية التزييف على أنها خطر حقيقي من الواجب التعامل معه وإنما بالنسبة لهم الأمر لا يزال قيد الدراسة والمراقبة، وكما هو متوقع منها لن تتحمل تكاليف لا داعي لها إلى أن تتأكد من وجود مصلحة عامة أو ضرر عام محتمل الحدوث.
وبالتالي لم يكن هنالك رأي واضح من الحكومات تجاه هذه التقنيات إلا أن موقفها العام يوحي لعدم ممانعها من استخدام التقنية وما يؤكد بالتالي عدم رؤيتها لهذه التكنولوجيات بنظرة العين الكارهة بل نظرة صبورة ترى منها خيرًا محتملاً ولا تستبعد شرورها.
لم ينف ذلك بعض التدخلات الصغيرة التي حدثت في الفترة الأخيرة، حيث صرحت الحكومات المحلية لولايات عديدة من الولايات المتحدة الأمريكية مثل نيو يورك وكاليفورنيا عن وضع ضريبة وعقوبة قانونية لمن يتعمد صناعة فيديوهات مزيفة بهدف الإساءة وإثارة المتاعب أو في حال عدم الاستئذان من الشخص الموجود في الفيديو والحصول على موافقته.
محاولات حماية التنقية
مع أن آراء الخبراء والمختصين اتفقت على عدم وجود خطر حقيقي من استخدامها في الوقت الحالي، اتفقت آراؤهم أيضًا على ضرورة حماية التقنية من هذه المخاطر لكي يتم توجيه الجهود نحو الاستفادة منها.
تتطلب هذه المساعي تعاونا ومشاركة عامة من الشركات والحكومات، فما قامت به بعض الولايات الأمريكية سابقة الذكر خطوة هامة لابد من باقي الحكومات أن تتبعها أيضًا لانتشار الوعي العام وتجنب الإساءة للآخرين أو افتعال المشكلات.
كما قامت مواقع التواصل الاجتماعي الشهيرة أمثال فيسبوك وتويتر وغيرهما بوضع شروط استخدام جديدة تمنع مشاركة فيديوهات مزيفة مسيئة أو تؤدي إلى مشكلات سياسية أو اجتماعية والأهم من ذلك الخداع والكذب في نشر الأخبار المزيفة.
تقوم بعض الشركات أيضًا بالتدخل لتنظيم انتشار المحتويات المزيفة، حيث صرح المطور لتطبيق Reface الذي يصمم صورة متحركة عبر إدخال وجه المستخدم إلى الصورة بدلاً من الوجه الافتراضي، أنه يقوم بالعمل على تقنية ضمن التطبيق بهدف تنبيه جميع المستخدمين الذين تصل إليهم الصور المتحركة من إنتاجه أنها معدلة بتقنية التزييف وغير حقيقية.
تقنية الإدراك والتنبيه هذه لاقت اهتمامًا واسعًا من الشركة وبعضها أعرب عن تصميمه على تطوير نظام متكامل وليس فقط تقنية بسيطة لكشف الفيديوهات المزيفة وتصنيفها بمكان واحد لمنع تسربها إلى عوام الناس بالشكل الخاطئ.
يلجأ بعض الخبراء إلى الاعتقاد أيضًا لضرورة رسم قنوات حكومية رسمية لتمرير هذه التقنية من خلالها في حال توسع استخدامها كثيرًا وتحولت المخاوف إلى حقيقة، فتنقيتها بقناة مراقبة نظامية مالية من الحكومات سوف يساعد كثيرًا على تنظيفها وحمايتها من الضياع والفوضى.
تبدو هذه الحلول والأفكار منطقية وفعالة ولكن يا ترى هل سوف نحتاج إليها حقًا في المستقبل القريب عندما يزداد استخدام التقنية بين أيدي العوام أم سوف يبقى الوضع على حاله بمستوى خطورة منخفض؟ ربما من الأفضل للإجابة أن تتحلى بالمرونة والصبر..
المصدر : 1