مقابلة مزورة تكشف تهديد الذكاء الاصطناعى لقطاع التوظيف!
في وقت تتسارع فيه تقنيات الذكاء الاصطناعي لدخول شتى مجالات الحياة، تكشف حالة توظيف أخيرة عن وجه مظلم لهذه الثورة الرقمية: متقدمون للوظائف يستخدمون أدوات الذكاء الاصطناعي وتزوير الهوية عبر التزييف العميق (Deepfake) لخداع مسؤولي الموارد البشرية.
اقرأ أيضًا: نصيحة رئيس Microsoft AI للشباب: استثمروا الذكاء الاصطناعي مبكرًا
وكشف تقرير حديث في مجلة CHRO Daily، أن أحد المرشحين لوظيفة فنية قدم نفسه من خلال مقابلة افتراضية، تبين لاحقًا أنه استخدم أدوات ذكاء اصطناعي لتحسين صوته ومظهره وإخفاء هويته الحقيقية.
ووفقًا للمحررة بريت مورس، فإن هذا الحادث لم يكن الوحيد من نوعه، بل يعكس نمطًا متزايدًا من الموظفين المزيفين، الذين يتسللون إلى الشركات عن طريق الخداع.
تطور الذكاء الاصطناعي يفتح الباب للتزييف
بفضل تطور أدوات الذكاء الاصطناعي، مثل التوليد النصي والصوتي والمرئي، بات بالإمكان إنشاء ملفات تعريف وهمية بدقة يصعب اكتشافها، بل وحتى إجراء مقابلات كاملة باستخدام شخصيات افتراضية بتقنيات التزييف العميق، ما يصعب مهمة التحقق من هوية المرشح الفعلي.
اقرأ أيضًا: كيف يختلف Manus AI عن نماذج الذكاء الاصطناعي الأخرى؟
فيما يحذر الخبراء من أن هذه الظاهرة لا تهدد فقط نزاهة التوظيف، بل تحمل مخاطر أمنية محتملة، خصوصًا في الوظائف التقنية التي تتيح الوصول إلى بيانات حساسة، كما أن الشركات قد تواجه تحديات قانونية في حال تم توظيف شخص بهوية مزيفة أو من جنسية محظورة.
وأمام هذا التحدي، يتعين على مسؤولي الموارد البشرية تطوير أدوات التحقق من الهوية، سواء عبر مقابلات فيديو حقيقية، أو استخدام تقنيات تحقق بيومترية، أو حتى إعادة النظر في طريقة إدارة المقابلات الافتراضية، التي باتت هدفًا سهلاً للاحتيال الرقمي.