خبراء سيبرانيون يقدمون نصائح للحماية من تزييف الأصوات بالذكاء الاصطناعي
انتشرت عدة أنواع من الاحتيال بواسطة تطبيقات الذكاء الاصطناعي مؤخرًا، منها ما يسمى "احتيال التزييف" أو "التلاعب الصوتي".
ولكن قدم خبيران في الأمن السيبراني وتكنولوجيا المعلومات عدة نصائح تساعدك على الحماية من تزييف الأصوات بالذكاء الاصطناعي.
اقرأ أيضاً.."ميتا" تختبر شريط بحث مدعوم بالذكاء الاصطناعي في "إنستغرام"
كانت شركة "أوبن إيه آي"، المتخصصة في الذكاء الاصطناعي التوليدي، ومبتكرة برنامج المحادثة الشهير "تشات جي بي تي"، عرضت، مارس الماضي، أداة لاستنساخ الصوت سيكون استخدامها محدودًا لتفادي عمليات الاحتيال.
"فويس إنجين"
وتعد الأداة التي سُمّيت بـ"فويس إنجين" أو "محرك الصوت" قادرة على إعادة إنتاج صوت شخص من خلال عينة صوتية مدتها 15 ثانية، حسب ما ذكر بيان لـ"أوبن إيه آي".
وأضاف البيان: "ندرك أن القدرة على توليد أصوات تشبه أصوات البشر خطوة تنطوي على مخاطر كبيرة، خصوصًا في عام الانتخابات هذا"، وأنه لذلك: "نعمل مع شركاء أمريكيين ودوليين من حكومات ووسائل إعلام ومجالات الترفيه والتعليم والمجتمع المدني وقطاعات أخرى، ونأخذ ملاحظاتهم في الاعتبار".
ومن جانبه قال خبير الأمن السيبراني وتكنولوجيا المعلومات، محمد خليف، إنه أصبح مِن السهل جدا استخدام الذكاء الاصطناعي لإجراء اتصالات هاتفية بأصوات تبدو مألوفة للأشخاص، وهذا يُسمّى بـ"التزييف الصوتي" أو "التلاعب الصوتي".
كما دعا خبير الأمن السيبراني وتكنولوجيا المعلومات، تامر محمد، إلى توخي الحذر في الاتصالات التي نتلقّاها، قائلا إن "الاتصالات الهاتفية بواسطة الذكاء الاصطناعي انتشرت بشكل كبير جدًا، وتوجد تطبيقات تنفّذها دون الحاجة لأن يمتلك المحتال خبرة".
وقدم كل من محمد خليف وتامر محمد هذه النصائح عند تلقّي المكالمات الهاتفية، أو الاستماع إلى أصوات دون أن نرى أصحابها:
1- يجب التشكّك دومًا في صحة الاتصال، حتى لو كان الصوت مألوفًا، خصوصًا عندما يبدو الأمر طارئًا.
2- حاول التواصل مع الشخص الذي يُفترض أنه المتصل عبر وسيلة اتصال مختلفة تتحقق منها.
3- احذر أن تقدّم معلومات شخصية أو بيانات مالية خلال مكالمة لم تبدأها أنت بنفسك.
4- عدم الدخول على رابط حساب أو موقع إلكتروني غير معروف؛ لأنه من خلاله يتم اختراق الهاتف، ويستخدم التسجيلات الصوتية ويعرف صوت الشخص.
شاهد أيضًا..