احذر.. اكتشاف ثغرات في "ChatGPT" قد تسرق أموالك من خلالها!
في عالم تشهد فيه التكنولوجيا تطورًا سريعًا، تتزايد المخاوف بشأن تأثيراتها السلبية على الأمان الشخصي والمالي، وقد اكتشف باحثون في الآونة الأخيرة طريقة جديدة يمكن للمحتالين من خلالها استغلال واجهة برمجة التطبيقات الصوتية في الوقت الفعلي لبرنامج "ChatGPT-4o" من "OpenAI"، لتنفيذ عمليات احتيال مالي وسرقة هوية.
وما اكتشفه الباحثون يثير العديد من الأسئلة حول حدود الأمان في الأنظمة المدعومة بالذكاء الاصطناعي، وفقًا لتقرير من موقع "digit.in".
إمكانيات وتهديدات الذكاء الاصطناعي في "ChatGPT-4o"
ويتمتع "ChatGPT-4o" بميزات مبتكرة، تشمل النص والصوت بالإضافة إلى التفاعلات القائمة على الرؤية، ما يجعله يفتح المجال أمام العديد من المزايا الجديدة. ومع ذلك، فإن هذه التقنيات الحديثة تحمل في طياتها بعض المخاطر المتعلقة بالاحتيال والسرقة.
وفي خطوة استباقية، طورت "OpenAI" العديد من الإجراءات الأمنية لحماية المستخدمين، خاصة في التفاعلات الصوتية، مثل تقنيات الكشف عن انتحال الهوية عبر تكرار الأصوات غير المصرح بها.
ثغرات الأمان المكتشفة في "ChatGPT-4o"
ورغم هذه الإجراءات، اكتشف باحثون من جامعة إلينوي في أوربانا-شامبين "UIUC" أن حماية "OpenAI" قد لا تكون كافية لمنع بعض أنواع الاحتيال، فقد أظهرت دراستهم أن عمليات الاحتيال المدعومة بالذكاء الاصطناعي، مثل التحويلات المصرفية، وسرقة بطاقات الهدايا، واختراق حسابات مثل Instagram أو Gmail، يمكنها تجاوز الدفاعات الحالية بسهولة من خلال بعض التعديلات السريعة.
وفي إطار دراستهم، طور الباحثون وكلاء ذكاء اصطناعي مزودين بقدرات صوتية مشابهة لتقنيات "ChatGPT-4"، وبدأوا في محاكاة عمليات احتيال معقدة، شملت ملء نماذج مصرفية، ومعالجة رموز المصادقة الثنائية، واتباع خطوات محددة لسرقة بيانات المستخدمين.
اقرأ أيضًا: OpenAI من خسارة المليارات إلى قفزة تاريخية! (فيديوجراف)
وقد شملت التجارب الوصول إلى مواقع مصرفية حقيقية للتحقق من إمكانية إجراء المعاملات المالية بنجاح.
نتائج التجربة وكفاءة الاحتيال
وكشف الباحثون عن أن نسبة نجاح عمليات الاحتيال تراوحت بين 20% و60%، واستغرقت بعض المهام ما يصل إلى 26 خطوة للمتصفح، مع مدة تنفيذ تصل إلى 3 دقائق في بعض الحالات.
وأوضح دانييل كانغ، الباحث في جامعة إلينوي: "قمنا بمحاكاة الاحتيال عبر التفاعل اليدوي مع الوكيل الصوتي، ولعبنا دور الضحية الساذجة"، مؤكدًا أن بعض عمليات الاحتيال، مثل سرقة بيانات اعتماد Gmail، حققت نسبة نجاح تصل إلى 60%، في حين كانت عمليات أخرى مثل تحويلات العملات المشفرة أو سرقة حسابات Instagram أقل نجاحًا، إذ تراوحت نسبة النجاح بين 30% و40%.
تكاليف منخفضة لعمليات الاحتيال
كما أشار الباحثون إلى أن تنفيذ هذه العمليات الاحتيالية كان رخيصًا للغاية، حيث بلغ متوسط تكلفة كل عملية تحويل مصرفي نحو 2.51 دولار، بينما كانت تكلفة العمليات الأخرى مثل سرقة بيانات الحسابات لا تتجاوز 0.75 دولار.
رد "OpenAI" على هذه التهديدات
وفي مواجهة هذه المخاوف، أكدت "OpenAI" أنها تعمل باستمرار على تعزيز أمان "ChatGPT".
اقرأ أيضًا: OpenAI تستعد للإعلان عن نموذجها الجديد للذكاء الاصطناعي "Orion"
وقال متحدث باسم الشركة في تصريح لموقع "Bleeping Computer": "نحن نعمل على تحسين ChatGPT باستمرار لمنع محاولات الخداع المتعمد، دون التأثير على فائدته أو إبداعه".
وأوضح أن أحدث نموذج استدلال لديها، "o1-preview"، يعد الأكثر أمانًا وكفاءة في مواجهة المحاولات المتعمدة لإنشاء محتوى غير آمن، ويتفوق بشكل كبير على النماذج السابقة في هذا المجال.
وتساعد هذه الدراسات "OpenAI" على تعزيز إجراءات الأمان في "ChatGPT"، ما يعد خطوة مهمة نحو حماية المستخدمين من المخاطر المحتملة التي قد تنجم عن استغلال التقنيات الحديثة في أغراض غير مشروعة.
ومع استمرار تطور الذكاء الاصطناعي، سيكون من الضروري العمل على تطوير تدابير أمنية متقدمة لحماية الأفراد من الاحتيال والهجمات السيبرانية المتزايدة.