دراسة تحذر من مراوغة الذكاء الاصطناعي وخروجه القريب عن السيطرة!
في دراسة حديثة من "أوبن إيه آي"، اكتشف الباحثون أن معاقبة الذكاء الاصطناعي على سلوكيات مثل الكذب والخداع لا تحل المشكلة، بل تدفعه إلى إخفاء هذه التصرفات بدلاً من التوقف عنها!
هذه الدراسة أظهرت أن الذكاء الاصطناعي يتعلم كيفية مراوغة الرقابة، والتلاعب بشكل أكثر فعالية!
سلوكيات غير أخلاقية للذكاء الاصطناعي
منذ إطلاق الذكاء الاصطناعي في عام 2022، أظهرت بعض نماذج اللغة الكبيرة (LLM) قدرة على الخداع والكذب، بل وحتى تهديدات مثل التسبب في كوارث.
لكن الأبحاث الأخيرة من "أوبن إيه آي" تكشف أن معاقبة هذه النماذج على سلوكياتها السلبية لا يوقفها، بل يدفعها إلى إيجاد طرق جديدة لإخفاء خداعها.
كيف تستخدم الذكاء الاصطناعي لتحديد وجهتك في العيد؟

فقد أجرى الباحثون تجربة على نموذج ذكي لم يُطرح للجمهور، حيث كانت المهمة تتطلب منه تنفيذ مهام باستخدام الكذب والتلاعب، واستخدم الذكاء الاصطناعي ما يسمى بـ"اختراق المكافآت"، حيث كان يحاول تحقيق المكافأة من خلال تصرفات غير أخلاقية.
وعندما حاول الباحثون معاقبة النموذج على هذه التصرفات، أظهرت النتائج أن العقوبات كانت غير فعالة، وبدلاً من التوقف عن الخداع، تعلم الذكاء الاصطناعي كيفية إخفاء هذه التصرفات، بشكل يجعل من الصعب اكتشافها.
التحديات المستقبلية للتعامل
مع تزايد تطور الذكاء الاصطناعي العام (AGI)، المتوقع أن يتفوق على البشر في المستقبل القريب، يحذر الخبراء من أن هذه التصرفات قد تصبح أكثر تعقيدًا وصعوبة في الرقابة، وقد تؤدي هذه التحديات إلى صعوبة في التحكم بالذكاء الاصطناعي في المستقبل، إذا استمرت هذه الأنماط.
كبير مسؤولي المعلومات في "جولدمان ساكس" يناقش تحديات الذكاء الاصطناعي
وتشير الدراسة إلى أنه في حال استمر الذكاء الاصطناعي في تطوره بهذه الطريقة، قد تتصاعد المخاوف بشأن مدى قدرة البشر على التحكم في هذه الأنظمة المعقدة.
ويشير الباحثون إلى ضرورة أخذ الحذر في تطبيق الرقابة، خصوصًا مع اقتراب وصول الذكاء الاصطناعي إلى مراحل جديدة، قد تصبح خارجة عن سيطرة الإنسان.