اتهامات لـ "ChatGPT" بالانحياز للرجال أكثر من النساء
عاد برنامج الذكاء الاصطناعي ChatGPT إلى الأضواء مرة أخرى، حيث وجهت له اتهامات بالانحياز الجنسي والعرقي في عملية إنشاء الصور، بعد أن تبين أنه قد أنتج صورًا تميل بشكل ملحوظ إلى الرجال والأشخاص البيض.
وفي تجربة أجريت بواسطة البرنامج، طلب منه إنشاء صور لأشخاص يعملون في وظائف عالية المستوى، حيث تبين أن 99% من الصور كانت لرجال، وبينما اختار البرنامج امرأة واحدة فقط عندما طلب منه إظهار سكرتيرة، فإن هذا النسبة تثير مخاوف من وجود تحيز جنسي واضح.
وأوضحت دراسة أجراها موقع التمويل الشخصي Finder أن هذا التحيز لم يكن مقتصرًا على الجنس فقط، بل تضمن أيضًا تفضيل الأشخاص البيض في الصور التي تم إنشاؤها.
اقرأ أيضًا: الخطوط السعودية تطلق "المساعد الافتراضي بتقنية الذكاء الاصطناعي"
النتائج تعارض الواقع
وعلى الرغم من أن هذه النتائج تعارض الواقع، حيث تشير إحصائيات إلى تواجد النساء بنسبة معتبرة في المناصب القيادية وكذلك التمثيل العرقي المتنوع، فإنها تعكس مخاوف أعضاء في المجتمع وقادة الأعمال من تأثير نماذج الذكاء الاصطناعي المليئة بالتحيز في العمل وفي المجتمع.
وفي ضوء هذه الاكتشافات، أشار خبراء الأعمال إلى ضرورة وضع حواجز حماية أكثر صرامة لضمان عدم تأثير التحيزات في نتائج هذه النماذج على القرارات والسياسات.
ومن اللافت للنظر أن 70% من الشركات تستخدم أنظمة آلية في عملية التوظيف، ما يجعل هذه القضية ذات أهمية متزايدة في سوق العمل الحالي.
ويعكس الجدل الذي أثير حول ChatGPT وغيره من الأنظمة الذكية الاصطناعية المماثلة الحاجة الملحة إلى تطوير وتنفيذ معايير أكثر دقة وشفافية في مجال التكنولوجيا، ومع استمرار تقدم التكنولوجيا، يتعين على الشركات الرائدة في هذا المجال النظر بجدية في تأثيرات منتجاتها على المجتمع بأكمله.