هل هناك "عنصرية" في طريقة جمع البيانات من خلالها نظام الذكاء الاصطناعي؟
دراسة حديثه أجراها معهد ماساتشوستس للتكنولوجيا، كشفت عن أن طريقة جمع البيانات من خلالها نظام الذكاء الاصطناعي، عنصرية ومتحيزة جنسيا.
"Learn with Facebook".. منصة جديدة من "فيسبوك" لتعلم التسويق الإلكتروني
قام الباحثون بدراسة مجموعة من الأنظمة، فاكتشفوا أن العديد منها أظهر تحيزا صادما في طريقة جمع المعلومات، ثم قاموا بتطوير نظام يساعدهم على التأكد من أن أنظمتهم أقل تحيزا.
"عنصرية" الذكاء الاصطناعي
وأكدت إيرين تشن، كبيرة الباحثين، وطالبة دكتوراه، هي من كتبت الورقة البحثية مع البروفيسور ديفيد سونتاج، وزميل الدكتوراه فردريك د.جوهانسون، أن علماء الكمبيوتر يسارعون، في العديد من المرات، إلى القول بأن الطريقة التي تجعل هذه الأنظمة أقل انحيازا، هي ببساطة تصميم خوارزميات أفضل".
وقالت إيرين تشن إن الأبحاث أظهرت أنه يمكنك في أوقات عدة إحداث فرق أكبر مع بيانات أفضل".
وأضافت أن فريق البحث قام بدراسة نظام التنبؤ بالدخل، فأكتشف أنه - على الارجح - يُساء تصنيف الموظفات على أساس دخلهن المنخفض، والموظفين على أنهم من ذوي الدخل المرتفع.
وأشارت إلى أن الباحثون أعلنوا أنه في حالة زيادة مجموعة البيانات الدقيقة، فإن نسبة تلك الأخطاء ستقل 40%.
مفهوم خاطئ
وأكدت "تشن" على أن هناك بعض المفاهيم الخاطئة، تتمثل في أن زيادة البيانات - بغض النظر عن دقتها - تكون دائما أفضل.
لهذا السبب.. يمنع مؤسس فيسبوك استخدام آيفون في مكتبه
وفي السياق ذاته، قال البروفيسور ديفيد سونتاج: "نعتبر هذا بمثابة صندوق أدوات يساعد مهندسي التعلم الآلي على معرفة الأسئلة التي يجب طرحها في بياناتهم، من أجل تشخيص سبب قيام الأنظمة بإجراء تنبؤات غير عادلة".
الفريق البحثي، قرر تقديم الورقة البحثية الخاصة بالدراسة في شهر ديسمبر، خلال المؤتمر السنوي المتعلق بنظم معالجة المعلومات العصبية "NIPS"، في مونتريال.