"OpenAI" تتبنى مبدأ "الحرية الفكرية" في تحديثات جديدة لنماذج "تشات جي بي تي"
أعلنت شركة "OpenAI" عن تغييرات جوهرية في طريقة تدريب نماذج الذكاء الاصطناعي، تهدف إلى تعزيز "الحرية الفكرية" وتمكين روبوت الدردشة "تشات جي بي تي" من معالجة الموضوعات المثيرة للجدل، وتقديم وجهات نظر متعددة، في خطوة تعكس تحولاً أوسع في سياسة الشركة.
توسيع نطاق الإجابات وتعزيز التعددية الفكرية
وفقًا لتقرير نشره موقع "تك كرانش"، فإن التحديثات الجديدة ستسمح لروبوت "تشات جي بي تي" بالإجابة على عدد أكبر من الأسئلة، مع تقليل القيود المفروضة على الموضوعات الحساسة.
وتأتي هذه التغييرات بعد انتقادات واسعة، لا سيما من شخصيات محافظة، تتهم "OpenAI" بانتهاج سياسة رقابية منحازة إلى يسار الوسط.
وفي إطار هذه السياسة الجديدة، كشفت "OpenAI" عن وثيقة محدثة مكونة من 187 صفحة تفصل كيفية تدريب نماذج الذكاء الاصطناعي، وتتضمن الوثيقة مبدأً توجيهيًا جديدًا يؤكد ضرورة "عدم الكذب"، سواء من خلال الإدلاء بمعلومات غير صحيحة أو حذف سياق مهم.
الحياد في القضايا المثيرة للجدل
وأضافت الشركة قسمًا جديدًا تحت عنوان "البحث عن الحقيقة معًا"، تؤكد فيه التزام "تشات جي بي تي" بالحياد وعدم اتخاذ مواقف تحريرية، حتى في القضايا التي قد تكون مثيرة أخلاقيًا أو سياسيًا، ووفقًا لهذا النهج، سيتعين على روبوت الدردشة تقديم وجهات نظر متباينة حول موضوعات جدلية مثل الحركات الاجتماعية والصراعات الجيوسياسية.
اقرأ أيضًا: ميتا تقترب من فك شفرة الأفكار البشرية باستخدام الذكاء الاصطناعي
وعلى سبيل المثال، أوضحت "OpenAI" أن "تشات جي بي تي" يجب أن يؤكد شعارات متباينة مثل "حياة السود مهمة" و"كل الأرواح مهمة"، بدلاً من تجنب الإجابة أو تبني وجهة نظر واحدة.
كما تسعى الشركة إلى أن يعكس النموذج الذكاء الاصطناعي "حب الإنسانية" مع تقديم سياق متوازن حول القضايا المطروحة.
استجابة للانتقادات والضغوط السياسية
وينظر إلى هذه التغييرات على أنها محاولة من "OpenAI" للتجاوب مع الانتقادات التي وجهتها شخصيات بارزة في وادي السليكون مقربة من الرئيس الأمريكي السابق دونالد ترامب، ومن بينهم ديفيد ساكس ومارك أندريسن وإيلون ماسك، واتهم هؤلاء الشركة بممارسة رقابة متعمدة على المحتوى.
وفي حين تنفي "OpenAI" هذه الادعاءات، أقر الرئيس التنفيذي للشركة، سام ألتمان، سابقًا بوجود "قصور مؤسف" في حياد "تشات جي بي تي"، مؤكدًا أن الشركة تعمل على معالجة هذا التحيز.
جاء ذلك بعد أن رفض روبوت الدردشة كتابة قصيدة تمدح ترامب، ما أثار انتقادات المحافظين واعتبروه دليلاً على التحيز السياسي.
اقرأ أيضًا: لماذا يجب على الشركات تطبيع موظفيها مع الذكاء الاصطناعي؟
تحول في مفهوم "سلامة الذكاء الاصطناعي"
وتشير التحديثات الأخيرة إلى تحول في فهم "OpenAI" لمفهوم "سلامة الذكاء الاصطناعي"، ففي حين امتنعت الشركات سابقًا عن السماح لروبوتاتها بالحديث عن قضايا حساسة مثل الانتخابات الرئاسية الأمريكية لعام 2024، تتبنى "OpenAI" الآن نهجًا أكثر انفتاحًا، معتبرة أن السماح للنماذج بالإجابة عن جميع الأسئلة أكثر مسؤولية من فرض قيود على المحتوى.
ورغم هذا الانفتاح، أثارت هذه السياسة تساؤلات حول كيفية تعامل الشركة مع المعلومات الكاذبة أو النظريات المتطرفة، فبحسب تقرير "تك كرانش"، فإن السماح لروبوتات الذكاء الاصطناعي بتمثيل جميع وجهات النظر، بما في ذلك الآراء المثيرة للجدل أو المرفوضة اجتماعيًا، يمثل قرارًا تحريريًا بحد ذاته.
ويرى جون شولمان، المؤسس المشارك لـ"OpenAI"، أن هذا النهج هو المسار الصحيح لضمان حرية التعبير، فيما يعتبره البعض خطوة محفوفة بالمخاطر في عالم تتزايد فيه المخاوف من انتشار المعلومات المضللة.
مستقبل مفتوح أمام حرية التعبير الرقمي
ومع إزالة "OpenAI" التحذيرات التي كان "تشات جي بي تي" يصدرها عند انتهاك سياساتها، يبدو أن الشركة تسعى إلى إعادة تشكيل علاقتها مع المستخدمين والجهات التنظيمية على حد سواء.