دراسة: نماذج إنتاج الصور بالذكاء الاصطناعي تسرب البيانات
كشفت ورقة بحثية حديثة كيف يمكن أن تتسرب البيانات من منصات إنشاء الصور التي تستند في عملها على نماذج الذكاء الاصطناعي التوليدي، مثل "DALL-E أو Imagen أو Stable Diffusion".
الورقة البحثية أعدها مجموعة باحثين في جامعات أمريكية وسويسرية بالتعاون مع شركة "غوغل" الأمريكية.
وقالت الورقة البحثية، إن هذه المنصات تعمل بالطريقة نفسها حيث تعتمد على جانب المستخدم الذي يكتب مطالبة نصية محددة، ويحصل على صورة لها في ثوان، في حين دربت تلك النماذج على عدد كبير جدا من الصور التي تحمل وصفًا محددًا سابقًا.
طريقة تسريب البيانات
وتكمن فكرة الشبكات العصبية في قدرتها على إنشاء صور فريدة وجديدة بعد معالجة كمية هائلة من بيانات التدريب، ولكن تظهر الدراسة الجديدة أن هذه الصور ليست دائمًا فريدة، وفي بعض الحالات يمكن أن تقوم الشبكة العصبية بإعادة إنتاج صور مطابقة تمامًا لصورة سابقة استخدمت في التدريب، الأمر الذي يعني أن الشبكات العصبية قد تكشف عن المعلومات الخاصة دون قصد.
وتعارض تلك الدراسة وجهات النظر التي تتحدث عن أن نماذج الذكاء الاصطناعي المستخدمة في توليد الصور لا تحفظ بيانات التدريب الخاصة بها، وأن بيانات التدريب قد تظل خاصة إذا لم يكشف عنها.
اقرأ أيضًا: كيف تحاول أوروبا وأمريكا السيطرة على الذكاء الاصطناعي؟
وأولى المشاركون في الدراسة لنماذج التعلُّم الآلي التي يعمل بها أنظمة الذكاء الاصطناعي التوليدي اهتمامًا خاصًّا، حيث عملوا على تشويه بيانات التدريب لروبوتات الذكاء الاصطناعي عن طرق إضافة تشويش، وبعدها تدرب الشبكة العصبية على استعادة هذه الصور إلى حالتها الأصلية.
ووجد الباحثون، أن تلك الطريقة أنتجت صورًا ذات جودة مقبولة، ولكن وجدوا أن نماذج الذكاء الاصطناعي تميل لتسريب البيانات، وقد تكون الشبكات كسولة في بعض الأحيان، وتنتج صورًا من مجموعة التدريب التي تتضمن صورًا لمنازل وسيارات وأشخاص ما يجعل بياناتهم مسربة.