أمازون تمنع موظفيها من استخدام أدوات الذكاء الاصطناعي في العمل
أصدرت شركة أمازون مؤخرًا إشعارًا تحذيريًا لموظفيها، تنصحهم فيه بعدم استخدام أدوات الذكاء الاصطناعي التوليدية التابعة لجهات خارجية مثل ChatGPT لأغراض متعلقة بالعمل.
وتأتي هذه النصيحة بعد أن كشفت عدة مذكرات داخلية، حصلت عليها مجلة Business Insider، عن موقف الشركة بشأن هذه المسألة.
وفي رسالة بريد إلكتروني حديثة للموظفين، أكدت أمازون أهمية حماية المعلومات السرية، قائلة: "بينما قد نجد أنفسنا نستخدم أدوات GenAl، خاصة عندما يبدو أنها تجعل الحياة أسهل، يجب أن نتأكد من عدم استخدامها في أعمال أمازون السرية".
تحذيرات أمازون للحفاظ على السرية
وحذرت الشركة صراحةً من مشاركة أي بيانات سرية خاصة بأمازون أو العملاء أو الموظفين في أثناء استخدام أدوات الذكاء الاصطناعي التوليدية التابعة لجهات خارجية.
اقرأ أيضاً..أمازون تدرس التوسع في سوق السيارات الكهربائية بالمملكة
وتسلط التفاصيل الإضافية من سياسة الاستخدام والتفاعل الداخلي للذكاء الاصطناعي التابع لجهة خارجية في أمازون الضوء على المخاطر المحتملة المرتبطة بمثل هذه الأدوات.
ووفقًا للسياسة، يجوز للشركات التي تقدم خدمات الذكاء الاصطناعي التوليدية تأكيد حقوق الملكية أو الترخيص لأي محتوى يدخله الموظفون.
ويتضمن ذلك مجموعة واسعة من المخرجات مثل رسائل البريد الإلكتروني والوثائق الداخلية ومواد الإطلاق المسبق، والتي يمكن الوصول إليها ومراجعتها وتوزيعها من قبل مالكي الذكاء الاصطناعي التوليدي.
ويتوافق نهج أمازون الحذر مع التدابير المماثلة التي اتخذتها شركات التكنولوجيا العملاقة الأخرى مثل سامسونج وأبل، والتي قامت أيضًا بتقييد استخدام أدوات الذكاء الاصطناعي التوليدية داخليًا.
اقرأ أيضاً..منها أمازون وغوغل.. شركات تكنولوجية عملاقة تفتتح مقرات رئيسة في الرياض
ومن الجدير بالذكر، أن هذه القيود تتأثر جزئيًا بالمخاوف المتعلقة بحقوق الملكية، خاصة في ضوء استثمار Microsoft الكبير في OpenAI، الشركة التي تقف وراء أدوات مثل ChatGPT.
وتثير مشاركة ميكروسوفت احتمالية مطالبتها بحقوقها في النتائج التي تولدها مثل هذه النماذج.