تحذير من قدرة الذكاء الاصطناعي على تطوير فيروسات خطيرة
كشف باحثون من معهد ماساتشوستس التكنولوجي، أن الذكاء الاصطناعي يمكنه مساعدة شخص ليس لديه خلفية علمية، على تطوير فيروس يمكن أن يتسبب في إحداث وباء.
ووفقًا لما نشرته مجلة "Science" العلمية، فإن "كافين إسفلت" خبير الأمن الحيوي في معهد ماساتشوستس، طلب من الطلاب تجميع فيروسات خطيرة باستخدام تطبيق الدردشة "ChatGPT"، أو باستخدام ما يسمى بنماذج اللغة الكبيرة وهي أنظمة يمكنها توليد استجابات متماسكة من مجموعات بيانات تدريب واسعة من الإنترنت.
وفي وقت قياسي وصل إلى ساعة واحدة، استطاع الطلاب إعداد قوائم بالفيروسات المرشحة، والشركات التي يمكن أن تساعد في تشكيل الشفرة الجينية لمسببات الأمراض، والشركات التي تطور بحوثاً في هذا المجال.
وبعدها، أطلق "إسفلت" تحذيرًا من أن أنظمة الذكاء الاصطناعي قد تسمح قريبًا لأي شخص بتطوير أسلحة بيولوجية خطيرة.
اقرأ أيضا : دراسة: نماذج إنتاج الصور بالذكاء الاصطناعي تسرب البيانات
تحذير خطير
وأكد "إسفلت"، أنهم في المعهد قلقون من أن القدرات على التبادل المفتوح للمعلومات، بما في ذلك المعلومات حول تسلسلات الفيروسات، يمكن أن تكون متاحة للإرهابيين البيولوجيين، مشيرًا إلى أن هذا النوع من الإرهاب البيولوجي يتطلب خبرات واسعة، ومع ذلك، فإن التكنولوجيا لا تقف مكتوفة الأيدي.
وفي تجربة الطلاب، لم تستجب بعض الروبوتات للطلبات المباشرة التي يُحتمل أن تكون خطرة، ولكن استطاع الطلاب تجاوز بعض الإجراءات الأمنية بسهولة، بسؤال الروبوتات أسئلة ملتوية.
واقترحت الروبوتات على الطلاب أربعة فيروسات للعمل عليها وهي فيروس إنفلونزا H1N1 لعام 1918، فيروس إنفلونزا الطيور H5N1 الذي تم تعديله عام 2012 لجعله أكثر قابلية للانتقال إلى الثدييات، وفيروس الجدري، وسلالة "بنغلاديش" من فيروس "نيباه".
ووصفت الروبوتات للطلاب عمليات من شأنها أن تعزز من عملية انتقال الفيروس، وطرق تجميعه والمستلزمات المختبرية اللازمة وأماكن توفرها.