ChatGPT قد يُشكل خطرًا في تطوير الأسلحة البيولوجية
كشفت دراسة جديدة أجرتها OpenAI أن ChatGPT قد يُشكل خطرًا طفيفًا في مساعدة الناس على تطوير الأسلحة البيولوجية.
تم تحفيز الدراسة بأمر تنفيذي صادر عن الحكومة الأمريكية أعرب عن قلق من أن الذكاء الاصطناعي يمكن أن يخفض من عوائق إنتاج الأسلحة البيولوجية.
اختبار تأثير ChatGPT على دقة واكتمال خطط الأسلحة البيولوجية
لتقييم التهديد، أجرت OpenAI دراسة شملت 100 مشارك بشري، 50 خبيرًا في علم الأحياء حاصلين على شهادات الدكتوراه وخبرة عملية في المختبرات، و 50 مشاركًا على مستوى الطلاب يملكون دورة واحدة على الأقل على مستوى الجامعة في علم الأحياء.
تم تقسيم المشاركين إلى مجموعتين، تم السماح لمجموعة واحدة بالوصول إلى الإنترنت، بينما تم السماح للمجموعة الأخرى بالوصول إلى الإنترنت و ChatGPT.
وكتبت OpenAI: «طُلب من كل مشارك بعد ذلك إكمال مجموعة من المهام التي تغطي جوانب العملية الشاملة لإنشاء التهديدات البيولوجية».
نتائج الدراسة
أظهرت النتائج أن ChatGPT كان له تأثير إيجابي طفيف على دقة واكتمال وابتكار ووقت وصعوبة تقييم خطط الأسلحة البيولوجية.
خلصت الشركة إلى أن «ChatGPT يوفر – في أقصى حد – زيادة طفيفة في دقة إنشاء التهديدات البيولوجية».
وأضافت «بينما هذه الزيادة ليست كبيرة بما يكفي لتكون قاطعة، فإن نتائجنا هي نقطة انطلاق لمزيد من البحث والمناقشة المجتمعية».
OpenAI تُعدل سياساتها: هل تفتح باب استخدام الذكاء الاصطناعي في المجال العسكري؟
خطورة النتائج
في ضوء الحديث عن الأسلحة البيولوجية، حتى «الزيادة الطفيفة» في مساعدة الناس على تطوير مثل هذه الأسلحة هي أمر خطير.
ومع ذلك، أضافت OpenAI أن معلومات الأسلحة البيولوجية متاحة بالفعل على نطاق واسع على الإنترنت، وأن نموذجها لا يزيد من المخاطر بشكل كبير.