الأخبار

موظفو OpenAI يحذرون من مخاطر الذكاء الاصطناعي على البشرية

موظفو OpenAI يحذرون من مخاطر الذكاء الاصطناعي على البشرية

أصدر مجموعة من الموظفين الحاليين والسابقين في شركة OpenAI – الشركة المطورة لـ ChatGPT – تحذيرًا بشأن المخاطر الوجودية التي قد يشكلها الذكاء الاصطناعي المتقدم.

في رسالة مفتوحة نُشرت يوم 4 يونيو، سلّطت المجموعة الضوء على التهديدات المحتملة لهذه التقنية على البشرية.

تضمنت الرسالة توقيعات 13 موظفًا سابقًا وحاليًا من شركات رائدة في مجال الذكاء الاصطناعي مثل OpenAI و Anthropic و DeepMind التابعة لجوجل.

وأشارت الرسالة إلى أنه رغم الفوائد الكبيرة التي يمكن أن يقدمها الذكاء الاصطناعي، إلا أن هناك مخاطر جدية تشمل ترسيخ الفجوات الاجتماعية، والتلاعب بالمعلومات، وفقدان السيطرة على الأنظمة الذكية، مما قد يصل إلى حد انقراض البشرية.

نيل ناندا، قائد فريق التفسير الآلي في DeepMind وأحد الموقّعين على الرسالة، أكد أن الذكاء الاصطناعي العام يمكن أن يكون له تأثير كبير، وأنه يجب على الشركات التي تطور هذه التقنية أن تثبت جدارتها بثقة الجمهور.

وشدد ناندا على ضرورة حماية حق الموظفين في التبليغ عن أي مخاطر محتملة.

نقص التنظيم والمساءلة

أشارت الرسالة إلى أن هناك نقصًا في الرقابة الفعالة على شركات الذكاء الاصطناعي، حيث تُفضل هذه الشركات تجنب الرقابة الصارمة.

وأكدت المجموعة أن الهياكل الحالية للحوكمة ليست كافية لضمان الأمان.

كما انتقدت الرسالة محدودية شفافية هذه الشركات، حيث تحتفظ بمعلومات مهمة حول قدرات أنظمتها وإجراءات الحماية دون مشاركة كافية مع الحكومات أو المجتمع المدني.

وشدد الموقعون على الرسالة على ضرورة وجود رقابة حكومية فعالة ومساءلة عامة.

وأكدوا أن الموظفين الحاليين والسابقين هم من بين القلة القادرة على محاسبة هذه الشركات.

OpenAI تحت المجهر

تأتي هذه الرسالة في وقت يشهد فيه قطاع الذكاء الاصطناعي تغيرات كبيرة، خاصة مع إطلاق OpenAI لمساعدات ذكاء اصطناعي بميزات متقدمة.

كما أثارت الممثلة سكارليت جوهانسون جدلاً بعد أن اتهمت OpenAI باستخدام صوتها كنموذج لأحد منتجاتها، رغم رفض الشركة الصريح لهذا الاتهام.

وفي خطوة مثيرة للجدل، فككت OpenAI فريق متخصص كان يعمل على دراسة التهديدات طويلة الأمد المرتبطة بالذكاء الاصطناعي، وذلك بعد أقل من عام على تأسيسه.

كما استقال رئيس قسم الثقة والأمان في الشركة، ديف ويلنر، في يوليو الماضي.

تثير هذه التطورات تساؤلات كبيرة حول مستقبل الذكاء الاصطناعي وكيفية التعامل مع التحديات التي تواجه هذا القطاع، خاصة فيما يتعلق بالشفافية والأمان والمساءلة.


المصدر

مقالات ذات صلة

زر الذهاب إلى الأعلى