الأخبار

OpenAI تُفكك فريق تقييم مخاطر الذكاء الاصطناعي وسط جدل حول سلامة منتجاتها

OpenAI تُفكك فريق التحكم بالذكاء الاصطناعي وسط جدل حول سلامة منتجاتها

أعلنت شركة OpenAI عن حلّ فريق «التحكم بالذكاء الاصطناعي» المسؤول عن تقييم المخاطر بعد عام واحد فقط من تأسيسه، وفقًا لما أكده مصدر مطلع لشبكة سي إن بي سي. وأوضح المصدر، الذي طلب عدم الكشف عن هويته، أن بعض أعضاء الفريق تمّ نقلهم إلى فرق أخرى داخل الشركة.

يأتي هذا القرار بعد أيام من إعلان كل من المؤسس المشارك إيليا سوتسكيفر، وجان لايك، قائد فريق «التحكم بالذكاء الاصطناعي»، عن مغادرتهما الشركة.

وكان لايك قد كتب يوم الجمعة أن «ثقافة وعمليات السلامة في OpenAI قد تراجعت أمام المنتجات اللامعة».

وأشار لايك إلى اعتقاده بأن الشركة يجب أن تركّز المزيد من جهودها على الأمن والمراقبة والتأهب والسلامة والتأثير المجتمعي، مُعبّرًا عن قلقه من أن الشركة  «ليست على المسار الصحيح لتحقيق ذلك».

وأضاف لايك أن OpenAI يجب أن تصبح «شركة ذكاء اصطناعي عام تضع السلامة في المقام الأول».

وأوضح أن «بناء آلات أكثر ذكاءً من البشر هو مسعى خطير بطبيعته، وأن OpenAI تتحمل مسؤولية هائلة نيابة عن البشرية جمعاء».

يذكر أن فريق «التحكم بالذكاء الاصطناعي» تأسس العام الماضي بهدف «تحقيق اختراقات علمية وتقنية لتوجيه وتحكم أنظمة الذكاء الاصطناعي الأكثر ذكاءً منا».

وفي ذلك الوقت، قالت الشركة أنّها ستخصص 20% من طاقتها الحاسوبية لهذه المبادرة على مدى أربع سنوات.

لم ترد OpenAI على هذه التقارير بعد، واكتفت بالإحالة إلى منشور حديث للمؤسس المشارك والرئيس التنفيذي سام ألتمان على منصة إكس، حيث أعرب عن حزنه لمغادرة لايك، وأكد أن الشركة لديها المزيد من العمل للقيام به.

يأتي خبر حلّ الفريق بعد أيام من إطلاق نموذج ذكاء اصطناعي جديد ونسخة سطح مكتب من ChatGPT، إلى جانب واجهة مستخدم محدّثة، في أحدث جهود الشركة لتوسيع استخدام روبوت الدردشة الشهير.

وقالت ميرا موراتي رئيسة قسم التقنية، أن التحديث يجلب نموذج GPT-4 للجميع، بما في ذلك الحسابات المجانية.

وأضافت أن النموذج الجديد GPT-4o «أسرع بكثير» مع قدرات محسّنة في النص والفيديو والصوت.

وأوضحت OpenAI أنها تخطط في النهاية للسماح للمستخدمين بإجراء محادثات فيديو مع ChatGPT، مؤكدةً أن «هذه هي المرة الأولى التي نتخذ فيها خطوة كبيرة إلى الأمام فيما يتعلق بسهولة الاستخدام».


المصدر

مقالات ذات صلة

زر الذهاب إلى الأعلى