شركة OpenAI لا تفهم طريقة عمل تقنياتها كليًا!
في الوقت الذي تستثمر فيه شركة OpenAI مليارات الدولارات لتطوير تقنيات الذكاء الاصطناعي التي تُغير العالم، تواجه الشركة تحديات كبيرة في فهم كيفية عمل هذه التقنيات بشكل دقيق.
خلال قمة “الذكاء الاصطناعي من أجل الخير” التي عقدت في جنيف الأسبوع الماضي، واجه الرئيس التنفيذي لشركة OpenAI سام ألتمان، سؤالاً محوريًا حول كيفية عمل نماذج اللغة الكبيرة التي تطورها الشركة.
جاء رد ألتمان ليعترف بأن الشركة لم تحل بعد مشكلة تفسير نتائج هذه النماذج، مؤكداً أن الشركة لا تزال تجهل كيفية تتبع القرارات التي تتخذها هذه النماذج للوصول إلى مخرجاتها، والتي تكون أحيانًا غريبة وغير دقيقة.
هذا الاعتراف الصريح من ألتمان يعكس تحديات حقيقية تواجهها شركات الذكاء الاصطناعي.
فبينما تتفاعل روبوتات الدردشة الذكية بسلاسة مع الاستفسارات، يبقى تفسير العمليات الداخلية لهذه النماذج أمرًا معقدًا للغاية.
وتحتفظ OpenAI بسرية البيانات التي تستخدمها لتدريب نماذجها، مما يزيد من صعوبة فهم آليات عملها.
تقرير حديث أعده 75 خبيرًا بتكليف من الحكومة البريطانية أكد أن مطوري الذكاء الاصطناعي يفهمون القليل عن كيفية عمل أنظمتهم، وأوضح أن المعرفة العلمية في هذا المجال ما زالت محدودة للغاية.
وفي محاولة لفك شفرة “الصندوق الأسود” للذكاء الاصطناعي، تعمل بعض الشركات المنافسة مثل أنثروبيك على رسم خريطة للخلايا العصبية الاصطناعية في خوارزمياتها.
وأفادت الشركة بأنها استثمرت بشكل كبير في أبحاث التفسير منذ تأسيسها، إلا أنها اعترفت بأن العملية ما زالت في بداياتها.
تأتي هذه التحديات في وقت يشهد فيه الذكاء الاصطناعي انتشارًا واسعًا، مما يجعل فهم آلياته أكثر أهمية من أي وقت مضى، خاصة في ظل المخاوف من أنظمة الذكاء الاصطناعي التي قد تنحرف عن السيطرة وتشكل تهديدًا على البشرية.
ألتمان، الذي قام مؤخرًا بحل الفريق المخصص للتحكم في أنظمة الذكاء الاصطناعي الأكثر ذكاءً من البشر، يترأس الآن لجنة جديدة للسلامة في OpenAI.
ورغم التحديات، يبقى من مصلحة ألتمان طمأنة المستثمرين بأن الشركة ملتزمة بالأمان، حتى وإن كانت لا تفهم بعد بشكل كامل كيفية عمل تقنياتها.
في ختام القمة، قال ألتمان: “يبدو لي أنه كلما فهمنا أكثر ما يحدث في هذه النماذج، كان ذلك أفضل”.
يعكس هذا التصريح التزام الشركة بالسعي لفهم أعمق لتقنياتها، رغم التحديات الكبيرة التي تواجهها في هذا المجال.