الأخبار

نماذج الذكاء الاصطناعي القادمة ستقدر على التفكير مثل البشر

بدأت شركات التقنية العملاقة مثل ميتا و OpenAI العمل على تطوير نماذج لغوية ضخمة جديدة للذكاء الاصطناعي، تمتلك قدرات أكثر تطورًا وإنسانية في التفكير والاستدلال والتذكّر. وأشارت التصريحات الأخيرة لقادة هذه الشركات إلى أن الجيل الجديد من هذه النماذج سيكون قادرًا على التفكير بطريقة أكثر تعقيدًا قريبة من التفكير البشري.

في حدث أقامته شركة ميتا هذا الأسبوع، أكد نائب رئيس الشركة لشؤون العلاقات العامة العالمية نيك كليغ، أنهم يأملون في إطلاق نموذجهم اللغوي الضخم الجديد Llama 3 خلال الأسابيع القادمة. وأضاف أن هذا النموذج سيكون قادرًا على التفكير والتخطيط والتذكر بشكل أفضل من النماذج الحالية.

أما جويل بينو، نائبة رئيس قسم بحوث الذكاء الاصطناعي في ميتا، فقد صرحت بأن الشركة تعمل بجد على تطوير نماذج قادرة «ليس فقط على التحدث، ولكن أيضًا على التفكير والتخطيط والتذكر».

من جانبها، أشارت شركة OpenAI إلى أن نسختها القادمة من نموذجها اللغوي الضخم «GPT-5» ستظهر تقدمًا في حل الاستفسارات الصعبة باستخدام التفكير والاستدلال.

وقال براد لايتكاب، المدير التنفيذي للعمليات في الشركة: «سنبدأ في رؤية ذكاء اصطناعي قادر على تولي مهام أكثر تعقيدًا بطريقة أكثر تطورًا»، مضيفًا أنهم «لم يبدأوا سوى بخدش السطح لقدرات هذه النماذج على التفكير».

وبينما تواصل شركات التقنية العملاقة العمل على تطوير واجهات ذكية أكثر تطورًا وإنسانية، فإن فكرة وجود روبوتات محادثة قادرة على «التفكير» والتذكّر تثير الإثارة والقلق في آن واحد.

فمن ناحية، تعد هذه التطورات إنجازًا تقنيًا مذهلاً، لكنها تطرح في الوقت نفسه تساؤلات أخلاقية وقانونية خطيرة حول كيفية استخدام هذه التقنيات وآثارها على المجتمع والأفراد.

ولا شك أن هذه الخطوة ستفتح المجال لاستخدامات إيجابية وسلبية على حد سواء، الأمر الذي يتطلب من الشركات المطورة والجهات التنظيمية وضع ضوابط وإرشادات صارمة لضمان استخدام هذه التقنيات بطريقة آمنة وأخلاقية تحمي خصوصية الأفراد وحقوقهم.

اقتراحات المُحرر


المصدر

زر الذهاب إلى الأعلى