التقارير

مخاطر شات جي بي تي ورفاقه وسط ثورة الذكاء الاصطناعي

شهد عالم التقنية في نوفمبر 2022 زلزالًا هائلًا مع إطلاق شركة OpenAI روبوت المحادثة شات جي بي تي، الذي يتمتع بقدرات بدت وكأنها ضرب من الخيال.

وعلى الرغم من التطور التدريجي لتقنيات الذكاء الاصطناعي على مر السنين، إلا أن شات جي بي تي – ولاحقًا بينغ من مايكروسوفت – أظهرا قدرة مذهلة على إجراء محادثات باللغة الإنجليزية بطلاقة، والبحث عن المعلومات بطرق غير مسبوقة.

أحدث شات جي بي تي ثورة حقيقية، حيث اجتذب 100 مليون مستخدم في غضون شهرين فقط. لكن هذه الشهرة السريعة صاحبها قلق متزايد حول تداعيات عصر الذكاء الاصطناعي الجديد.

هل ستحل الروبوتات محلنا في وظائفنا؟ هل ستتمرد علينا كما في أفلام الخيال العلمي؟ وهل سنتمكن من تمييز ما يكتبه الإنسان عما تنتجه الآلة؟

على الرغم من أن أسوأ المخاوف لم تتحقق بعد، إلا أن شات جي بي تي ونظائره لا تخلو من المخاطر. فهناك مخاوف حقيقية تحيط بهذه التقنية، المعروفة باسم «نماذج اللغة الكبيرة»، تتراوح بين خصوصية البيانات وانتشار المعلومات المضللة، وحتى إساءة استخدامها من قبل جهات خبيثة.

كيف يعمل شات جي بي تي؟

شات جي بي تي هو نموذج لغة كبير تم تدريبه على كميات هائلة من النصوص، من الكتب والأوراق الأكاديمية إلى محتوى الإنترنت.

ويقوم بتحليل هذه المصادر للتعرف على الأنماط، وعند إدخال استفسار، فإنه يولد استجابة بناءً على الاحتمالات الإحصائية المستمدة من بيانات التدريب.

على سبيل المثال، إذا سألت «ما هو 2+2؟»، فإن شات جي بي تي لا يفهم الرياضيات بالطريقة التي يفهمها البشر، بل يعتمد على الأنماط التي رآها أثناء التدريب.

وبما أنه اكتشف معادلات مثل «2+2=4» بشكل متكرر، فمن المرجح أن يجيب بـ «4». ومع ذلك، نظرًا لأن هذا ليس هو الحال دائمًا، فقد يقدم إجابات خاطئة أو غير منطقية.

مخاوف الخصوصية

تعمل العديد من نماذج اللغة الكبيرة، مثل شات جي بي تي، عبر الإنترنت من خلال مراكز بيانات ضخمة. وهذا يعني أن كل ما تكتبه يتم نقله عبر الإنترنت إلى أنظمة الشركة.

وتوضّح سياسة الخصوصية الخاصة بـ OpenAI أنها تستخدم بيانات المستخدمين لتدريب نماذجها، وقد تشاركها مع أطراف ثالثة. كما يطلع موظفو الشركة على بيانات المستخدمين لضبط الاستجابات والكشف عن إساءة الاستخدام.

وقد أثار هذا مخاوف تتعلق بالخصوصية، حيث بدأت لجنة التجارة الفيدرالية الأمريكية تحقيقًا مع OpenAI بشأن تسريب بيانات وعدم دقة التقنية. كما تم تقديم شكوى في الاتحاد الأوروبي تتهم الشركة بانتهاك قواعد الخصوصية الأوروبية.

المعلومات المضللة

من المخاطر الأخرى لـ شات جي بي تي هي ميله إلى إنشاء ونشر معلومات مضللة. فالنماذج اللغوية الكبيرة لا تفهم ما تقوله، بل تعتمد على الاحتمالات الإحصائية. وهذا يعني أنها قد تقدم معلومات خاطئة بثقة، حتى لو كانت غير صحيحة.

وعلى الرغم من الجهود المبذولة لمنع الذكاء الاصطناعي من تقديم نصائح خطيرة أو معلومات مضللة، إلا أنه من الممكن التحايل على هذه الضوابط.

إساءة الاستخدام

شهدنا حالات عديدة لإساءة استخدام شات جي بي تي، مثل إغراق مجلات الخيال العلمي بقصص من تأليف الذكاء الاصطناعي، واستشهاد محامين بقضايا قانونية وهمية من اختراع روبوت الدردشة.

كما حاولت بعض الشركات استبدال الكتّاب بـ شات جي بي تي، مما أدى إلى إنتاج محتوى رديء وغير دقيق.

التحيّز

تدرب نماذج اللغة الكبيرة على كميات هائلة من البيانات، بما في ذلك التحيزات الضارة مثل العنصرية والتمييز الجنسي. وعلى الرغم من محاولات الشركات برمجة الذكاء الاصطناعي لتجنب هذه المشكلات، إلا أن التحيز لا يزال يمثل خطرًا.

على سبيل المثال، أنشأ نموذج جيميني من جوجل صورًا تصوّر النازيين كأشخاص ذوي بشرة سمراء، مما أثار ضجة كبيرة.

كما تُستخدم نماذج اللغة الكبيرة لقراءة طلبات التوظيف، مما يثير مخاوف بشأن التحيز في عملية التوظيف.

بشكل عام، وعلى الرغم من الفوائد المحتملة للذكاء الاصطناعي، إلا أن شات جي بي تي ونظائره يمثلون مخاطر حقيقية في الوقت الحالي.

زر الذهاب إلى الأعلى