حقبة الذكاء الاصطناعي التوليدي قد بدأت وأصبحت جزءاً لا يتجزأ من الشركات الرائدة في العالم، واعتمد الكثير من الموظفين على هذه التقنية في أعمالهم اليومية. ولكن، مع ازدياد استخدام الذكاء الاصطناعي في إنتاج ونشر المحتوى، تطرح تساؤلات حول الآثار طويلة الأمد لهذا التوجه.
فقد توصل مجموعة من الباحثين في المملكة المتحدة وكندا إلى أن استخدام المحتوى الذي تم إنشاؤه بواسطة النماذج الأخرى في التدريب يتسبب في عيوب غير قابلة للرجوع في النماذج الناتجة. هذا العملية تسمى “الانهيار النموذجي “model collapse”، وتحدث عندما يبدأ الذكاء الاصطناعي في التعلم من البيانات التي تم إنشاؤها بواسطة النماذج الأخرى، مما يؤدي إلى تدهور النماذج مع مرور الوقت ونسيان التوزيع الأساسي للبيانات.
يمكن أن يؤدي هذا الانهيار النموذجي إلى زيادة الأخطاء في الإجابات والمحتوى الذي ينتجه الذكاء الاصطناعي، وإنتاج تنوع أقل بكثير في إجاباته. وهذا يحدث عندما تتلوث مجموعة التدريب بالبيانات التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مما يؤدي إلى تشويه تصور النماذج للواقع.
توصل الباحثون إلى أن هذا الانهيار النموذجي لا يزال يحدث، حتى عندما يتم تدريب النماذج لعدم إنتاج الكثير من الإجابات المتكررة. فقد وجدوا أن النماذج تبدأ في اختراع استجابات خاطئة لتجنب تكرار البيانات بشكل متكرر. ويمكن أن يؤدي هذا إلى تداعيات أكثر خطورة، مثل التمييز على أساس الجنس، أو العرق، أو سمات حساسة أخرى.
في النهاية، الانهيار النموذجي هو تحدي كبير يواجه الذكاء الاصطناعي والذي يتطلب البحث العلمي والتطوير لحله. ويتمثل الهدف منه هو ضمان تمثيل عادل لجميع الفئات والمجموعات الفرعية في البيانات لتجنب التشوهات والتحيزات في النماذج الناتجة.
المصدر:
The AI feedback loop: Researchers warn of ‘model collapse’ as AI trains on AI-generated content