العبارات المعذبة (Tortured phrases) في النشر العلمي

صورة من موقع Nature

إذا كنت تقرأ الأوراق البحثية بانتظام، فقد تلاحظ بعض العبارات الغريبة أو المضحكة التي تخالف الاستخدام المعتاد للغة. مثل “الوعي المزيف counterfeit consciousness” بدلاً من “الذكاء الاصطناعي artificial intelligence” أو “التعلم الآلي المتقدم” بدلاً من “التعلم العميق”. هذه الأمثلة تسمى بالعبارات المعذبة (Tortured phrases): وهي عبارات غير متوقعة وغريبة تحل محل العبارات الأصلية، والتي قد تشير إلى أن النص تم إنشاؤه أو إعادة كتابته باستخدام نماذج لغوية اصطناعية مما يؤدي إلى صعوبة فهم المعلومات المقدمة في الأوراق العلمية.

ففي ورقة بحثية نشرت عام 2021م في مستودع arXiv بعنوان (Tortured phrases: A dubious writing style emerging in science. Evidence of critical issues affecting established journals) قدم ثلاثة باحثين مفهومًا جديدًا يسمى بالعبارات المعذبة قد تكون ولدت نتيجة لخطأ في نموذج اللغة أو بسبب إعادة كتابة النص باستخدام أدوات على الإنترنت. ففي كلتا الحالتين، فإن وجود هذه العبارات يشير إلى أن النص ليس أصيلًا.

وطبقًا لما ذكر في البحث، فإن الباحثين قاموا بتمشيط المجلات العلمية للبحث عن “Tortured phrases” ودرسوا مجلة معروفة تركزت هذه العبارات فيها بكثافة. وافترضوا استخدام نماذج اللغة المتقدمة في الأوراق المنشورة، حيث استخدم الباحثون هذا المفهوم للكشف عن حالة مثيرة للقلق من اختراق مجلة علمية مرموقة بالأوراق التافهة أو المزورة. يشتبه في أن بعض المؤلفين استخدموا نصوصًا مولدة أو معاد كتابتها لإضافة حجم إلى أوراقهم، والتي تجاوزت بسهولة مجهر عملية المراجعة الندية الضعيفة.

في الواقع تثير هذه الورقة قضية هامة بخصوص تهديد سلامة النشر العلمي. فكيف يمكن للباحثين والمحررين والقراء التمييز بين النصوص الحقيقية والزائفة؟ وكيف يمكن منع اختراق نظام النشر بالأوراق التافهة أو المزورة؟ أيضاً كيف يمكن حماية حقوق المؤلف والسمعة للباحثين الأصليين؟

ختاماً، على الرغم من أن هذه الورقة البحثية قد كشفت الستار عن بعد جديد في النشر العلمي، إلا إن التطبيقات العملية لهذا البحث تتمثل في زيادة الوعي بالمنشورات التي تحتوي على نصوص مشكوك فيها أو المعاد كتابتها بواسطة الذكاء الاصطناعي والتي اجتازت عملية مراجعة الأقران الضعيفة، مما يهدد نزاهة المجلات العلمية . بالإضافة إلى السعي لتحسين جودة المجلات العلمية والحفاظ على نزاهتها من خلال التحقق من صحة المقالات المنشورة والكشف عن المقالات المزيفة باستخدام الأدوات الحديثة.

الاحتراق البحثي من “لحظة الآيفون” للذكاء الاصطناعي

يعتبر الاحتراق البحثي ظاهرة تنشأ من الضغوط المتزايدة على الباحثين لتحقيق الإنجازات العلمية وتحديث معرفتهم باستمرار ليظلوا على قدم المساواة مع التطورات السريعة في مجال الذكاء الاصطناعي. يتضمن ذلك المطالبة بنشر الأبحاث، والمشاركة في المؤتمرات، والحصول على التمويل، أما إذا كانوا طلاب دراسات عليا فأقصى مساعيهم هو الحصول على الدرجة العلمية بنجاح من غير أن يسبقهم أحد لفكرة الرسالة.

يمكن أن يؤدي هذا الضغط إلى ظروف عمل مرهقة نفسياً وجسدياً للباحثين وربما لتدني الجودة البحثية. فخلال قرائتي لمقالة بعنوان “خلف الستارة: كيف يشعر العاملون في مجال الذكاء الاصطناعي الآن”، من تأليف ناثان لامبرت (Nathan Lambert)، تحدث المؤلف فيها عن التحديات والضغوطات التي يواجهها العاملون في مجال الذكاء الاصطناعي في ظل التطورات السريعة والمثيرة التي حدثت بعد ظهور نموذج ChatGPT، أو ماسماها “لحظة الآيفون” للذكاء الاصطناعي.
يصف المؤلف شعوره وشعور زملائه في المجال الأكاديمي والصناعي بالإثارة والضغط والخوف من فوات الفرص (الفومو (fear of missing out)) في مجال الذكاء الاصطناعي، بعد أن أحدث نموذج ChatGPT انقلابًا في قدرات النماذج اللغوية الكبيرة (LLMs) حيث يقول المؤلف: “كل شخص أعرفه يعمل في مجال الذكاء الاصطناعي هذه الأيام (في كل من الأكاديميا والصناعة) قد تأثر بلحظة ChatGPT. أول لحظة آيفون للذكاء الاصطناعي”.

صحيح أن مجال الذكاء الاصطناعي يشهد تغيرات هائلة ومبهرة، وأن هذا يولد حماسة وضغطًا وقلقًا لدى العاملين فيه، لكنني أتساءل عن مستقبل البحث العلمي في هذا المجال، خاصة لطلاب الماجستير والدكتوراه الذين يعملون على مشاريع تتعلق بالنماذج اللغوية أو التوليد التلقائي. هل سيتمكنون من منافسة نموذج ChatGPT الذي يبدو قادرًا على حل معظم المشكلات البحثية بسهولة؟ هل سيجدون مساحة للابتكار والإبداع والإسهام في تطوير هذه التقنية؟ هل سيحصلون على الدعم والتقدير والفرص التي يستحقونها؟

ماذا عن المتخصصين في معالجة اللغة الطبيعية (NLP) الذين يعملون في مجالات أخرى غير التوليد التلقائي، مثل تحليل المشاعر أو التلخيص الآلي وإعادة الصياغة وغيرها؟ هل سيتأثرون أيضًا بنموذج ChatGPT أو سيستفيدون منه؟ هل سيحتاجون إلى تعديل أو تحديث أو تطوير منهجياتهم وأدواتهم وتقنياتهم؟ أم سيصبح ChatGPT جزء من الأدوات التي سيوظفونها في منهجياتهم؟

وعلى الرغم من هذا التطور الهائل في الذكاء الاصطناعي إلا أنه لايزال يثير تحديات ومخاوف وضغوطات للعاملين فيه. فهل نستطيع مواكبة هذا التغير السريع والتأقلم معه؟ وهل ندرك تأثيراته وآثاره على حياتنا ومجتمعاتنا؟ هذه بعض التساؤلات التي ترافق ضبابية المرحلة التي نمر بها الآن.

وفي ختام مقالة ناثان، قدم بعض النصائح للتغلب على الضغوط والتحديات التي يواجهها العاملون في مجال الذكاء الاصطناعي، ومنها: التركيز على حل المشاكل الحقيقية والمهمة، وعدم الانسياق وراء الضجيج والتأثيرات والمظاهر، والحفاظ على التوازن بين العمل والراحة والترفيه، والتعاون مع الآخرين وتبادل المعرفة والخبرات. يقول المؤلف: “أنا أحاول أن أبقى هادئًا وأن أعمل على مشاريع تهمني حقًا، وأن أستمتع بالأشياء البسيطة في الحياة، وأن أتواصل مع زملائي وأصدقائي وأساتذتي”.

القلق من الذكاء الاصطناعي (AI Anxiety)

لا شك أن الذكاء الاصطناعي قد أحدث ثورة في كثير من المجالات والصناعات، وقد ساهم في تحسين جودة حياتنا بطرق عدة. وبفضل الذكاء الاصطناعي، نستطيع أن نستفيد من خدمات أسرع وأدق وأرخص، مثل االتشخيص، وأتمتة العمليات وغيرها. كما نستطيع أن نحصل على معلومات ومعرفة أكثر وأوسع، بفضل قدرة الذكاء الاصطناعي على تحليل وتوليد البيانات والنصوص. كما نستطيع أن نستمتع بتجارب ترفيهية وتعليمية أكثر تفاعلاً وإبداعًا، بفضل قدرة الذكاء الاصطناعي على خلق المحتوى الإبداعي.

ولكن مع كل هذه المزايا، هناك أيضًا تحديات ومخاطر يجب أن نواجهها ونتغلب عليها. بعض هذه التحديات هي:

  • التأثير على سوق العمل: قد يؤدي الذكاء الاصطناعي إلى استبدال بعض الوظائف التقليدية بآلات أو برامج أكثر كفاءة، مما قد يزيد من معدلات البطالة أو يضطر العاملين إلى تغيير مهاراتهم أو مجالاتهم.
  • التأثير على المجتمع: قد يؤدي الذكاء الاصطناعي إلى تغير بعض القيم والأخلاق والثقافات التي نحترمها كبشر، مثل حقوق الإنسان، أو التنوع، أو التضامن. كما قد يؤدي إلى تفاقم بعض المشكلات الإجتماعية، مثل التمييز، أو التفرقة، أو التلاعب.
  • التأثير على الأمن: قد يؤدي الذكاء الاصطناعي إلى خلق تهديدات جديدة للأمن القومي أو الشخصي، مثل استخدامه في الحرب، أو الإرهاب، أو الجريمة. كما قد يؤدي إلى خلق مشاكل تقنية أو قانونية، مثل الخصوصية، أو المسؤولية، أو الأمان.
  • التأثير على الأسواق: يمكن للذكاء الاصطناعي خلق الأزمات المالية مثل أن يؤدي إلى اختلافات في سعر صرف العملات أو اضطرابات في سوق المال. أو توسيع الفجوة الاجتماعية والاقتصادية، حيث يمكن للذكاء الاصطناعي أن يزيد من التفاوت في الدخل والثروة والفرص بين الأغنياء والفقراء.

رغم كل هذه التحديات والمخاطر، فإن الذكاء الاصطناعي ليس عدوًا لنا، بل شريكًا ومساعدًا. لذلك، علينا أن نتعلم كيف نستخدمه بشكل ذكي وأخلاقي ومسؤول. بعض الإستراتيجيات التي يمكن أن تساعدنا في ذلك هي:

  • التعلم المستمر: علينا أن نحافظ على تطوير مهاراتنا ومعرفتنا بشكل مستمر، لنتمكن من مواكبة التغيرات التي يجلبها الذكاء الاصطناعي في مجالاتنا وحياتنا. كما علينا أن نتعلم كيف نتفاعل ونتعامل مع الذكاء الاصطناعي بشكل فعال وآمن.
  • التعاون البشري: علينا أن نحافظ على تقوية علاقاتنا وتضامننا مع بعضنا البعض كبشر، لنتمكن من مواجهة التحديات والفرص التي يجلبها الذكاء الاصطناعي. كما علينا أن نتعاون مع الخبراء والمسؤولين في مجال الذكاء الاصطناعي، لإبداء آرائنا ومطالبنا وحقوقنا.
  • التوافق الأخلاقي: علينا أن نضع مبادئ وقوانين وضوابط أخلاقية لتطوير وتطبيق الذكاء الاصطناعي، لضمان احترام حقوق وحرية وكرامة الإنسان. كما علينا أن نراقب ونقيِّم آثار الذكاء الاصطناعي على المجتمع والبيئة، وأن نتخذ التدابير اللازمة لتصحيح أو منع أي سلبية.

الخلاصة:
الذكاء الاصطناعي هو حقل مدهش ومثير من حقول علوم الحاسب، يهدف إلى خلق برامج قادرة على محاكاة أو تجاوز بعض جوانب الذكاء البشري. فالذكاء الاصطناعي قد يجلب لنا مزايا وفرص كبيرة، لكنه قد يجلب أيضًا تحديات ومخاطر جسيمة. لذلك، علينا أن نتعلم كيف نستخدمه بشكل ذكي وأخلاقي ومسؤول، وأن نتعاون مع بعضنا البعض ومع الذكاء الاصطناعي نفسه، لضمان مستقبل أفضل للجميع.