يواجه العلماء العاملون في مجال أبحاث الذكاء الاصطناعي مشكلة مصداقية لم يعد بإمكانهم تجاهلها.
أبدت المؤتمرات الكبرى التي تركز على أبحاث الذكاء الاصطناعي ردود فعل بعد أن أصبحت أنظمة المراجعة مكتظة بالمشاركات الضعيفة.
لاحظ المنظمون ارتفاعًا حادًا في عدد الأوراق البحثية والمراجعات العلمية التي تُنتج بجهد بشري ضئيل. لا يكمن القلق في الأسلوب، بل في الدقة. فالأخطاء تتسلل إلى مواضع كانت الدقة فيها ذات أهمية بالغة.
تشن المؤتمرات حملة صارمة بعد أن أغرقت الأوراق البحثية منخفضة الجودة المراجعين
حذّر الباحثون مبكراً من أن الاستخدام غير المنضبط لأدوات الكتابة الآلية قد يضرّ بهذا المجال. وقالت إينيولوا ديبورا راجي، الباحثة في مجال الذكاء الاصطناعي بجامعة كاليفورنيا في بيركلي، إن الوضع سرعان ما تحوّل إلى فوضى عارمة.
وقالت: "هناك مفارقة بسيطة في حقيقة وجود هذا الحماس الكبير للذكاء الاصطناعي في تشكيل مجالات أخرى، بينما في الواقع مر مجالنا بهذه التجربة الفوضوية بسبب الاستخدام الواسع النطاق للذكاء الاصطناعي".
تُظهر البيانات الموثقة مدى انتشار المشكلة. فقد وجدت دراسة أجرتها جامعة ستانفورد ونُشرت في أغسطس أن ما يصل إلى 22% من الأبحاث في مجال علوم الحاسوب أظهرت دلائل على استخدام نماذج لغوية واسعة النطاق.
قامت شركة بانغرام، وهي شركة ناشئة متخصصة في تحليل النصوص، بمراجعة الأبحاث المقدمة وتقييمات النظراء في المؤتمر الدولي لتمثيلات التعلم عام 2025. وقدّرت الشركة أن 21% من التقييمات أُنتجت بالكامل بواسطة الذكاء الاصطناعي، بينما استُخدم في أكثر من نصف الأبحاث في مهام مثل التحرير. كما وجدت أن 9% من الأبحاث المقدمة احتوت على أكثر من نصف محتواها مُنتج بهذه الطريقة.
بلغت المشكلة ذروتها في نوفمبر. فقد أشار المراجعون في مؤتمر ICLR إلى ورقة بحثية يُشتبه في أنها مُولّدة بواسطة الذكاء الاصطناعي، ومع ذلك احتلت مرتبة ضمن أفضل 17% بناءً على تقييمات المراجعين. وفي يناير، أبلغت شركة GPTZero المتخصصة في الكشف عن الأخطاء عن أكثر من 100 خطأ آلي في 50 ورقة بحثية عُرضت في مؤتمر NeurIPS، الذي يُعتبر على نطاق واسع المنصة الأبرز للبحوث المتقدمة في هذا المجال.
مع تزايد المخاوف، حدّثت ICLR قواعد استخدامها قبل انعقاد المؤتمر. باتت الأوراق البحثية التي لا تفصح عن استخدام مكثف لنماذج اللغة مُعرّضة للرفض. كما يُواجه المُراجعون الذين يُقدّمون تقييمات منخفضة الجودة مُنشأة باستخدام برامج آلية عقوبات، بما في ذلك رفض أوراقهم البحثية.
قال هاني فريد، أستاذ علوم الحاسوب في جامعة كاليفورنيا، بيركلي: "إذا كنت تنشر أوراقًا بحثية منخفضة الجودة ومليئة بالمعلومات الخاطئة، فلماذا يثق بنا المجتمع كعلماء؟"
تتزايد كميات الأوراق بشكل كبير بينما يكافح نظام الكشف لمواكبة هذا الارتفاع
بحسب التقرير، تلقى مؤتمر NeurIPS 21575 ورقة بحثية في عام 2025، بزيادة عن 17491 في عام 2024 و9467 في عام 2020. وقد قدم أحد المؤلفين أكثر من 100 ورقة بحثية في عام واحد، وهو ما يتجاوز بكثير ما هو معتاد بالنسبة لباحث واحد.
قال توماس جي. ديتريش، الأستاذ الفخري في جامعة ولاية أوريغون ورئيس قسم علوم الكمبيوتر في arXiv، إن عمليات التحميل إلى المستودع المفتوح ارتفعت بشكل حاد أيضًا.
مع ذلك، يقول الباحثون إن السبب ليس بسيطًا. يرى البعض أن الزيادة تعود إلى ازدياد عدد العاملين في هذا المجال، بينما يرى آخرون أن الاستخدام المكثف لأدوات الذكاء الاصطناعي يلعب دورًا رئيسيًا. ولا يزال الكشف عن هذه الظاهرة صعبًا لعدم وجود معيار موحدdentالنصوص الآلية. وأوضح ديتريش أن من بين العلامات التحذيرية الشائعة المراجع المختلقة والأرقام غير الصحيحة. وقد يُحظر المؤلفون الذين يُضبطون متلبسين بهذا الفعل مؤقتًا من موقع arXiv.
كما أن الضغوط التجارية حاضرة بقوة. فقد دفعت العروض التوضيحية رفيعة المستوى، والرواتب المرتفعة، والمنافسة الشديدة، بعض الجهات في هذا المجال إلى التركيز على الكم. وأشار راجي إلى أن لحظات الإثارةtracجهات خارجية تبحث عن نتائج سريعة.
في الوقت نفسه، يقول الباحثون إن بعض الاستخدامات مشروعة. وأشار ديتريش إلى أن جودة الكتابة في الأوراق البحثية الصينية قد تحسنت، على الأرجح لأن أدوات اللغة تساعد في إعادة صياغة اللغة الإنجليزية بشكل أكثر وضوحًا.
لم يعد الأمر يقتصر على النشر فحسب، بل باتت المشكلة تتجاوز ذلك. إذ تروج شركات مثل جوجل، وأنثروبيك ، وأوبن إيه آي لنماذجها باعتبارها شركاء بحثيين قادرين على تسريع الاكتشافات في مجالات مثل علوم الحياة. وتُدرَّب هذه الأنظمة على نصوص أكاديمية.
حذّر فريد من أن أداء النموذج قد يتدهور إذا احتوت بيانات التدريب على كمية كبيرة من المواد المصطنعة. وتشير الدراسات السابقة إلى أن نماذج اللغة الكبيرة قد تنهار إلى كلام غير مفهوم عند تغذيتها ببيانات آلية غير منقحة.
قال فريد إن الشركات التي تجمع بيانات الأبحاث لديها حوافزtronلمعرفة أي الأوراق البحثية مكتوبة من قبل البشر. وقال كيفن ويل، رئيس قسم العلوم في OpenAI، إن الأدوات لا تزال تتطلب مراجعة بشرية. وأضاف: "يمكن أن يكون ذلك عاملًا محفزًا هائلًا، لكن يجب التحقق منه. فهو لا يُعفي من الدقة والصرامة"
تصوير 