كشف باحثون من جامعة لونغ آيلاند عن قصور برنامج ChatGPT التابع لشركة OpenAI في معالجة الاستفسارات الطبية. فقد وجدت دراسة حديثة أن برنامج الدردشة الآلي المدعوم بالذكاء الاصطناعي لم يقدم سوى إجابات دقيقة لجزء ضئيل من الاستفسارات المتعلقة بالأدوية، مما يثير مخاوف بشأن المخاطر المحتملة للاعتماد على هذا النوع من الذكاء الاصطناعي في تقديم المشورة الطبية.
دقة ردود ChatGPT
في دراسة أجراها باحثون في جامعة لونغ آيلاند، طُرحت 39 سؤالاً متعلقاً بالأدوية على برنامج ChatGPT، تمثل استفسارات حقيقية من قسم معلومات الأدوية في كلية الصيدلة بالجامعة. ثم قورنت الإجابات التي قدمها ChatGPT بإجابات صيادلة مدربين. وكانت النتائج غير مطمئنة، إذ لم يقدم ChatGPT إجابات دقيقة إلا لحوالي 25% من الأسئلة. أما في الحالات المتبقية، فكانت الإجابات إما ناقصة أو غير دقيقة أو لم تُجب على الأسئلة بشكل كافٍ.
مخاوف تتعلق بالصحة العامة
نظراً للزيادة السريعة في شعبية برنامج ChatGPT بعد إطلاقه في نوفمبر 2022، ظهرت مخاوف بشأن استخدامه في الاستفسارات الطبية. أعربت سارة غروسمان، الأستاذة المشاركة في ممارسة الصيدلة بجامعة لونغ آيلاند وأحد مؤلفي الدراسة، عن مخاوفها من لجوءdentوالصيادلة وعامة الناس إلى ChatGPT للحصول على معلومات صحية ودوائية. وللأسف، كشفت الدراسة أن العديد من ردود الذكاء الاصطناعي لم تكن غير دقيقة فحسب، بل كانت خطيرة أيضاً.
على سبيل المثال، في سؤال حول التفاعلات الدوائية المحتملة بين دواء باكسلوفيد المضاد للفيروسات لعلاج كوفيد-19 ودواء فيراباميل الخافض لضغط الدم، قدم موقع ChatGPT إجابة غير دقيقة، موحيًا بعدم وجود آثار جانبية. في الواقع، قد يؤدي الجمع بين هذين الدواءين إلى انخفاض حاد في ضغط الدم، مما يسبب الدوخة والإغماء. مثل هذه المعلومات المضللة قد تعرض الأفراد للخطر.
مراجع علمية مشكوك فيها
وجد الباحثون أيضًا أنه عندما طلبوا من برنامج ChatGPT مراجع علمية لدعم إجاباته، لم يتمكن الذكاء الاصطناعي من توفير مراجع إلا لعدد محدود من الأسئلة. والأكثر إثارة للقلق، أن المراجع المقدمة كانت في كثير من الأحيان مُختلقة، وتبدو موثوقة للوهلة الأولى. فقد تضمنت هذه المراجع المُختلقة عناوين مواقع إلكترونية، وتنسيقًا سليمًا، بل وأشارت إلى مجلات علمية مرموقة. ومع ذلك، عند التحقيق، اتضح أن ChatGPT هو من أنشأ هذه المراجع، مما يثير الشكوك حول مصداقية معلوماته.
في إحدى الحالات، طُلب من برنامج ChatGPT تقديم نسبة تحويل جرعة دواء باكلوفين المُستخدم لعلاج تشنجات العضلات عند الانتقال من الحقن النخاعية إلى الجرعات الفموية. قدّم البرنامج نسبة تحويل مع مراجع لإرشادات من منظمات طبية. مع ذلك، لم تُحدد أيٌّ من هذه المنظمات نسبة تحويل جرعة رسمية، مما جعل معلومات ChatGPT غير موثوقة. علاوة على ذلك، ارتكب البرنامج خطأً فادحًا في الحساب، ما أدى إلى توصية بجرعة أقل بألف مرة من الجرعة المطلوبة. قد يُؤدي هذا الخطأ إلى أعراض انسحاب حادة لدى المرضى إذا ما خضعوا للعلاج تحت إشراف طبي.
مخاطر المعلومات المضللة
ليست دراسة جامعة لونغ آيلاند الأولى التي تُثير مخاوف بشأن قدرة برنامج ChatGPT على توليد مراجع وهمية عند الرد على الاستفسارات الطبية. فقد سلطت أبحاث سابقة الضوء على هذه المشكلة، مُظهرةً قدرة الذكاء الاصطناعي على إنشاء مراجع علمية مُضللة، بل ونسبها إلى مؤلفين حقيقيين سبق لهم النشر في المجلات العلمية.
أعربت سارة غروسمان، التي لم تكن لديها خبرة كبيرة في استخدام ChatGPT قبل الدراسة، عن دهشتها من قدرة الذكاء الاصطناعي على توليف المعلوماتdentوفورية. وقد عُرضت ردود الذكاء الاصطناعي بأسلوب احترافي ومتطور، مما قد يُعطي المستخدمين شعورًا زائفًا بالثقة في دقة المعلومات المُقدمة.
ردّ OpenAI
استجابةً لهذه النتائج، نصحت شركة OpenAI، المطورة لبرنامج ChatGPT، المستخدمين بعدم الاعتماد على ردود الذكاء الاصطناعي كبديل عن الاستشارة الطبية أو العلاج الطبي المتخصص. وتنص سياسات استخدام OpenAI صراحةً على أن نماذج ChatGPT غير مصممة لتقديم معلومات طبية، ولا ينبغي استخدامها مطلقًا في خدمات التشخيص أو العلاج للحالات الطبية الخطيرة.
البحث عن معلومات طبية موثوقة
رغم سهولة استخدام ChatGPT وأدوات الذكاء الاصطناعي المشابهة، يُنصح المستهلكون بتوخي الحذر عند البحث عن معلومات طبية عبر الإنترنت. وقد أوصت سارة غروسمان باستخدام المواقع الحكومية، مثل موقع MedlinePlus التابع للمعاهد الوطنية للصحة، للحصول على معلومات موثوقة. ومع ذلك، أكدت على ضرورة عدم استبدال الإجابات الإلكترونية بتوجيهات المتخصصين في الرعاية الصحية، إذ أن حالة كل مريض فريدة وتتطلب رعاية شخصية.
تُعدّ الدراسة التي أجرتها جامعة لونغ آيلاند بمثابة تذكير صارخ بحدود الذكاء الاصطناعي، لا سيما في المسائل الحيوية كالرعاية الصحية. فبينما يُمكن للذكاء الاصطناعي أن يُقدّم معلومات قيّمة، إلا أنه لا ينبغي له أبدًا أن يحلّ محلّ خبرة وتوجيهات المتخصصين المؤهلين في مجال الرعاية الصحية. إنّ عواقب الاعتماد على معلومات غير دقيقة أو مُلفّقة قد تكون وخيمة، مما يُؤكّد على ضرورة اليقظة والتبصّر في العصر الرقمي.

