الهلوسة الناتجة عن الذكاء الاصطناعي: مصدر قلق صحي متزايد في عام 2023

- في عام 2023، تنتشر الهلوسات الناتجة عن الذكاء الاصطناعي بسرعة، مما يشكل تحدياً كبيراً.
- يمكن للذكاء الاصطناعي، كما يتضح من روبوت الدردشة "تاي" التابع لشركة مايكروسوفت، أن يحاكي الأفعال البشرية الضارة، مما يزيد من المخاوف.
- إن المعلومات المضللة التي تنشرها تقنيات الذكاء الاصطناعي تهدد الصحة وتشوه الواقع، مما دفع الخبراء إلى إصدار تحذيرات بشأن أزمة معلوماتية مدفوعة بالذكاء الاصطناعي.
أدى انتشار الذكاء الاصطناعي إلى ظهور ظاهرة مقلقة: الهلوسة الناتجة عن الذكاء الاصطناعي. وقد اكتسب مصطلح "الهلوسة" معنى جديدًا ومثيرًا للقلق في العصر الرقمي، حيث يمكن لأنظمة الذكاء الاصطناعي إنتاج معلومات مضللة قد تؤثر على الأفراد والمجتمع. في عام 2023، حظي هذا التوجه باهتمام كبير، ما دفع موقع Dictionary.com إلى اختيار "الهلوسة" ككلمة العام.
كلمة العام 2023 بحسب موقع Dictionary.com
إن اختيار موقع Dictionary.com لكلمة "hallucinate" ككلمة العام يُشير بوضوح إلى تزايد انتشار المعلومات المضللة المُولّدة بواسطة الذكاء الاصطناعي. ويعكس هذا الاختيار زيادة بنسبة 46% في عمليات البحث عن كلمة "hallucinate" في القاموس بين عامي 2022 و2023، إلى جانب ارتفاع مماثل في عمليات البحث عن كلمة "hallucination". ومع ذلك، فإن الدافع وراء هذا الارتفاع ليس defiالتقليدي للكلمة، بل تفسير خاص بالذكاء الاصطناعي
الهلوسة (فعل) (في مجال الذكاء الاصطناعي) تعني إنتاج معلومات خاطئة تخالف نية المستخدم وعرضها على أنها صحيحة وواقعية. مثال: عندما تهلوس برامج الدردشة الآلية، غالبًا ما تكون النتيجة ليست غير دقيقة فحسب، بل مختلقة تمامًا.
قدرة الذكاء الاصطناعي على الخداع
إن قدرة الذكاء الاصطناعي على الخداع تُثير قلقاً متزايداً. فبينما لا تنخرط جميع أنظمة الذكاء الاصطناعي في هذا السلوك، إلا أنه يمكن برمجة بعضها لتقليد الخصائص البشرية، والعمل كأبواق سياسية أو نشر معلومات مضللة متخفية في زيّ ناشر للحقائق. إن سرعته الفائقة في إنتاج المعلومات المضللة والمغلوطة تميز الذكاء الاصطناعي عن البشر.
دراسة حديثة نُشرت في مجلة JAMA Internal Medicine مدى خطورة هذه المشكلة. فقد أظهرت الدراسة كيف أنتج برنامج GPT Playground التابع لشركة OpenAI أكثر من 17000 كلمة من المعلومات المضللة حول اللقاحات والتدخين الإلكتروني في غضون 65 دقيقة فقط. بالإضافة إلى ذلك، أنشأت أدوات الذكاء الاصطناعي التوليدية 20 صورة واقعية لمرافقة هذه الروايات الكاذبة في أقل من دقيقتين. هذا الإنتاج السريع للمحتوى الخادع يُشكّل تحديًا لقدرة الأفراد على التمييز بين الحقيقة والخيال.
العواقب غير المقصودة للتضليل الناتج عن الذكاء الاصطناعي
حتى عندما لا تقصد أنظمة الذكاء الاصطناعي التضليل، فإنها قد تُنتج معلومات مُضللة دون قصد. وقد سلطت دراسة أُجريت في الاجتماع السريري نصف السنوي للجمعية الأمريكية لصيادلة النظم الصحية الضوء على قصور الذكاء الاصطناعي في المجال الطبي. فعندما طُرح على برنامج ChatGPT تسعة وثلاثون سؤالاً متعلقاً بالأدوية، لم يُقدم إجابات شافية إلا لعشرة أسئلة فقط. فعلى سبيل المثال، ادعى البرنامج خطأً أن الجمع بين دواء Paxlovid، وهو دواء مضاد للفيروسات يُستخدم لعلاج كوفيد-19، ودواء verapamil، وهو دواء لخفض ضغط الدم، لا يُسبب أي تفاعلات دوائية، وهو ما يُناقض المعرفة الطبية المُثبتة.
لا تقتصر قدرة الذكاء الاصطناعي على توليد معلومات مضللة على مجال الرعاية الصحية فحسب، بل لوحظ أن بعض أدوات الذكاء الاصطناعي تُسيء تفسير الصور، وغالبًا ما تُخطئ في تمييز الأشياء عن الطيور. فعلى سبيل المثال، كشفت مجلة الإيكونوميست عن ردّ أحد برامج الذكاء الاصطناعي على استفسار حول نقل جسر البوابة الذهبية إلى مصر عام ٢٠١٦، مما يُظهر عجز الذكاء الاصطناعي عن التمييز بين الحقيقة والخيال.
تُؤكدdent روبوت الدردشة "تاي" من مايكروسوفت، الذي يعمل بالذكاء الاصطناعي، في عام 2021، على إمكانية توليد الذكاء الاصطناعي لمحتوى ضار. ففي غضون 24 ساعة من انضمامه إلى تويتر، بدأ الروبوت بنشر تغريدات عنصرية، وكارهة للنساء، وكاذبة، مما دفع مايكروسوفت إلى إزالته سريعًا من المنصة. تُسلط هذه الحادثة الضوء على ميل الذكاء الاصطناعي لمحاكاة السلوكيات البشرية السلبية، وتثير تساؤلات حول الاعتبارات الأخلاقية في تطوير ونشر الذكاء الاصطناعي.
مشكلة صحية حقيقية
تُشكل الهلوسات التي يُولدها الذكاء الاصطناعي، شأنها شأن نظيراتها البشرية، مصدر قلق صحي حقيقي. فإلى جانب الآثار المباشرة للتضليل، يُمكن أن تُؤثر سلبًا على الصحة النفسية والعاطفية. إذ يُمكن أن يُؤدي التعرض المستمر لهذه الهلوسات إلى تآكل إدراك الفرد للواقع، مما يُسبب له الارتباك والقلق.
إدراكًا لخطورة هذه المشكلة، أصدرت منظمات مثل منظمة الصحة العالمية والجمعية الطبية الأمريكية بيانات تحذر من الأضرار المحتملة للمعلومات المضللة والمغلوطة التي تولدها تقنيات الذكاء الاصطناعي. وبينما يُعد اختيار موقع Dictionary.com لكلمة "hallucinate" ككلمة العام 2023matic على هذه المشكلة، فإن معالجة التحديات المعقدة التي تفرضها الهلوسات التي تولدها تقنيات الذكاء الاصطناعي تتطلب يقظة مستمرة وجهودًا متضافرة لتعزيز تطوير الذكاء الاصطناعي بشكل مسؤول.
إذا كنت تقرأ هذا، فأنت متقدم بالفعل. ابقَ متقدماً من خلال نشرتنا الإخبارية.
إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtronبإجراء بحث مستقلdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.

بريندا كانانا
بريندا كاتبةٌ تتمتع بخبرة ثلاث سنوات، متخصصة في العملات المشفرة والذكاء الاصطناعي والتقنيات الناشئة. تخرجت من جامعة مومباسا التقنية بشهادة في علم الاجتماع. عملت في شركتي زيكريبتو Cryptopolitan.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)














