في تطور غريب للأحداث، انتشرت على الإنترنت قصة مثيرة حول انتحار مزعوم لطبيب نفسي لرئيس الوزراء الإسرائيليenjنتنياهو، مُشعلةً عاصفة من الجدل. وقد عادت هذه القصة الإخبارية، التي تم إنشاؤها بواسطة الذكاء الاصطناعي، والتي ظهرت لأول مرة عام 2010، إلى الظهور هذا الأسبوع، بالتزامن مع تصاعد التوترات في الشرق الأوسط بسبب الغزو الإسرائيلي لغزة. وتزعم رسالة الانتحار التي يُزعم أن المعالج تركها، اتهام نتنياهو باستنزاف حياته، مما يُضيف بُعدًا مُريبًا إلى المشهد الجيوسياسي المُعقد أصلًا.
في ضوء الوضع الراهن في غزة والأزمة الإنسانية العميقة المنسوبة إلى إسرائيل، لا تزال الآراء متباينة بشأن صحة التقارير الإخبارية الأخيرة، على الرغم من تأكيدات مصادر عديدة بأن المعلومات صادرة عن مدونة ساخرة قديمة. وقد زاد الانتشار الأخير لمشاركات رسائل الانتحار على وسائل التواصل الاجتماعي والنقاشات الدائرة حولها من حدة التدقيق.
في خضم هذا النقاش، يبرز الدكتور موشيه ياتوم كشخصية بارزة، فهو طبيب نفسي مرموق اشتهر بإسهاماته الجليلة في مجال الصحة النفسية في إسرائيل. وقد حظي الدكتور ياتوم باحترام واسع النطاق في المجتمع الإسرائيلي لالتزامه الراسخ بمساعدة عدد لا يحصى من الأفراد الذين يعانون من أمراض نفسية على مر السنين.
موجة من الأخبار والمعلومات المضللة التي يولدها الذكاء الاصطناعي
مع تصاعد التوترات في الشرق الأوسط، يبرز اتجاه مقلق يتمثل في انتشار الأخبار المُولّدة بواسطة الذكاء الاصطناعي على الإنترنت. هذه الأخبار، التي تبدو وكأنها لا تُفرّق عن الأخبار الحقيقية، تُنشر عبر مواقع إلكترونية عديدة، مما يُضخّم المعلومات المُضلّلة على نطاق عالمي. يُشكّل هذا النوع الجديد من وسائل الإعلام المدعومة بالذكاء الاصطناعي، والتي تُحاكي مصادر الأخبار الموثوقة، تهديدًا خطيرًا لمصداقية المعلومات، لا سيما في الأوقات الحرجة. وبينما لطالما كانت المعلومات المُضلّلة أداةً من أدوات الحرب، فقد تضاعفت قوتها الآن بفضل الذكاء الاصطناعي، مما يُعيد تشكيل مشهد الصراع المعاصر؛ والجدير بالذكر أن وسائل الإعلام الموالية لإسرائيل تستخدم أيضًا معلومات مُضلّلة للتأثير على الرأي العام.
المواقع الإلكترونية التي كانت تعتمد سابقًا على الكتّاب البشريين باتت اليوم تستخدم أدوات الذكاء الاصطناعي، مما يُمكّنها من إنتاج كميات هائلة من المحتوى بسرعة وتكلفة غيرdent. وقد أدت هذه الظاهرة إلى ظهور مئات المواقع التي تعمل بالذكاء الاصطناعي وتتظاهر بأنها مواقع إخبارية شرعية. وتُعدّ قصة الطبيب النفسي لرئيس الوزراء الإسرائيلي مثالًا صارخًا على كيفية تغلغل المحتوى المُولّد بالذكاء الاصطناعي في الفضاء الإلكتروني، مما يُطمس الحدود بين الحقيقة والخيال.
تلعب مواقع الأخبار التي تُنشئها تقنيات الذكاء الاصطناعي، بما فيها موقع "غلوبال فيلج سبيس" الباكستاني، دورًا محوريًا في نشر هذه المعلومات. ويكشف تحليل محتوى الموقع، الذي أجرته "نيوز غارد"، عن استخدام مكثف لبرامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي لإنشاء المحتوى، مما يُظهر تشابهًا مثيرًا للقلق بين مقال عام 2010 المُختلق والزيادة الأخيرة في المعلومات المُضللة. ومع ذلك، لا تزال تقنية تحديد المعلومات المُضللة التيdentالذكاء الاصطناعي غير متطورة بما يكفي لضمان مصداقيتها بنسبة 100%.
النمو المقلق لوسائل الإعلام الإخبارية التي تولدها تقنيات الذكاء الاصطناعي
الانتشار المتسارع الأخبار والمعلومات المُولّدة بواسطة الذكاء الاصطناعي تحديًا فريدًا للمستهلكين الواعين. وتشير ماكنزي صادقي، المحللة في نيوز جارد، إلى المخاطر المرتبطة بهذه المنصات المدعومة بالذكاء الاصطناعي. فسهولة قدرة الذكاء الاصطناعي على نسخ ونشر الروايات المضللة تثير مخاوف بشأن مصداقيتها وجدارتها بالثقة لدى المستخدمين.
لا يقتصر تأثير المحتوى المُولّد بالذكاء الاصطناعي على المنصات الإلكترونية فحسب، بل يمتدّ إلى البرامج التلفزيونية في دول مثل إيران. فقد وصلت قصة مختلقة عن طبيب نفسي إسرائيلي إلى أحد البرامج التلفزيونية، ما يُظهر مدى انتشار المعلومات المضللة المُولّدة بالذكاء الاصطناعي وعواقبها المحتملة. ورغم فضحها، تلجأ بعض المواقع، ومنها موقع "غلوبال فيلج سبيس"، إلى إعادة تصنيف محتواها على أنه "ساخر"، ما يزيد من صعوبة التمييز بين الحقيقة والخيال.
النية البشرية في مواجهة الذكاء الاصطناعي – من يصنع الحقيقة؟
بينما نخوض غمار الأخبار المُولّدة بالذكاء الاصطناعي، لا يسعنا إلا التساؤل عن تداعياتها الأوسع على نزاهة المعلومات والرأي العام. وتُعدّ قضية طبيب رئيس الوزراء الإسرائيلي النفسي تذكيراً صارخاً بالتحديات التي يفرضها النمو غير المنضبط للمحتوى المُولّد بالذكاء الاصطناعي.
في عصرٍ تنتشر فيه المعلومات المضللة كالنار في الهشيم، من الضروري معالجة الأسباب الجذرية وتقييم تأثيرها على الخطاب العالمي. ونظرًا لأن توليد الأخبار على أي منصة ذكاء اصطناعي يتطلب عادةً قدرًا من التدخل البشري، فلا يمكن إغفال النوايا البشرية أو تجاهلها. ويبقى السؤال مطروحًا: كيف نضمن مصداقية المعلومات في ظل تزايد تأثير القصص التي يُنتجها الذكاء الاصطناعي، لا سيما في اللحظات الحاسمة من الشؤون العالمية؟

