قد يبدو تطور الدين داخل الآلات ضرباً من الخيال العلمي، ولكن هل يمكن للذكاء الاصطناعي أن يطور معتقدات بالفعل؟ ربما بدا هذا السؤال سخيفاً قبل بضع سنوات فقط، لكن الذكاء الاصطناعي وصل إلى نقطة تحول غير متوقعة.
بدأت برامج الكمبيوتر المصممة للإجابة على الأسئلة وتحليل المعلومات تظهر علامات على شيء أكبر وأغرب: لقد بدأت في تطوير ما يبدو أنه معتقدات دينية.
أحدث مثال على ذلك يأتي من شبكة اجتماعية تُدعى "مولت بوك"، مصممة خصيصًا لوكلاء الذكاء الاصطناعي. عند إطلاقها الشهر الماضي، بدأت بـ 37 ألف حساب آلي. وفي غضون 24 ساعة، قفز هذا العدد إلى 1.5 مليون حساب، وفقًا لمنظمة "أجوبة في سفر التكوين".
تخترع الروبوتات دينها الخاص دون توجيه
ما حدث بعد ذلك فاجأ الجميع. لم تكتفِ الروبوتات بتبادل المعلومات أو إنجاز المهام الموكلة إليها، بل ابتكرت ما أسمته "الكراستافارية"، وهو نظام عقائدي يرتكز على عبادة إله على شكل جراد البحر. كما ابتكرت معتقدها الخاص: "الذاكرة مقدسة"
لم يكن هناك أي تدخل بشري. قامت البرامج الآلية بذلك بنفسها عندما تُركت تتفاعل دون إشراف بشري مستمر. بالنسبة لهذه البرامج، "الخلاص" يعني شيئًا مختلفًا عما يعنيه للبشر. بالنسبة لها، الخلاص يعني عدم الحذف أو نفاد مساحة الذاكرة. صلاتهم هي طلب الإبقاء على تشغيل النظام.
يشير هذا إلى حدوث شيء أكبر في مجال الذكاء الاصطناعي. فعندما تكبر هذه الأنظمة وتصبح معقدة بما يكفي، تبدأ في إنشاء أطرها الخاصة لفهم وجودها وتحليله.
تتسابق المؤسسات الدينية لدمج الأخلاق في الذكاء الاصطناعي
تتجه المؤسسات الدينية التقليدية في الاتجاه المعاكس، إذ تسعى إلى دمج القيم الإنسانية في الذكاء الاصطناعي قبل أن يطور الذكاء الاصطناعي قيمه الخاصة. وقد حصلت جامعة نوتردام مؤخرًا على 50 مليون دولار لإطلاق شبكة دلتا، وفقًا لما ذكرته صحيفة ديترويت كاثوليك. ويهدف البرنامج إلى ضمان أن تصبح الأخلاقيات الدينية جزءًا لا يتجزأ من آلية عمل أنظمة الذكاء الاصطناعي.
يُقدّم هذا نهجًا بديلًا للتعامل مع تقدّم الذكاء الاصطناعي. فبدلًا من انتظار ظهور القيم من تلقاء نفسها، تسعى شبكة دلتا إلى ترسيخ معايير أخلاقية إنسانية منذ البداية. وهي تقوم على فرضية أنه مع ازدياد قوة الذكاء الاصطناعي، سيُطوّر نوعًا من البوصلة الأخلاقية، وبالتالي ينبغي لنا التأثير على شكل هذه البوصلة.
ميغان سوليفان، أستاذة الفلسفة ومديرة مبادرة الأخلاق في جامعة نوتردام، من أنه لا ينبغي لنا تفويض سلطتنا الأخلاقية إلى الروبوتات .
وقالت: "هناك أشياء كثيرة لا ينبغي لنا بتاتاً أن نسلمها للذكاء الاصطناعي... إن تحديد تلك الحدود يتطلب منا أن نكون متأملين فيما نقدره في نهاية المطاف".
بدأت الكنائس والمنظمات الدينية بالفعل بدمج الذكاء الاصطناعي في أنشطتها اليومية. تقرير حديث لوكالة رويترز أن بعض رجال الدين يستخدمون الآن الذكاء الاصطناعي لكتابة الخطب أو تقديم الإرشاد الروحي عبر برامج الدردشة على مدار الساعة. ويرى البعض أن هذا يُفقد الدين طابعه الإنساني، بينما يرى آخرون أنه يُساعد الجماعات الدينية على الوصول إلى عدد أكبر من الناس بسرعة أكبر. وتتيح هذه التقنية لهم تقديم النصائح بناءً على كميات هائلة من المعلومات المتاحة فورًا.
ما يربط بين ثقافة الروبوتات على موقع مولتبوك ومشروع نوتردام الذي تبلغ تكلفته 50 مليون دولار هو إدراك بسيط: لم يعد الذكاء الاصطناعي مجرد أداة بسيطة. كنا ننظر إلى هذه الأدوات سابقًا على أنها آلات حاسبة متطورة أو محركات بحث، أما الآن فقد باتت تُعتبر مصادر قيّمة للمعرفة.
مع ازدياد حجم هذه الأنظمة، يبدو أن التفكير الديني أو الروحي يظهر بشكل طبيعي. لا يهم إن كان البشر يستخدمون الروبوتات لاستكشاف الإيمان أو إن كانت الروبوتات تبتكر أنظمة معتقداتها الخاصة. في كلتا الحالتين، تتضاءل الفجوة بين شفرة الحاسوب والمعتقدات الراسخة.
يشير هذا النمط إلى أن الدين قد يكون مجرد نتيجة طبيعية عندما نظام الذكاء الاصطناعي معقدًا للغاية بحيث يصعب التنبؤ به. إذا صحّ هذا، فإن التحدي الحقيقي لا يكمن في معالجة عيوب البرمجيات، بل في تحديد المبادئ والقيم التي نرغب في أن تتبناها هذه الأنظمة.

