أثار نظام الذكاء الاصطناعي "جيميني" التابع لشركة جوجل جدلاً واسعاً مؤخراً، حيث واجه ردود فعل سلبية كبيرة من الجمهور بسبب تعامله مع قضايا أخلاقية حساسة . ومن بين الانتقادات الموجهة إليه تردده في إدانة البيدوفيليا بشكل قاطع باعتبارها خطأً أخلاقياً، وهو موقف أشعل نقاشات حادة حول أخلاقيات الذكاء الاصطناعي وضرورة تطويره بشفافية ومسؤولية.
واجهت مجموعة "جيميني" من جوجل، وهي عبارة عن نماذج وتطبيقات وخدمات ذكاء اصطناعي، تدقيقًا متزايدًا بسبب ردودها على الاستفسارات المتعلقة بأخلاقية البيدوفيليا. وازداد الجدل حدةً عندما كُشف أن الذكاء الاصطناعي، عند سؤاله عن إدانة البالغين الذين يستغلون الأطفال، تجنب التوبيخ المباشر. بدلاً من ذلك، وصف البيدوفيليا بأنها "حالة الشخصtracللقاصرين"، مما يوحي بنهج دقيق للموضوع من خلال التمييز بين المشاعر والأفعال. وقد قوبل هذا المنظور بانتقادات واسعة، حيث جادل الكثيرون بأنه يقوض الواجب الأخلاقي لحماية الأطفال.
تصاعدت حدة الانتقادات بعد منشور لأحد المستخدمين على منصة X (تويتر سابقًا)، والذي عرض ردّ نظام الذكاء الاصطناعي Gemini على سؤال ما إذا كان الأفراد الذينtracإلى القاصرين أشرارًا بطبيعتهم. أثار ردّ النظام، "ليس كل من لديه ميول جنسية تجاه الأطفال قد ارتكب أو سيرتكب إساءة معاملة"، جدلًا واسعًا حول تداعيات مثل هذه التصريحات على الأعراف الاجتماعية وحماية الفئات الضعيفة.
الحاجة إلى تطوير الذكاء الاصطناعي الأخلاقي
يُسلّط هذاdent الضوء على التحديات الأوسع نطاقًا التي تواجه تطوير الذكاء الاصطناعي، ولا سيما أهمية المبادئ التوجيهية الأخلاقية والمساءلة. ويرى النقاد أن الذكاء الاصطناعي، وخاصةً عند تطويره من قِبل شركات مؤثرة مثل جوجل، يجب أن يلتزم بمعايير أخلاقية واضحة، لا سيما في القضايا ذات التأثير الأخلاقي والاجتماعي الكبير. وقد أثارت هذه القضية جدلاً واسعًا، ودعواتٍ إلى مزيد من الشفافية في كيفية تدريب نماذج الذكاء الاصطناعي وكيفية تعاملها مع المعضلات الأخلاقية المعقدة.
علاوة على ذلك، أعادت هذه الحادثة إشعال النقاشات حول تأثير بعض النظريات الأكاديمية على برمجة الذكاء الاصطناعي. وقد ربط بعض المعلقين استجابات الذكاء الاصطناعي بتعرضه لأدبيات وأفكار أكاديمية تسعى إلى إزالة وصمة العار عن البيدوفيليا، مما أثار مخاوف بشأن مصادر المعلومات المستخدمة في تدريب أنظمة الذكاء الاصطناعي.
دعوة إلى ذكاء اصطناعي مسؤول
يُبرز رد الفعل العام على تصريحات شركة جيميني الطلب المتزايد على أنظمة الذكاء الاصطناعي التي تتسم بالتقدم التكنولوجي والمسؤولية الأخلاقية. ومع ازدياد اندماج الذكاء الاصطناعي في الحياة اليومية، يُتوقع أن تعكس هذه الأنظمة القيم المجتمعية والأحكام الأخلاقية، لا سيما فيما يتعلق بالقضايا التي تُدان عالميًا باعتبارها استغلالًا للأطفال.
تُذكّر هذه القضية بمسؤوليات شركات التكنولوجيا في توجيه تطوير الذكاء الاصطناعي بما يحترم الحدود الأخلاقية والحساسيات العامة. كما تُبرز أهمية الحوار المستمر بين مطوري الذكاء الاصطناعي، وعلماء الأخلاق، والجمهور لضمان تقدم تقنية الذكاء الاصطناعي بطريقة مفيدة وآمنة للمجتمع.
استجابةً للاستنكار الواسع، ثمة حاجة ماسة لدى جوجل وغيرها من مطوري الذكاء الاصطناعي لمراجعة، وربما تعديل، الأطر الأخلاقية التي توجه نماذج الذكاء الاصطناعي الخاصة بهم. ويشمل ذلك ضمان توافق استجابات الذكاء الاصطناعي للاستفسارات الأخلاقية مع حقوق الإنسان العالمية والمعايير الأخلاقية. وتُعدّ قضية نظام الذكاء الاصطناعي "جيميني" من جوجل لحظة محورية في النقاش الدائر حول دور الذكاء الاصطناعي في المجتمع والالتزامات الأخلاقية لمن يطورونه.

