في دراسة نُشرت في وقائع الأكاديمية الوطنية للعلوم (PNAS)، قام الباحثون بتحليلٍ مُعمّق لروبوتات الدردشة التي تعمل بالذكاء الاصطناعي، مع التركيز على سلوكياتها وخصائصها الشخصية الشبيهة بالبشر. هدفت هذه الدراسة إلى تقييم قدرات الذكاء الاصطناعي في محاكاة السلوك البشري ، واستخدمت أحدث إصدارات سلسلة نماذج OpenAI المُدرّبة مُسبقًا لتوليد المحادثات، وهما GPT-3.5-Turbo (ChatGPT-3) وGPT-4 (ChatGPT-4)، وقارنت أداءهما بمجموعة بيانات ضخمة من الاستجابات البشرية.
سلوكيات الذكاء الاصطناعي الشبيهة بالبشر تخضع للتدقيق
قيّمت الدراسة روبوتات الدردشة المدعومة بالذكاء الاصطناعي من خلال نموذج الشخصية "أوشن" (OCEAN) الذي يشمل الانفتاح على التجربة، والضمير الحي، والانبساط، والود، والعصابية. إلى جانب ذلك، شاركت روبوتات الدردشة في سلسلة من الألعاب السلوكية، منها لعبة الديكتاتور، ولعبة الثقة، ولعبة المنافع العامة، على سبيل المثال لا الحصر، والتي صُممت للكشف عن سمات مثل الإيثار، والإنصاف، والتعاون، وغيرها.
كشفت النتائج أن ChatGPT-4 يتوافق بشكل كبير مع متوسط درجات البشر في جميع أبعاد الشخصية، مما يُظهر نمط سلوكي يُحاكي السلوك البشري بشكل ملحوظ. أما ChatGPT-3، فرغم اختلافه الطفيف في الانفتاح، إلا أنه يرتبطtronوثيقًا بالسلوكيات البشرية، وإن كان ذلك بملامح شخصية مميزة تُفرّق بين كل إصدار من إصدارات الذكاء الاصطناعي.
كان من أبرز نتائج الدراسة أداء الذكاء الاصطناعي في ألعاب اتخاذ القرارات الاستراتيجية، مما يشير إلى إمكانية اجتياز ChatGPT-4 لاختبار تورينج، وهو مقياس لقدرة الآلة على إظهار سلوك ذكي لا يمكن تمييزه عن سلوك الإنسان. وقد برز هذا الجانب بشكل خاص في الألعاب التي تقيّم سمات مثل النفور من المخاطرة والإيثار والإنصاف، حيث عكست قرارات الذكاء الاصطناعي في كثير من الأحيان تصرفات البشر أو تفوقت عليها.
علاوة على ذلك، استكشف التحليل كيف تُكيّف روبوتات الدردشة المدعومة بالذكاء الاصطناعي استراتيجياتها استجابةً للظروف المختلفة، مُظهرةً مستوىً متطورًا من الاستجابة للإشارات السياقية يُحاكي السلوك البشري. هذه القدرة على التكيف، إلى جانب قدرة الذكاء الاصطناعي على "التعلم" من أدوار اللعبة السابقة، تُبرز فهمًا عميقًا للتعاون والثقة، بما يتماشى مع عملية صنع القرار الاستراتيجي لدى الإنسان.
الآثار الأخلاقية والمجتمعية
مع استمرار اندماج الذكاء الاصطناعي في مختلف جوانب الحياة البشرية، يصبح فهم عمليات اتخاذ القرار فيه وضمان توافقها مع المعايير الأخلاقية والأعراف المجتمعية أمراً بالغ الأهمية. تُسهم هذه الدراسة في تعزيز معرفتنا في هذا المجال، وتثير نقاشات هامة حول الآثار المجتمعية للذكاء الاصطناعي، بدءاً من تأثيراته على سوق العمل وصولاً إلى الاعتبارات الأخلاقية.
يُشكّل استكشاف سلوكيات وسمات شخصيات روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مقارنةً بالمعايير العالمية للسلوك البشري،dent جديدةً في أبحاث الذكاء الاصطناعي. ويُسلّط الضوء على التطورات التكنولوجية السريعة التي تُمكّن الآلات من محاكاة السلوك البشري بدقةٍ غير مسبوقة. ومع ازدياد تطور أنظمة الذكاء الاصطناعي، مثل ChatGPT، تتنامى قدرتها على المساهمة إيجابياً في المجتمع، على الرغم من الحاجة إلى التدقيق المستمر لضمان توافق قدراتها مع القيم الأخلاقية والاجتماعية.
تمثل هذه الدراسة خطوة هامة نحو فهم قدرات الذكاء الاصطناعي، إذ تمهد الطريق لمزيد من الأبحاث حول تعقيدات عملية اتخاذ القرار في الذكاء الاصطناعي، بما يضمن دمجها بشكل مفيد في السياقات البشرية.

