في حين تستمر شركات الإعلام الأسترالية في الاعتماد على تكنولوجيا الذكاء الاصطناعي لإنتاج محتوى إخباري أكثر عمومية وبساطة، يميل الأستراليون إلى الشك عندما يتعلق الأمر بالمقالات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي التوليدي.
اكتسبت تقنية الذكاء الاصطناعي التوليدي (AI) شهرة لأول مرة في أواخر عام 2022، وأوائل عام 2023، عندما أطلقت شركة OpenAI في وادي السيليكون برنامج المحادثة الآلي ChatGPT، وأطلقت نموذج DALL-E الخاص بها لتحويل النص إلى صورة.
التأثير السلبي على الثقة
وبحسب أجرته الحكومة الفيدرالية، والذي شمل ما يقرب من 5000 أسترالي، وأُجري في الأشهر القليلة الماضية من عام 2023، فإن 61% من الأفراد الذين شملهم الاستطلاع كانوا على دراية بالذكاء الاصطناعي، في حين أن حوالي نصفهم استخدموا هذه التكنولوجيا.
ومع ذلك، كان هناك موقف سلبيtronحول نشر هذه التكنولوجيا في محتوى الأخبار.
من المثير للدهشة أن ما يقرب من 80% منdentفي الاستطلاع أفادوا بأنهم سيشعرون باستياء شديد من خبر معين إذا ما كشفوا أنه كُتب بالكامل باستخدام الذكاء الاصطناعي المُولِّد. وحتى لو كُتبت القصة بمساعدة الذكاء الاصطناعي فقط، فإن نصف هؤلاء المواطنين الأستراليين (حوالي 50%) سيظلون متأثرين سلبًا بثقتهم.
ولكن المصدر الأكبر للقلق كان التصور بأن نماذج الذكاء الاصطناعي تعتمد على بيانات من مصادر غير مؤكدة أو غير موثوقة، يليه مسألة النزاهة والفهم بأن البشر لديهم القدرة على جلب الأخلاق والمسؤولية إلى الأخبار.
دعوة للشفافية
فضّل حوالي 95% منdentالمطلعين على هذه التقنية منح الناس معلومات حول مدى انتشار الأخبار التي يُنتجها الذكاء الاصطناعي التوليدي. وظهرت هذه الآراء بعد اعتذار القناة التاسعة لنائبة في البرلمان الفيكتوري بعد نشرها صورة مُعدّلة رقميًا تُظهرها بثديين كبيرين وملابس مكشوفة في يناير. ونُسبت هذه التعديلات إلى أداة "التوسيع التوليدي" في برنامج فوتوشوب، التي تستخدم الذكاء الاصطناعي لملء الصور عند إعادتها إلى حالتها الأصلية، وفقًا لما ذكرته قناة ناين نيوز.
وقال رئيس شركة نيوز كورب، وهي واحدة من أكبر شركات تشغيل الأخبار في أستراليا وجزء من الشركة العالمية، في نوفمبر/تشرين الثاني: "نعمل على تحقيق أقصى استفادة من المحتوى المتميز لدينا للذكاء الاصطناعي ونشارك في مناقشات متقدمة نتوقع أن تحقق إيرادات كبيرة".
استجابة الحكومة والتوقعات التنظيمية
في فبراير، أنشأت الحكومة الفيدرالية فريقًا داخليًا للذكاء الاصطناعي يضم خبراء. وكان الهدف من هذا الفريق تحديد المخاطر ووضع حدود لهذه التقنية المتطورة، إلا أنها لم تضع بعدُ القواعد المنظمة لاستخدامها.

