オーストラリアのメディア企業は、より一般的で簡素化されたニュースコンテンツを制作するために AI テクノロジーに依存し続けていますが、オーストラリア人は生成型人工知能によって生成された記事に関しては懐疑的になる傾向があります。
生成型人工知能 (AI) テクノロジーが初めて注目を集めたのは、2022 年後半から 2023 年初頭にかけて、シリコンバレーの OpenAI 社がチャットボット ChatGPT をリリースし、テキストを画像に変換するジェネレーター DALL-E モデルを発表したときでした。
信頼への悪影響
よると、調査対象者の61%がAIを認識しており、約半数がその技術を活用しています。
しかし、ニュースコンテンツへのこの技術の導入については、tron否定的な態度もありました。
驚くべきことに、調査対象dentの約80%が、特定のニュースが完全に生成型人工知能によって書かれたと明かされた場合、非常に不満を抱くと回答しました。たとえ記事が人工知能の助けのみによって書かれたとしても、これらのオーストラリア国民の半数(約50%)は依然として、そのニュースへの信頼によってマイナスの影響を受けるでしょう。
しかし、最も大きな不安の原因は、AI モデルが未確認または信頼できない情報源からのデータを利用しているという認識であり、次に、誠実性の問題と、人間がニュースに倫理と責任を持ち込む能力を持っているという理解が続きました。
透明性を求める
この技術について知っている回答dentの約95%は、生成AIによって作成されたニュースの範囲に関する情報を人々に提供することに賛成しました。これは、チャンネル9が1月にビクトリア州議会議員の胸を大きく見せ、露出度の高い服装にするためにデジタル加工した写真を公開し、謝罪したことを受けてのことでした。チャンネル9が指摘しているように、この加工はPhotoshopの「生成拡張」ツールによるもので、画像を元の状態に戻す際にAIを使って画像を埋め込むものでした。
オーストラリア最大のニュース配信会社の一つで、グローバル企業ニューズ・コープのトップは11月、 「AI向けに当社のプレミアムコンテンツを最大限に活用できるよう取り組んでおり、大きな収益をもたらすと期待される先進的な議論を行っている」と述べた。
政府の対応と規制の見通し
連邦政府は2月、専門家をメンバーとする社内人工知能グループを設置しました。このグループの目的は、この最先端技術のリスクを特定し、限界を明確にすることでしたが、その使用を規制する規則はまだ策定されていません。

