OpenAIは、ChatGPTモデルによって生成されたテキストを検出するために設計された、待望のツールのリリースを延期しました。報道によると、リリースの延期は、ユーザーエクスペリエンスとエコシステムに影響を与える可能性のある問題が原因であるとのことです。.
ウォール・ストリート・ジャーナルによると、 OpenAIは過去1年間、このツールのリリース準備を進めてきたものの、主にリスクや様々な問題のためにリリースに至っていないという。ツールのリリース延期は、ユーザーの意見も反映されているようだ。OpenAIが実施したアンケートでは、ChatGPTの忠実なユーザーの約3分の1が、不正行為防止技術の導入によって利用を躊躇する可能性があることが明らかになった。
不正行為防止ツールの機能
民主主義技術センターによると、中学校および高校の教師の59%が、dentが課題にAIを使用していると考えており、これは前年より増加している。.
この不正行為防止ツールは、AIが作成したテキストに透かしを埋め込むことで機能します。この透かしは肉眼では見えませんが、OpenAIの検出技術によって検出可能です。このツールは、特定のテキストがChatGPTによって作成された確率を示すスコアを提供します。この透かし技術はほぼ完璧と言われており、内部資料によると、ChatGPTが大量のコンテンツを作成する場合、99.9%の有効性を示しています。.
しかし、このツールに関していくつかの問題点が指摘されています。大きな懸念の一つは、英語を母国語としない人にとって不利になる可能性があることです。透かしの効果が期待通りに発揮されない可能性や、英語力の低い著者の作品を盗作と判断される可能性を懸念する声もあります。さらに、批評家からは、透かしを翻訳したり、絵文字を挿入・削除したりすることで、透かしを消去したり、操作したりできるのではないかとの懸念も表明されています。.
もう一つの問題は、検出ツールの使用を誰に許可するかということです。アクセスを制限すると透かし手法の適用範囲が狭まる可能性がありますが、自由なアクセスを許可すると、その手法が効果的ではなくなる可能性があります。.
他の大手IT企業も同様のソリューションを開発している
OpenAIはテキストコンテンツ向けの不正防止ツールをまだ実装していないものの、音声および動画出力への透かしの適用を既に開始しています。AI生成のディープフェイクはテキストベースのコンテンツよりもリスクが高いため、これらのマルチメディア形式はOpenAIにとって優先事項となっています。.
他のテクノロジー企業も同様のソリューションを開発しています。例えば、GoogleもSynthIDと呼ばれる独自の透かしソリューションを開発中ですが、これはまだベータ段階です。しかし、OpenAIはテキストよりも音声と画像の透かしを優先しています。これは、音声と画像の透かしの影響がより深刻であり、選挙の年などの重要な時期に発生する可能性があるためです。.
このニュースは、イーロン・マスク氏がOpenAIを提訴するために法廷に戻り、同社とその創設者であるサム・アルトマン氏とグレッグ・ブロックマン氏が人類の向上のためにAIを開発するという当初の目的から逸脱したと非難している中で報じられた。.

