最新ニュース
あなたへのおすすめ
週刊
トップの座を維持する

最高の仮想通貨情報をあなたの受信トレイに直接お届けします。.

AIの差別を人類的な方法で抑制する:説得する

によるイビアム・ワヤスイビアム・ワヤス
読了時間2分
AIの差別を人類的な方法で抑制する:説得する
  • 差別は、AI アルゴリズムで対処する必要がある大きな懸念事項の 1 つです。.
  • AI による差別は、データ、人的エラー、設計など、さまざまな原因から生じます。.
  • Anthropic は最近テストを実施し、AI による差別を防ぐための新しい促進戦術を共有しました。.

AI 技術の潜在能力はさまざまなメディアで頻繁に取り上げられていますが、その利点の裏には、進歩と偏見の境界線が危険なほど曖昧になる暗い側面が潜んでいます。.

AI 差別は、既存の社会的不平等を悪化させる恐れがあり、テクノロジーの将来について深刻な倫理的問題を提起する陰湿な問題です。.

偏見の根源: データ、デザイン、そして人的エラー?

AIアルゴリズムの性能は、学習に用いるデータの品質に左右されます。残念ながら、AI開発に用いられるデータの多くは、人間社会に根付いた偏見を反映したバイアスに満ちています。こうしたバイアスは、人種、性別、年齢、宗教、社会経済的地位など、様々な要因に基づく場合があります。. 

偏ったデータがアルゴリズムに入力されると、その結果、それらの偏見を助長し増幅する AI システムが生成され、差別的な結果につながります。.

モデルの設計自体がバイアスを生み出す可能性があります。例えば、顔認識ソフトウェアは有色人種のdent精度が低いことが示されています。同様に、融資の承認や求人応募に使用されるアルゴリズムは、偏った基準に基づいて、意図せず特定のグループに不利益をもたらす可能性があります。.

人為的なミスも原因の一つです。プログラマー、データサイエンティスト、その他AIシステムの開発に関わる人々は、自らのバイアスから逃れることはできません。こうしたバイアスは、アルゴリズムの設計と実装に無意識のうちに浸透し、AIによる差別の問題をさらに複雑化させる可能性があります。.

AI差別を阻止するためのアントロピックの戦略

興味深いことに、説得という行為を通じて AI からの偏った回答を減らすこともできるかもしれません。.  

大手AI企業の一つであるAnthropicは最近、AIモデルに「差別は違法です」というプロンプトを追加するなどの指示戦略を用いることで、人間がAIモデルに偏りのない回答をさせるように誘導できることを示すテストを実施しました。つまり、偏りのない回答を確実に得るためには、モデルに指示を与える必要があるということです。. 

この戦略は、ローン、仕事、保険金請求などの分野での AI モデルの決定における差別を減らすように見えますが、これは問題の根本的な原因ではなく、症状に対処する一時的な解決策にすぎません。.

この課題に立ち向かうには、技術者、政策立案者、研究者、市民社会組織、個人の協力的な取り組みが必要です。. 

データに含まれるバイアスへの対処に真っ先に着手することも重要です。そのためには、データセットの多様化と、バイアス除去アルゴリズムなどの技術の活用が不可欠です。さらに、開発者やデザイナーは、業務におけるバイアスdent、軽減するためのトレーニングを受ける必要があります。.

モデルの倫理的な開発と展開を強制するためには、堅牢な規制枠組みも同様に必要です。データ収集、アルゴリズム設計、そして重要な意思決定プロセスにおけるAIの活用に関する明確なガイドラインを設定することで、AIモデルによる差別的な結果を抑制するのに役立つ可能性があります。.

仮想通貨ニュースを読むだけでなく、理解を深めましょう。ニュースレターにご登録ください。 無料です

この記事を共有する

免責事項: 本情報は投資助言ではありません。Cryptopolitan.com Cryptopolitan、 本ページの情報に基づいて行われた投資について一切責任を負いません。投資判断を行う前に、ごtrondentdentdentdentdentdentdentdent で調査を行うか、資格のある専門家にご相談されることを

もっと…ニュース
ディープ クリプト
速習コース