アントロピック、AIの安全性強化のため1万5000ドルのバグ報奨金プログラムを開始

- Anthropic が AI の安全性の脆弱性に対する 15,000 ドルのバグ報奨金プログラムを開始。.
- AIの「ユニバーサル脱獄」攻撃に対処するために倫理的なハッカーを募集。.
- Anthropic は AI の安全性における新たな透明性の基準を設定します。.
Amazonの支援を受けるAIスタートアップ企業Anthropicは、バグ報奨金プログラムを開始し、同社の人工知能システムの重大な脆弱性をdent報告1件につき最大1万5000ドルを支払うことを発表しました。この取り組みは、高度な言語モデルを用いてセキュリティテストをクラウドソーシングする企業による、最も大規模な取り組みの一つです。.
同社によると、この報奨金は「ユニバーサルジェイルブレイク」攻撃、つまり生物兵器やサイバー脅威といった分野におけるAIの安全対策を回避できる手法を対象としている。アントロピックは、次世代の安全対策システムを一般公開する前に、倫理的なハッカーによるテストを実施し、潜在的な悪用を防ぐことを計画している。.
バグ報奨金プログラムを拡大します。この新しい取り組みは、次世代セキュリティシステムにおける普遍的な脱獄脆弱性の発見に重点を置いています。
— アントロピック(@AnthropicAI) 2024年8月8日
サイバーセキュリティを含む幅広い分野にわたる新たな脆弱性に対して報奨金を提供します。https ://t.co/OHNhrjUnwm
アンスロピックのバグ報奨金プログラムは、HackerOneとの共同で招待制の取り組みとして開始されましたが、AIシステムの脆弱性をdent・修正するサイバーセキュリティ研究者のスキルを求めています。同社は将来的にこのプログラムをさらに広く公開し、AIの安全性に関する業界全体の協力モデルを提供する可能性を秘めています。.
これは、英国の競争・市場庁(CMA)が、AmazonによるAnthropicへの40億ドルの投資を潜在的な競争問題として調査している中での発表です。規制当局の監視が強化される中、安全性に重点を置くことで、Anthropicの評判を高め、競合他社との差別化を図ることができる可能性があります。.
Anthropicが新たなAI安全基準を設定
OpenAIとGoogleもバグ報奨金プログラムを実施していますが、これらは主に従来のソフトウェアの脆弱性に焦点を当てており、人工知能特有の脆弱性には焦点を当てていません。Metaは、ますます知能化する機械の安全な開発を確保するための研究において、一部から比較的閉鎖的だと批判されてきました。Anthropicは、こうした問題を明確に標的とし、外部からの調査を募ることで、この分野におけるオープン性のdent 築いています。.
しかし、バグバウンティだけで高度な機械学習システムのセキュリティ確保に関するあらゆる懸念に効果的に対処できるかどうかは疑問です。特定の欠陥をdentて修正するには有益ですが、AIの整合性や長期的な安全性に関するより広範な課題には対応できない可能性があります。AIシステムがより強力になっても、人間の価値観との整合性を保つためには、広範なテスト、解釈可能性の向上、そして場合によっては新たなガバナンス構造を含む、より包括的な戦略が必要になる可能性があります。.
この記事を読んでいるあなたは、既に一歩先を行っています。 ニュースレターを購読して、その優位性を維持しましょう。
免責事項。 提供される情報は取引アドバイスではありません。Cryptopolitan.com Cryptopolitan、 このページで提供される情報に基づいて行われた投資について一切の責任を負いません。tronお勧めしますdent 調査や資格のある専門家への相談を
クリス・ムリティ
クリスは、暗号通貨とテクノロジーを専門とするライター兼テクニカルアナリストです。ナイロビ大学でmaticとコンピュータサイエンスの学位を取得しています。On-Chain Media、Coin Editionでコンテンツライターとして勤務し、現在は Cryptopolitanで働いています。.
速習コース
- どの仮想通貨でお金が稼げるか
- ウォレットを使ってセキュリティを強化する方法(そして実際に使う価値のあるウォレットはどれか)
- プロが使う、あまり知られていない投資戦略
- 仮想通貨への投資を始める方法(どの取引所を使うべきか、購入すべき最適な仮想通貨など)














