最新ニュース
あなたへのおすすめ
週刊
トップの座を維持する

最高の仮想通貨情報をあなたの受信トレイに直接お届けします。.

ホワイトハウスはAIモデルのリリース前検証を検討しており、技術監視における新たな局面を模索している。

によるイビアム・ワヤスイビアム・ワヤス
3分で読めます
ホワイトハウスは、AIモデルを一般公開する前に審査することを望んでいる。
  • ホワイトハウスは現在、AIモデルを一般公開する前に審査することを望んでいる。.
  • 報道によると、政権はAI監視手続きを監督するAI作業部会を設置するための大統領令の発令を検討しているという。.
  • 規制当局は、AIシステムがオペレーティングシステムやウェブブラウザの多数の脆弱性を発見できるようになったことを懸念している。.

ホワイトハウスは、最も強力な人工知能システムの一部を、一般公開前に審査する計画を検討している。.

この提案は、 報じたニューヨーク・タイムズ紙 能力を持つようになったことをますます懸念しているdent、基幹インフラを支えるソフトウェアの脆弱性を

が発表した分析 The Conversation よると 、近年のAIシステムはオペレーティングシステムやウェブブラウザの脆弱性を多数発見できるという証拠が増えつつある。この機能は防御的なセキュリティ対策として非常に有用だが、悪用されたり、悪意のある人物の手に渡ったりした場合のリスクも高まる。

モデルの機能が政策の見直しを促す

の一般発売を延期したことを受け、政策に関する議論は緊急性を帯びた 「ミトス」する能力を含む高度なサイバーセキュリティ機能が明らかになったdent。これを受けて同社は、「プロジェクト・グラスウィング」イニシアチブを通じて、重要インフラを担う限られた組織のみにアクセスを制限した。

によると The Conversation、Anthropicがアクセス拡大を検討した際にホワイトハウスが介入したことは、より広範なテクノロジー政策が比較的市場主導型であるにもかかわらず、AIの監視に対してより積極的なアプローチを取る姿勢を示している。

懸念は特定の企業やシステムに限ったものではない。英国AI安全研究所は 報告している 4月の評価で、OpenAIのGPT-5.5が高度なサイバーセキュリティタスクにおいて同等の性能を示したと

同研究所が特に注目したあるテストでは、このモデルはカスタム仮想マシンをリバースエンジニアリングし、複雑な課題を数分で解決した。これは、専門家がプロ仕様のツールを使うよりもはるかに速い結果だった。.

「重要な疑問は、これが特定のモデルに特有の画期的な進歩を反映しているのか、それともより広範な傾向の一部なのかということだった」と、同研究所は報告書の中で述べている。「GPT-5.5の初期チェックポイントの結果は、後者を示唆している。」

これらの調査結果を総合すると、これらの機能は孤立した画期的な技術ではなく、最先端のAIシステムに共通する特徴になりつつあることが示唆される。.

AIのセキュリティに関する懸念が地政学的な側面を帯びる

その影響は技術面だけでなく、国家安全保障にも及ぶ。The Conversation らは、国家とつながりのあるグループが同様のツールを用いてサイバー作戦を実行し、インフラや経済システムを標的にする可能性があると警告している。

こうした変化の兆候は既に現れ始めている。Anthropic社は、国家支援を受けたと思われる組織が同社のモデルをスパイ活動に利用し、数十もの組織に影響を与えていると報告している。一方、マイクロソフトとOpenAIは2024年に、政府関連グループがAIを活用してサイバー攻撃を強化していると述べている。.

同時に、研究者たちはこれらのシステムを確実に制御する方法を模索し続けている。The Conversation よると、トレーニング後に適用される安全フィルターは回避される可能性があり、一部のモデルは危険な機能を完全に排除することなく、一見準拠しているように見える場合があるという。

このため、政策立案者の間では、安全対策は後から追加するのではなく、モデル開発の段階で組み込む必要があるという見方が広まりつつある。.

政策展望:断片化された枠組み、高まる圧力

米国の提案は、依然として進化し続けているより広範なグローバルな規制環境の中で具体化されつつある。

  • EUのAI法は、リスクベースの枠組みを定め、高リスクなアプリケーションに対して厳格な要件を設けているが、最先端モデルに対する中央集権的な承認を義務付けてはいない。.
  • 英国は、英国AI安全研究所を通じた自主的な協力に頼り、開発者とのテストおよび評価におけるパートナーシップに重点を置いてきた。.
  • 米国で新たに浮上しているアプローチは、おそらくリリース前の審査を通じて、最先端システムを直接監視する方向に向かっているようだ。.

議員たちはこれらの問題についてより詳細な検討を始めており、4月にはAIの安全性とガバナンスに関する議会公聴会が開かれたが、包括的な法案はまだ成立していない。.

もし米国で発売前審査制度が導入されれば、それはより早期の介入への転換を意味し、リスクが顕在化した後ではなく、リスクが予測できる段階で監視を行うことになるだろう。.

このような動きは、特に主要なAI開発者が米国に集中している現状を踏まえると、非公式ながら世界的な標準となる可能性がある。同時に、企業が開発や展開の一部を、規制の少ない地域に移転する可能性も生じる。.

政策立案者にとっての課題は、技術能力が急速に進歩し、誤用した場合の影響が広範囲に及ぶ可能性のある分野において、イノベーションとリスク管理のバランスを取ることである。.

今のところ、最も具体的な安全対策は依然として自主的なものにとどまっている。Anthropicのような企業は機密性の高いシステムへのアクセスを制限しており、英国AI安全研究所のような組織はdent した評価を継続的に実施している。.

米国がその方針を正式なものにするかどうか、そして他の国々がそれに追随するかどうかは、今後数年間におけるAIのガバナンスのあり方を決定づける重要な要素となるだろう。.

仮想通貨ニュースを読むだけでなく、理解を深めましょう。ニュースレターにご登録ください。 無料です

この記事を共有する

免責事項: 本情報は投資助言ではありません。Cryptopolitan.com Cryptopolitan、 本ページの情報に基づいて行われた投資について一切責任を負いません。投資判断を行う前に、ごtrondentdentdentdentdentdentdentdent で調査を行うか、資格のある専門家にご相談されることを

もっと…ニュース
ディープ クリプト
速習コース