- ブレッチリー・パークで世界のリーダーたちがAIのリスクと機会について議論した。中国の関与を疑問視する声もあったが、このイベントは外交matic 成功を収めた。.
- 米国は、プライバシーや競争といった既知のリスクに焦点を当て、AIを規制する大統領令を発令しました。AIを何を、誰が規制すべきかについては、議論が続いています。.
- 政府はAIの脅威への対処と経済的可能性の獲得のバランスを取らなければなりません。世界はAI規制とイノベーションの進化を注視しています。.
11月、世界各国政府はブレッチリー・パークにAIサミットを開催し、 人工知能(AI)。2023年11月1日と2日に開催されたこのイベントは、開始前から大きな注目と憶測を集めていました。サミットの主な焦点は、高度なAIに伴う実存的リスクの軽減でしたが、経済的機会や規制上の考慮事項についても深く掘り下げられました。
ブレッチリーAIサミットの好結果
当初はゲストの確定や著名人の不在をめぐって懐疑的な見方もあったものの、ブレッチリー・パークで開催されたAI安全サミットは期待を上回る成果を収めました。中国に関心を持つ保守派や米国の政治家を含む批評家は、イベントへの中国代表の参加に疑問を呈しました。さらに、AI規制における世界的な取り組みを主導するという英国の野心的な試みにも疑問が投げかけられました。.
しかし、サミットは英国にとって外交matic 成功を収めた。Open AIのサム・アルトマン氏や米国副dent カマラ・ハリス氏といった著名人が出席し、豪華なゲストリストを誇った。サミットのハイライトはブレッチリー宣言だった。これは、28カ国と欧州連合がAIの存亡に関わるリスクへの対処に協力するという広範なコミットメントである。特に注目すべきは、米国と中国に加え、英国、インド、オーストラリアも支持を表明したことだ。.
政府によるAIモデルへのアクセス
サミットにおいて、 リシ・スナック は重要な進展を発表した。AI企業が、安全性評価のために政府機関に自社モデルへの早期アクセスを許可することに合意したというのだ。しかし、この発表は具体的な内容に乏しく、6月に行われた以前の発表と似通っていた。また、安全性を監督する常設機関として、英国のフロンティアAIタスクフォースが設立されたことも明らかになった。
AIに関する米国の大統領令
ブレッチリー・サミットの数日前、カマラ・ハリス米国副dent 、AI分野における技術リーダーであり続けるというアメリカのコミットメントを強調しました。同時に、ジョー・バイデンdent 、世界最大のAI企業を包括的に規制することを目的とした、待望の大統領令を発令しました。.
この大統領令は、プライバシー、競争、アルゴリズムによる差別など、AIがもたらす既知の、かつdent可能な短期的なリスクへの対処を主眼に置いています。アメリカ国民の公民権と自由の保護を最優先しています。この大統領令は、住宅、保健、国家安全保障などの分野を監督する25の連邦政府機関および省庁に対し、AIの利用と監督に関する基準と規制を策定することを義務付けています。さらに、最も強力なAIモデルを開発する企業に対して新たな報告およびテスト要件を導入し、国家安全保障上の脅威となる可能性のあるモデルを開発する企業には、安全対策の開示を義務付けています。
世界的なAI規制の議論
欧州連合(EU)は年末までに野心的なAI規制法案を発表すると予想されています。一方、先進7カ国(G7)はAI企業向けの別の行動規範の策定に取り組んでいます。中国もこの点に関して独自の取り組みを開始しました。.
AIのどの側面に規制が必要か、そして誰がその責任を負うべきか、という点が主要な議論の中心となっています。テクノロジー企業は一般的に、AIの基盤となるモデルではなく、最先端のAIアプリケーションを対象とした限定的な規制を主張しています。しかし、急速な技術進歩に伴い、この姿勢を維持することはますます困難になっています。.
米国と英国は、既存の政府機関がAI規制を監督できると考えている。しかしながら、批判的な人々は国家規制当局の tracを懸念しており、ディープマインド共同創業者のムスタファ・スレイマン氏をはじめとするAI業界の有力者は、AI企業の活動の透明性を高めることを目的として、気候変動に関する政府間パネル(IPCC)に類似した世界的なガバナンス体制の設立を提案している。スレイマン氏は、今後5年以内に次世代AIシステムの訓練を一時停止する可能性さえ示唆している。.
オープンソースAIとクローズドソースAI
AI研究におけるオープンソースとクローズドソースのアプローチをめぐる議論も浮上している。オープンソース派は、AI研究における営利企業の優位性は望ましくない結果につながる可能性があり、オープンソースモデルは安全性研究を加速させる可能性があると主張している。一方、クローズドソースモデル派は、高度なAIに伴うリスクが大きすぎるため、強力なモデルのソースコードを無料で配布することは認められないと主張している。
AIのリスクと経済的利益のバランス
英国を含む各国政府は、AIのリスクへの対処の重要性を認識しつつ、その商業的機会を積極的に活用するという微妙な綱渡りを強いられています。AIは、蒸気動力、電気、インターネットといった過去のイノベーションに匹敵する幅広い応用範囲を持つ汎用技術へと成長しようとしています。この技術は、生産性と経済成長の大幅な向上を促進することが期待されています。.
キャピタル・エコノミクスのニール・シアリング氏は、政府がAIの潜在的な経済的利益をどのように活用しようとしているのか、より深く理解する必要があると強調しています。AIのリスクへの対処は重要ですが、AIがもたらす経済的利益も見逃すべきではありません。.
ブレッチリー・パークで開催されたAIサミットは、AIの規制と安全性に関する世界的な議論において極めて重要な節目となりました。各国政府は、AIの潜在的な脅威への対処と、AIがもたらす莫大な経済的機会の活用との間でバランスを取る必要があります。.
最も賢い暗号通貨マインドを持つ人々はすでに私たちのニュースレターを読んでいます。参加してみませんか?ぜひ ご参加ください。
免責事項: 本情報は投資助言ではありません。Cryptopolitan.com Cryptopolitan、 本ページの情報に基づいて行われた投資について一切責任を負いません。投資判断を行う前に、ごtrondentdentdentdentdentdentdentdent で調査を行うか、資格のある専門家にご相談されることを
速習コース
- どの仮想通貨でお金が稼げるか
- ウォレットを使ってセキュリティを強化する方法(そして実際に使う価値のあるウォレットはどれか)
- プロが使う、あまり知られていない投資戦略
- 仮想通貨への投資を始める方法(どの取引所を使うべきか、購入すべき最適な仮想通貨など)
















