ヴィタリック・ブテリン氏は、 醸している 企業や政府による「AIの安全性」という理論的概念の利用がますます物議を
ブテリン氏はソーシャルメディアプラットフォームXで、 のような 、安全のためにどのような対策が適切か、あるいは適切でないかを決定することはできないと説明した。なぜなら、 そうすると によって作られるシステムになってしまうからだtron。
のか 「AIの安全性」は、 世界支配のための手段として利用され得る
ヴィタリック・ブテリン氏は最近、ソーシャルメディアプラットフォームX上で、AIの安全性という概念が 悪用され 大企業や国家の利益のために
例えば、 Anthropic社は 最近、福祉省(DoW)やその他の政府機関が同社のClaudeモデルを大規模監視や完全自律型 兵器に使用することを拒否したことで称賛を受けた。
しかし、同社はリスク回避のための安全対策に関する 誓約も撤回した。この誓約は、 同社が開発したAIモデルの能力が、そのモデルの安全性を証明する能力を超えた場合、安全対策が追いつくまで、すべての訓練と展開を無条件に停止することを義務付けるものだった。
ヴィタリック氏は こと に対し、特に中国で激しい反発があったことを指摘した。彼らは、クロード社自身もインターネット上の膨大な公開知識に基づいてモデルを訓練していると主張した。
の問題点は、必要な安全対策が欠如しており、リスクをもたらすことだと主張 、オープンソースの競合他社 Anthropic社が どの安全対策が適切かを決定する権利を持つ のか?
ブテリン氏は、アントロピック社の行動は「ルールはtron強い者によって作られる」システムを示唆していると述べた。
彼は、AIの安全性が「我々の会社/我々の国が世界を支配するに値する」という考え方と区別がつかなくなってしまうと、より危険な世界が生まれるだろうという懸念を表明した。.
彼は、安全規制が必然的に国家安全保障機関を免除するならば、規制は脆弱になると主張する。これは、主要なAI研究所が軍事利用のための安全なAI環境を提供するために、防衛trac企業との数十億ドル規模の提携をますます模索しているという最近の報道によって裏付けられているため、特に重要である。.
AIを制限することは危険か?
数年前、ヴィタリック氏はフューチャー・オブ・ライフ・インスティテュート(FLI)の最大の寄付者の一人となった。2021年、彼は Shib・ア・イヌ(SHIB)トークンの開発者から大量のSHIBトークンを贈られた。犬コインバブルがピークに達した時、その帳簿価額は10億ドルを超えていた。ヴィタリック氏は、利回りが下がる前に資金を寄付しようと奔走し、約5億ドル相当の SHIB をFLIに送金した。.
当時、FLIは生物兵器の脅威や核戦争といったリスクに焦点を当てていた。しかし、その後FLIは積極的な政治活動やロビー活動へと重点を移し、ヴィタリック氏が懸念するような規制を推進することが多くなった。特に、AIモデルに 「悪いもの」
ヴィタリック氏は 、これらの制限は 脱獄や微調整によって容易に回避できるため、脆弱な解決策だと考えている。
さらに重要なことに、彼はこうした戦略が、オープンソースAIを禁止して「善人」による独占を維持するという暗黒の事態につながることを懸念している。.
ヴィタリックは代わりに、防御的加速主義(d/acc)と呼ばれるシステムを提唱している。この哲学によれば、危険な技術に対処する最善の方法は、まず防御シールドを構築し、オープンソース化することである。.
といったプロジェクトに4000万ドルを割り当てた 生物兵器対策、 。
セキュアなハードウェアによってコンピュータチップはハッキング不可能となり、大規模なスパイ活動に悪用されることがなくなります。生物防衛においては、高度な空気ろ過システムや受動型PCR検査を開発し、パンデミックを早期に検知・阻止することが求められます。サイバーセキュリティへの投資はソフトウェアの検証可能性を高め、AIによる攻撃で重要なインフラが容易にダウンすることを防ぎます。.

