人工知能(AI)の爆発的な増加により、私たちの世界は理想的な夢や終末予言で満たされていますが、どちらも本当の脅威を捉えていません。.
私たちは、AIやロボットが敵対的な乗っ取りを起こすような「ロボットによる大規模な反乱」に直面しているわけではありません。映画『ターミネーター』や『マトリックス』のようなシーンは考えられません。そんな状況はあり得ません。AIが世界を征服できるような技術は存在しないのです。.
AIはタンパク質の折り畳みやチェスのプレイといった特定のタスクでは優れているかもしれないが、軍隊を編成したり国家を運営したりすることは不可能だ。.
しかし、ロボットの反乱が起こっていないからといって、私たちが安全だというわけではない。AIは、それほどmaticではないものの、同様に強力な手段、つまりデジタル官僚機構を通じて、静かに私たちの生活に浸透しつつある。.
真の危険は殺人ロボットではありません。私たちの日常生活を支配する意思決定にAIが介入してくることです。人間は具体的な脅威を恐れるように進化してきました。ライオンやサメのような大型捕食動物を考えてみてください。.
しかし、書類や文書、あるいは官僚主義による脅威を見抜く準備は、私たちにはそれほど整っていません。官僚主義自体は比較的新しい発明であり、文字の発明とともにわずか5000年前に誕生したのです。.
例えば、文字が使われるようになる前は、所有権はコミュニティの合意内容によって決まりました。ある土地を「所有」していたとしても、それは隣人がそれを尊重していたからであり、書類は必要ありませんでした。.
粘土板からデジタル官僚へ
人々が粘土板や記録を使い始めたことで、すべてが変わりました。文書の出現により、財産権はもはや共同体の合意ではなく、公式の記録として扱われるようになりました。古代メポタミア人は泥の塊を正式な所有権の象徴とし、所有権の概念を覆しました。.
たとえ地域社会の同意がなくても、土地の所有権を主張する粘土板に基づいて裁判所の判決が下される可能性があります。現代に目を向けると、私たちのシステムは依然として同様の原理に基づいて構築されています。ただ、粘土板の代わりにシリコンチップとデジタル記録が使われているだけです。.
この変化は権力構造を一変させました。所有権は、地域社会の承認なしに売買できるものとなりました。官僚機構が出現し、徴税、軍事費、そして中央集権的な統治が可能になりました。.
官僚はこれらのシステムにおいて不可欠な役割を担うようになり、記録、書類、印鑑を用いて軍隊を管理し、資源を配分し、さらには法律を統制しました。これらの官僚制度は、国民を広範囲に統制する中央集権国家を生み出し、その統制は今やAIへと移行しつつあります。.
AIはロボット軍団を育成する必要はありません。官僚機構を習得するだけで十分です。こうした枠組みの中で、AIは人間よりも影響力のある意思決定を行うことができます。これは今日の状況からも明らかです。AIは既に、ローンの承認、就職の内定、大学入学、さらには医療診断に至るまで、あらゆる場面で意思決定を行っています。.
AI銀行員が融資の適格性を判断したり、AI裁判官が裁判で判決を下したり、軍事AIが攻撃目標を計算したりする様子を想像してみてください。AIにロボットの反乱は必要ありません。AIが継承する官僚機構の力は既に莫大です。
ソーシャルメディアにおけるAIと公共の影響力
ソーシャルメディアのアルゴリズムは、原始的ではあるものの、既に大きな力を発揮しています。特にFacebook、X(旧Twitter)、YouTube、TikTokなどのAIアルゴリズムは、ユーザーエンゲージメントという一つの目標を念頭に置いて構築されています。ユーザーがこれらのプラットフォームに長く滞在すればするほど、企業に流れる資金は増加します。.
これらのアルゴリズムは、数十億人のユーザーとの試行錯誤を経て、貪欲、怒り、恐怖といった感情を喚起することでエンゲージメントが向上することを突き止めました。これらの感情的なボタンを押すことで、ユーザーを夢中にさせるのです。.
これらのアルゴリズムは、オンラインで過ごす時間を最適化するだけにとどまりませんでした。さらに、強い感情を呼び起こすコンテンツがユーザーのエンゲージメントを高めることを発見しました。この発見は、陰謀論、誤情報、そして社会の分断の蔓延につながりました。.
今日の世界は、クリック数を結束よりも優先するアルゴリズムのせいで、デジタル世界の怒り、恐怖を煽る言動、そして分極化で溢れています。ソーシャルメディアのアルゴリズムは感情的なトリガーを悪用することで、今日の陰謀論やフェイクニュースの蔓延を助長しています。.
これらのアルゴリズムによる「意思決定者」は、本質的に悪意があるわけではありません。むしろ、役割を効率的に遂行するように最適化されています。しかしながら、その意思決定には、このような重要な分野において私たちが通常期待するような人間の直感や文脈が欠けています。.
AIはより速く、より一貫した判断を下すかもしれませんが、何かがうまくいかなければ、結果は悲惨なものになりかねません。この潜在的なリスクは、ソーシャルメディアが社会に与える影響に既に現れており、AIの抑制されない力がどこへ向かうのかを警告しています。.
バイデン氏、国防総省と諜報機関にAI規則を設定
ジョー・バイデンdent 、国家安全保障におけるAIの使用に関する新たなルールを盛り込んだ国家安全保障に関する覚書を発表し、国防総省や諜報機関が民主主義の価値観に反する方法でAIを使用することを阻止した。.
これは、国家安全保障におけるAIの役割を規定する初の指令です。新たな規則は、AIの実験を奨励する一方で、政府機関がAIを言論の自由などの権利を侵害したり、核規制を弱体化させるために利用したりすることを防ぎます。.
「この覚書は、AIリスク管理に関する政府全体の取り組みを規定する初の枠組みを定めたものです」と、ジェイク・サリバン国家安全保障問題担当大統領補佐官は述べた。彼は、偏見を回避し、説明責任を果たし、機密性の高い役割を担うAIに対する人間による監視を確実に行うという目標を概説した。.
これらの規則は法的拘束力はないものの、サイバーセキュリティ、対諜報活動、軍事作戦における兵站といった国家安全保障上の応用をカバーしている。バイデン大統領は昨年、輸出規制も発令し、技術へのアクセスを制限することで中国のAI技術の進歩を鈍化させた。.
この指令に基づき、ワシントンのAI安全研究所は、AIツールの悪用を防ぐためにリリース前に検査する責任を負うことになり、米国の情報機関は他国におけるAIの進歩の監視を優先することになる。.

