金融業界の誰もがAIに注目しています。あらゆる銀行、あらゆる証券会社が、AIがどのように資産管理に役立つかを模索しています。富裕層だけでなく、すべての人々にとって。
むしろ、追いつかない人にとっては脅威です。資産管理には、単に資金を移動させる以上のことが求められます。
適切な投資の組み合わせを選び、状況の変化に合わせて調整することが重要です。現在は人間のアドバイザーがそれを担っています。しかし、AIの方がより優れた運用ができる可能性はあるのでしょうか?ネタバレ:おそらくないでしょう。
ロボアドバイザーの問題点
しかし、資産管理には費用がかかり、ほとんどの人は高額な費用を負担できません。これはAIが役立つ分野の一つです。
AI を活用したシステムは、低コストでカスタマイズされたアドバイスを提供できるため、これまでは富が「足りず」人間によるアドバイスの価格を正当化できなかったために取り残されていた人々にもアクセスを提供できます。
しかし、ここにちょっとした落とし穴があります。ロボアドバイザーはそれほど普及していません。AIが株式、債券、ファンドの最適な組み合わせを提案したとしても、ただ提案するだけでは十分ではないのです。
モルガン・スタンレーの元グローバル・リサーチ責任者、フアン・ルイス・ペレス氏によるとそれはコミュニケーションだ
AIは数千もの金融商品を数秒で分析できます。数字、過去の収益、そしてリスクまで把握しています。しかし、人間を理解するとなると話は別です。
AIは、投資家としての私たちのアイデンティティを defi個人的な物語や期待の変化を捉えることができません。なぜなら、人間の投資(機関投資家であっても)はデータに基づくものではないからです。
それは感情、貯蓄、支出、投資の決断、そして長期的な計画に関するものです。これらは非常に個人的なものであり、人間のアドバイザーでさえ理解に苦労することがあります(時には)。
では、ロボアドバイザーはどうするべきなのでしょうか?ほとんどの顧客が、結局いつもと同じ株式と債券を60/40の割合で保有してしまうのも無理はありません。それがデフォルトです。AIにそれを理解させる必要はありません。
真の進歩を遂げるには、AIはより賢くなる必要があります。単なる一般的な推奨を出すのではなく、アドバイザーの働き方を理解する必要があります。同じ商品を何度も推奨するだけでは不十分です。
AIは顧客とのやり取りから学習する必要があります。AIがポートフォリオを分かりやすく説明できなければ、誰もそれを信頼することはないでしょう。
分散化が鍵
資産運用会社は今、岐路に立たされています。AIが真に有用であるためには、アドバイザーと顧客の両方に力を与える必要があります。
つまり、プロセスを分散化し、アドバイザーがAIツールを活用してより適切な意思決定を行えるようにするということです。利益率の高い商品を売り込もうとする最高投資責任者(CIO)が策定した中央集権的な計画に従うことではありません。
実際、意思決定を分散化することで、これらの製品を販売しようとする企業のプロセスが複雑化する可能性があります。コンプライアンスとリスク管理も課題となります。
将来、AIとの会話は人間に近いものになるかもしれません。大規模言語モデル(LLM)とAIエージェントは、私たちのデジタルフットプリントから学習することで、状況を大きく変える可能性があります。
これらのAIシステムは、私たちの生活から十分なコンテキストを抽出し、状況の変化に応じて私たちが何を望んでいるかを予測できるようになります。理論的には、これにより資産管理の効率化が期待できます。
しかし、誰が本当に自分の最も個人的な情報を機械に渡すのでしょうか? 求められる信頼のレベルは、実に莫大です。
しかし、シリコンバレーがAIを新たな高みへと押し上げ続ければ、顧客とスムーズでリアルな会話ができるロボットエージェントが近い将来登場するかもしれません。そして、それが実現すれば、すべてが変わるでしょう。
世界最大の資産運用会社であるブラックロックは、すでに何年もAIを活用しており、機械学習と大規模言語モデルを投資戦略の強化に活用しています。
彼らはAIを活用してmatic 投資を効率化しています。「matic ロボット」と呼ばれるツールは、AIと人間の専門知識を組み合わせ、新興市場のテーマに基づいた株式バスケットを作成します。
これにより、さまざまなセクターにわたる投資機会の発見プロセスが加速され、効率が向上し、時間の無駄が減るとのことです。
しかし、AIは絶対確実ではありません。繰り返しになりますが、これらのロボットにはラリー・フィンクのような熟練したポートフォリオマネージャーのような判断力や繊細な理解力はないため、人間による監視は依然として不可欠です。
AIがミスを犯した場合、誰かがそれを検知する必要があります。AIの出力にはエラーが発生する可能性があり、人間の介入がなければ深刻な結果につながる可能性があります。理想的な構成とは?人間の専門知識とAI主導の効率性を組み合わせることです。

