新たな裁判所提出書類によると、Meta社が自社のLlama AIモデルのホストと収益分配に合意していたことが明らかになった。この提出書類は、同社が進行中のKadrey対Meta著作権訴訟の原告側弁護士によって提出されたもので、同社は人工知能モデルの学習に海賊版書籍を使用したとして訴えられていた。.
原告側の弁護士はさらに一歩踏み込み、Metaがラマモデルをホスティングしている企業と収益の一部を分配していることを証明しました。また、Metaはホスティングプラットフォームがモデルのユーザーから得る収益の一部も分配していることも明らかにしました。.
この事実は、2024年7月のブログ投稿で、MetaのCEOであるマーク・ザッカーバーグ氏が、Metaが公開しているLlama AIモデルへのアクセスをビジネスモデルとして販売することは検討していないと述べていたことを受けて明らかになった。しかし、少なくとも裁判所への提出書類の非編集コピーによると、同社はLlamaから収益分配方式を用いて一定の利益を得ており、これは事実ではない。.
裁判所の書類には、Metaとホストとの収益分配契約が記されている
報道によると、申請書ではMetaとの収益分配モデルを採用しているホストについて具体的には触れられていないものの、MetaはAWS、Databricks、Groq、Dell、Azure、Google Cloud、Nvidia、IBM、Intel、AMD、Snowflakeなど、著名なホストパートナーを多数抱えている。開発者はLlamaモデルをホストパートナーを通じて使用する必要はありませんが、これらのモデルはダウンロードして微調整し、さまざまなハードウェアで実行することができます。
しかし、ホストは、ラマモデルの動作をよりシンプルかつ容易にするための追加サービスとツールを提供しています。2024年4月の前回の決算説明会で、ザッカーバーグ氏はラマモデルへのアクセスライセンス供与の可能性を示唆し、同社が他の方法でモデルを収益化することも可能だと付け加えました。同氏は、ビジネスメッセージングサービスやAIインタラクションにおける広告といった手段に言及しましたが、具体的な内容については明らかにしませんでした。.
マーク・ザッカーバーグは最近のレポートで、 MetaがLlamaから得る価値の大部分は、AI研究コミュニティによるモデルの改良によるものだと述べています。Metaはこれらのモデルを、Meta AIアシスタント「Meta AI」をはじめとする、同社のプラットフォームやサービス全体にわたる多くの製品に活用しています。
「マイクロソフトやアマゾン、グーグルのような企業がこれらのサービスを再販するのであれば、その収益の一部を受け取るべきだと考えています」とザッカーバーグ氏は述べた。さらに、同社は現在こうしたタイプの取引に注力しており、すでにその方向に向けた措置を講じていると付け加えた。.
2024年第3四半期の決算発表で、ザッカーバーグ氏は、企業がオープンに事業を展開することは良いビジネスになると考えているとも述べた。「業界で誰も標準化していないモデルを孤立して構築するよりも、オープンに事業を展開することで当社の製品はより良くなります」と付け加えた。.
Metaは著作権侵害訴訟と戦い続けている
原告側弁護士の主張において、MetaがLlamaモデルから比較的直接的な方法で収益を上げているという事実は、同社が著作物のシードやアップロードによって著作権侵害を助長していたことを示しているため、重要であるとしている。原告側は、Metaがトレーニング用に電子書籍をトレント形式で入手するために、秘密裏に手段を講じていたと主張している。また、トレントの仕組み上、Metaは他のトレントユーザーと電子書籍を共有していたとも主張している。.
増加を背景に、今年の設備投資を増やす計画を立てています。1月には、2025年の設備投資額を約600億ドルから800億ドルと発表しました。これは2024年の設備投資額の倍増となります。この資金は主にデータセンターとAI開発チームの強化に充てられます。また、Meta AIのサブスクリプションサービスの開始を検討しているという報道もあり、このサービスでは、Meta AIアシスタントにまだ詳細が明らかにされていない機能が追加される予定です。

