Un nuovo documento depositato in tribunale ha rivelato che Meta ha concordato con gli host del suo modello di intelligenza artificiale Llama di condividere i ricavi. Il documento è stato depositato dagli avvocati dell'attore nella causa in corso Kadrey contro Meta per violazione del copyright, in cui l'azienda era accusata di utilizzare libri piratati per addestrare i suoi modelli di intelligenza artificiale.
Gli avvocati dell'attore si sono spinti oltre, dimostrando che Meta condivide una percentuale dei suoi ricavi con le aziende che ospitano i suoi modelli Llama. Il documento ha anche rivelato che l'azienda condivide una percentuale dei fondi che le piattaforme di hosting generano dagli utenti dei modelli.
Questa rivelazione fa seguito a un post sul blog del luglio 2024, in cui il CEO di Meta, Mark Zuckerberg, affermava che l'azienda non intendeva vendere l'accesso ai modelli di intelligenza artificiale Llama di Meta, disponibili pubblicamente, come modello di business. Tuttavia, non è così, poiché l'azienda ricava una parte dei profitti da Llama utilizzando un formulario di condivisione dei ricavi, almeno secondo la copia non censurata degli atti processuali.
Gli atti del tribunale mostrano l'accordo di condivisione delle entrate di Meta con gli host
Secondo quanto riportato, il documento non menziona specificamente gli host che hanno un modello di condivisione dei ricavi con Meta, ma l'azienda vanta diversi partner host di alto profilo. Tra questi, AWS, Databricks, Groq, Dell, Azure, Google Cloud, Nvidia, IBM, Intel, AMD e Snowflake. Gli sviluppatori non sono tenuti a utilizzare i modelli Llama tramite un partner host, ma questi modelli possono essere scaricati, ottimizzati ed eseguiti su una vasta gamma di hardware.
Tuttavia, gli host forniscono servizi e strumenti aggiuntivi che garantiscono che i modelli Llama siano più semplici e facili da usare. Durante una precedente conference call sui risultati finanziari nell'aprile 2024, Zuckerberg aveva proposto la possibilità di concedere in licenza l'accesso ai modelli Llama, aggiungendo che l'azienda avrebbe potuto monetizzare il modello anche in altri modi. Ha menzionato soluzioni come i servizi di messaggistica aziendale e gli annunci pubblicitari nelle interazioni con l'intelligenza artificiale, ma non è riuscito a fornire dettagli chiari.
In un recente rapporto, Mark Zuckerberg ha affermato che gran parte del valore che Meta ottiene da Llama deriva dai miglioramenti apportati al modello dalla comunità di ricerca sull'intelligenza artificiale. Meta utilizza i modelli anche per alimentare molti prodotti sulle sue piattaforme e proprietà, tra cui l'assistente Meta AI, Meta AI.
"Se sei una società come Microsoft, Amazon o Google e intendi rivendere questi servizi, pensiamo che dovremmo ricavarne una parte dei ricavi", ha affermato Zuckerberg. Ha aggiunto che questi sono i tipi di accordi su cui l'azienda si sta ora concentrando, aggiungendo che si stanno già muovendo passi in quella direzione.
Nella conference call sui risultati del terzo trimestre del 2024, Zuckerberg ha anche affermato di ritenere che sia un buon affare se l'azienda agisce apertamente. "Rende i nostri prodotti migliori, piuttosto che se fossimo isolati a costruire un modello che nessuno nel settore stava standardizzando", ha aggiunto.
Meta continua a combattere la causa per violazione
Nella tesi sostenuta dall'avvocato che rappresenta i ricorrenti, il fatto che Meta possa generare profitti in modo piuttosto diretto dai suoi modelli Llama è importante perché dimostra che l'azienda ha anche facilitato la violazione diffondendo o caricando le proprie opere. I ricorrenti sostengono che Meta abbia utilizzato metodi nascosti per ottenere gli e-book tramite torrent a scopo di formazione. Hanno inoltre affermato che, a causa del funzionamento del torrenting, ha condiviso gli e-book con altri torrenter.
Meta ha pianificato di aumentare le sue spese in conto capitale quest'anno, in parte grazie all'aumento degli investimenti nell'intelligenza artificiale. A gennaio, l'azienda ha annunciato che prevedeva di spendere tra i 60 e gli 80 miliardi di dollari in CapEx nel 2025, raddoppiando l'importo speso in CapEx nel 2024. I fondi saranno destinati principalmente ai data center e alla crescita del team di sviluppo dell'intelligenza artificiale dell'azienda. Si vocifera inoltre che l'azienda stia valutando il lancio di un servizio in abbonamento per Meta AI che aggiungerà ulteriori funzionalità ancora da specificare all'assistente.

