Secondo quanto riferito, Microsoft sta sviluppando un nuovo modello di intelligenza artificiale interno, ed è la prima volta da quando ha investito ingenti somme in OpenAI, con oltre 10 miliardi di dollari, per utilizzare i modelli di intelligenza artificiale della startup nei propri prodotti e restare in vantaggio finché i concorrenti non la raggiungeranno.
MAI-1 è un progetto interno di Microsoft
Si dice che il nuovo modello sia abbastanza grande da competere con quelli di Alphabet, la società madre di Google, e di OpenAI.
Il nuovo modello, denominato MAI-1 all'interno di Microsoft, è guidato dal neoassunto Mustafa Suleyman, secondo quanto riportato da The Information. È lo stesso co-fondatore di DeepMind, poi acquisita da Google, e di recente CEO di un'altra startup chiamata Inflection.
Tuttavia, nel rapporto si sostiene che non si tratti di Inflection , ma che l'azienda potrebbe utilizzare i set di dati di formazione e altre tecnologie correlate della startup per questo stesso modello Microsoft, che è completamente separato da quelli che Inflection ha già rilasciato.
Il punto da ricordare è che Microsoft, prima di assumere Suleyman, ha investito 650 milioni di dollari per acquistare tutti i diritti di Inflection e ha anche assunto la maggior parte del suo staff.
Si dice che MAI-1 sarà un animale completamente diverso e molto più grande dei modelli Microsoft più piccoli che ha addestrato in precedenza e che sono disponibili gratuitamente. Secondo chi ha familiarità con l'argomento, il modello richiederà maggiori risorse di calcolo e dati di addestramento, quindi sarà defipiù costoso da sviluppare.
Un'impresa molto più grande
Per fare un confronto, i modelli più piccoli addestrati dalle aziende Mistral e Meta hanno 70 miliardi di parametri, che possono essere approssimativamente definiti una scala per valutare le dimensioni di un modello di intelligenza artificiale, e si dice che GPT4 di OpenAI abbia più di 1 trilione di parametri. E MAI-1 ne avrà circa 500 miliardi.
Tuttavia, i parametri da soli non sono una caratteristica affidabile per misurare un modello di intelligenza artificiale, poiché si dice che alcune recenti serie Phi di modelli open source di Microsoft abbiano prestazioni pari a modelli 10 volte più grandi.
Il Phi-3 Mini, lanciato il mese scorso da Microsoft, è uno dei modelli più piccoli della serie e l'azienda punta a raggiungere una base di clienti più ampia con le sue opzioni più economiche.
Si dice anche che Microsoft abbia acquistato un gran numero di server, o meglio cluster di server dotati di processori grafici Nvidia integrati, insieme a enormi quantità di set di dati per addestrare il modello.
Sebbene quando Microsoft annunciò che avrebbe integrato il chatbot ChatGPT di OpenAI nella sua ricerca Bing, molti analisti lo definirono un "momento iPhone" e si mostrarono troppo ottimisti sul suo impatto, inizialmente diede solo l'uno o due percento in più di quota di ricerca a Bing rispetto a Google.
Tuttavia, il rapporto più recente del Search Engine Journal di aprile mostra che per la prima volta la quota di ricerca di Google è scesa di oltre il 4% in un solo mese, mentre i concorrenti Bing e Yahoo hanno guadagnato quote di mercato specificamente nel mercato statunitense.
Ma sembra che abbia iniziato ad avere senso per Microsoft investire miliardi in OpenAI e ora, con il successo dei suoi modelli Phi, anche investire in un modello più ampio ha senso.

