Microsoft développerait un nouveau modèle d'IA interne, et ce pour la première fois depuis son investissement massif de plus de 10 milliards de dollars dans OpenAI, afin d'utiliser les modèles d'IA de la start-up dans ses propres produits et de garder une longueur d'avance jusqu'à ce que ses concurrents la rattrapent.
MAI-1 est un projet interne de Microsoft
Ce nouveau modèle serait suffisamment performant pour rivaliser avec ceux d'Alphabet, la maison mère de Google, et d'OpenAI.
Le nouveau modèle, baptisé MAI-1 en interne chez Microsoft, est piloté par Mustafa Suleyman, récemment recruté, d'après un article de The Information. Ce dernier est le cofondateur de DeepMind, racheté par Google, et occupait jusqu'à récemment le poste de PDG d'une autre start-up, Inflection.
Mais le rapport affirme qu'il ne s'agit pas d'Inflection , mais que l'entreprise pourrait utiliser les ensembles de données d'entraînement et d'autres technologies connexes de la start-up pour ce modèle Microsoft, qui est totalement distinct de ceux qu'Inflection a déjà publiés.
Il est important de rappeler qu'avant d'embaucher Suleyman, Microsoft a déboursé 650 millions de dollars pour acquérir l'intégralité des droits d'Inflection et a également embauché la plupart des membres de son personnel.
On dit que MAI-1 sera un modèle totalement différent et bien plus imposant que les modèles Microsoft plus petits qu'il a entraînés auparavant et qui sont disponibles gratuitement. Selon des sources proches du dossier, ce modèle nécessitera davantage de ressources de calcul et de données d'entraînement, ce qui rendra son développement defiplus coûteux.
Une entreprise beaucoup plus vaste
À titre de comparaison, les modèles plus petits entraînés par les sociétés Mistral et Meta possèdent 70 milliards de paramètres, ce qui permet d'évaluer approximativement la taille d'un modèle d'IA. Le modèle GPT-4 d'OpenAI compterait plus de 1 000 milliards de paramètres, tandis que MAI-1 en posséderait environ 500 milliards.
Mais les paramètres seuls ne constituent pas un critère fiable pour mesurer un modèle d'IA, car certains modèles open source récents de la série Phi de Microsoft afficheraient des performances équivalentes à celles de modèles dix fois plus volumineux.
Le Phi-3 Mini, sorti le mois dernier par Microsoft, fait partie de cette série de modèles plus compacts, et l'entreprise vise à toucher une clientèle plus large grâce à ses options moins chères.
Il est également rapporté que Microsoft s'est procuré un grand nombre de serveurs, ou plutôt des grappes de serveurs, équipés de processeurs graphiques Nvidia, ainsi que d'énormes quantités d'ensembles de données pour entraîner le modèle.
Bien que, lorsque Microsoft a annoncé l'intégration du chatbot ChatGPT d'OpenAI dans son moteur de recherche Bing, de nombreux analystes aient parlé d'un « moment iPhone » et aient été trop optimistes quant à son impact, cela n'a initialement accordé à Bing qu'un ou deux pour cent de parts de marché supplémentaires par rapport à Google.
Cependant, le dernier rapport du Search Engine Journal, datant d'avril, montre que pour la première fois, la part de marché de Google dans les recherches a chuté de plus de 4 % en un seul mois, tandis que ses concurrents Bing et Yahoo ont gagné des parts de marché, notamment sur le marché américain.
Mais il semble désormais logique que Microsoft investisse des milliards dans OpenAI, et maintenant, avec le succès de ses propres modèles Phi, investir dans un modèle plus vaste est tout aussi judicieux.

