A Microsoft estaria desenvolvendo um novo modelo de IA próprio, sendo esta a primeira vez desde que investiu pesadamente na OpenAI, com mais de US$ 10 bilhões, para utilizar os modelos de IA da startup em seus próprios produtos e se manter à frente da concorrência.
MAI-1 é um projeto interno da Microsoft
Diz-se que o novo modelo é grande o suficiente para competir com os da Alphabet, empresa controladora do Google, e da OpenAI.
O novo modelo é chamado internamente na Microsoft de MAI-1, e Mustafa Suleyman, contratado recentemente, está liderando o projeto, de acordo com uma reportagem do The Information. Ele é o mesmo que cofundou a DeepMind, que mais tarde foi comprada pelo Google, e, até recentemente, era CEO de outra startup chamada Inflection.
No entanto, o relatório afirma que não se trata de da Inflection , mas sim que a empresa pode usar os conjuntos de dados de treinamento e outras tecnologias relacionadas da startup para este modelo da Microsoft, que é completamente separado dos que a Inflection já lançou.
O ponto a lembrar aqui é que a Microsoft, antes de contratar Suleyman, desembolsou US$ 650 milhões para comprar todos os direitos da Inflection e também contratou a maior parte de sua equipe.
Diz-se que o MAI-1 será algo completamente diferente e muito maior do que os modelos menores da Microsoft que foram treinados anteriormente e que são de código aberto. De acordo com pessoas familiarizadas com o assunto, o modelo precisará de mais recursos computacionais e dados de treinamento, portanto, seu desenvolvimento será defimais caro.
Uma empreitada muito maior
Para efeito de comparação, modelos menores treinados pelas empresas Mistral e Meta possuem 70 bilhões de parâmetros, o que pode ser considerado uma escala para avaliar o tamanho de um modelo de IA, e o GPT-4 da OpenAI possui mais de 1 trilhão de parâmetros. Já o MAI-1 terá cerca de 500 bilhões de parâmetros.
Mas os parâmetros por si só não são uma característica confiável para medir um modelo de IA, visto que alguns modelos recentes da série Phi de código aberto da Microsoft estão apresentando desempenho equivalente a modelos 10 vezes maiores.
O Phi-3 Mini, lançado no mês passado pela Microsoft, é um dos modelos da série com tamanho reduzido, e a empresa pretende atingir uma base de clientes mais ampla com suas opções mais baratas.
Também foi relatado que a Microsoft vem adquirindo um grande número de servidores, ou melhor, clusters de servidores com processadores gráficos Nvidia integrados, juntamente com enormes quantidades de conjuntos de dados para treinar o modelo.
Embora, quando a Microsoft anunciou que estava integrando o chatbot ChatGPT da OpenAI à sua busca Bing, muitos analistas tenham considerado isso um "momento iPhone" e estivessem otimistas demais quanto ao seu impacto, inicialmente isso representou apenas um ou dois por cento a mais de participação de mercado para o Bing em relação ao Google.
No entanto, o relatório mais recente do Search Engine Journal, referente a abril, mostra que, pela primeira vez, a participação do Google nas buscas caiu mais de 4% em um único mês, enquanto os concorrentes Bing e Yahoo ganharam participação, especificamente no mercado dos EUA.
Mas parece que começou a fazer sentido para a Microsoft investir bilhões na OpenAI e, agora, com o sucesso de seus próprios modelos Phi, investir em um modelo maior também faz sentido.

