A Microsoft anunciou um novo chip chamado Maia 200, desenvolvido especificamente para processamento de inferência em inteligência artificial. O dispositivo sucede o Maia 100, lançado pela companhia em 2023.
De acordo com a Big Tech, o chip conta com mais de 100 bilhões de transistores e oferece desempenho superior a 10 petaflops em precisão de 4 bits e aproximadamente 5 petaflops em precisão de 8 bits. Estes números representam um avanço considerável em relação ao modelo anterior.
A empresa desenvolveu o componente para otimizar o processo de inferência, que corresponde à computação necessária para executar um modelo de IA. A demanda é diferente da exigida para treinamento. Esta otimização busca reduzir os custos operacionais das empresas que utilizam inteligência artificial.
O lançamento ocorreu nos Estados Unidos, onde a Microsoft mantém suas principais instalações de pesquisa e desenvolvimento de hardware. A equipe de desenvolvimento da empresa criou o chip como solução própria para diminuir a dependência de componentes externos.
Comparação com concorrentes
De acordo com informações divulgadas pela Microsoft, o Maia 200 supera concorrentes diretos no mercado. O chip oferece três vezes o desempenho FP4 dos chips Amazon Trainium de terceira geração. Além disso, tem desempenho FP8 superior ao TPU de sétima geração do Google.
A empresa não divulgou informações sobre o preço do componente ou sua disponibilidade comercial para organizações externas.
Aplicações e disponibilidade
O Maia 200 já está sendo utilizado para alimentar os modelos de IA da equipe de Superinteligência da Microsoft. Conforme as informações divulgadas, ele também dá suporte às operações do Copilot, o chatbot da empresa.
“Em termos práticos, um nó Maia 200 pode executar sem esforço os maiores modelos atuais, com bastante espaço para modelos ainda maiores no futuro”
A Microsoft convidou desenvolvedores, acadêmicos e laboratórios de IA de ponta para utilizar o kit de desenvolvimento de software do Maia 200 em suas cargas de trabalho.
O lançamento do chip faz parte de uma tendência entre grandes empresas de tecnologia que estão desenvolvendo componentes próprios para reduzir a dependência da Nvidia. As GPUs da empresa chefiada por Jensen Huang se tornaram essenciais para empresas de IA.
O Google, por exemplo, possui seu TPU (unidades de processamento tensorial), disponibilizado como poder computacional através de sua nuvem. A Amazon também tem seu chip acelerador de IA, o Trainium, que lançou sua versão mais recente, o Trainium3, em dezembro.
The post Novo chip da Microsoft quer desafiar Nvidia na corrida por IA appeared first on Giz Brasil.