Big techs criam supergrupo para desafiar Nvidia no mercado de IA

Intel, Google, Microsoft, Meta e outras big techs estão montando um novo grupo da indústria, o Ultra Accelerator Link (UALink) Promoter Group. E o objetivo deste supergrupo é orientar o desenvolvimento dos componentes que conectam chips aceleradores de inteligência artificial (IA) em data centers.

Grupo de big techs vai desenvolver próxima geração de chips de IA

Intel, Google, Microsoft, Meta, AMD e HP formaram o UALink Promoter Group para desenvolver um novo padrão industrial de conexão de chips aceleradores de IA em data centers;

O grupo propõe o UALink 1.0, um padrão que permitirá conectar até 1.024 aceleradores de IA num único “pod” de computação, visando aumentar a velocidade e reduzir a latência de transferência de dados utilizando “padrões abertos”;

Ainda em 2024, será criado o UALink Consortium, consórcio para supervisionar o desenvolvimento contínuo da especificação UALink, com a primeira versão do padrão prevista para o terceiro trimestre e uma atualização de maior largura de banda, UALink 1.1, no quarto trimestre;

A Nvidia, maior produtora de aceleradores de IA, não faz parte do grupo, pois possui sua própria tecnologia de interconexão. As big techs do UALink buscam reduzir justamente a dependência da Nvidia, que domina o mercado de hardware de IA.

Anunciado na quarta-feira (29), o UALink Promoter Group – que também inclui AMD (mas não Arm) e Hewlett Packard Enterprise (a HP) – propõe um novo padrão industrial para conectar os chips aceleradores de IA encontrados num número crescente de servidores.

Explicando: aceleradores de IA são chips que variam de GPUs a soluções customizadas para acelerar o treinamento, ajuste fino e execução de modelos de IA.

“A indústria precisa de um padrão que permita que a inovação avance rapidamente, sem ser prejudicada por qualquer empresa individual”, disse Forrest Norrod, gerente de soluções de data center da AMD, numa coletiva de imprensa.

Leia mais:

E agora, Microsoft? OpenAI ajuda a deixar Siri mais inteligente

3 formas de acessar o ChatGPT-4 de graça

Você deve usar “obrigado” e “por favor” no ChatGPT, Gemini e outras IAs?

Conectando chips aceleradores de IA em data centers

O UALink 1.0 aumentará a velocidade enquanto reduz a latência de transferência de dados (Imagem: Pedro Spadoni via DALL-E/Olhar Digital)

A primeira versão do padrão proposto, o UALink 1.0, conectará até 1.024 aceleradores de IA (apenas GPUs) num único “pod” de computação – o grupo define um pod como um ou vários racks num servidor.

O UALink 1.0, baseado em “padrões abertos”, incluindo o Infinity Fabric da AMD, permitirá cargas e armazenamentos diretos entre a memória conectada aos aceleradores de IA e aumentará a velocidade enquanto reduz a latência de transferência de dados em comparação com as especificações de interconexão existentes, de acordo com o UALink Promoter Group.

O grupo afirma que criará um consórcio, o UALink Consortium, no terceiro trimestre de 2024 para supervisionar o desenvolvimento da especificação UALink daqui em diante.

O UALink 1.0 será disponibilizado aproximadamente ao mesmo tempo para as empresas que se juntarem ao consórcio, com uma especificação atualizada de maior largura de banda, UALink 1.1, prevista para chegar no quarto trimestre de 2024.

Os primeiros produtos UALink serão lançados “nos próximos dois anos,” disse Norrod.

Nvidia não está em supergrupo de big techs; entenda

Big techs buscam se libertar da dependência da Nvidia no mercado de IA (Imagem: Below the Sky / Shutterstock.com)

Uma ausência notável entre os membros deste supergrupo é a Nvidia, que é de longe a maior produtora de aceleradores de IA, com uma estimativa de 80% a 95% do mercado.

A Nvidia oferece sua própria tecnologia de interconexão proprietária para conectar GPUs num servidor de data center. E opera a partir de uma posição de enorme força e influência.

Assim, os maiores beneficiários do UALink – além da AMD e Intel – parecem ser Microsoft, Meta e Google. Juntas, essas empresas gastaram bilhões de dólares em GPUs da Nvidia para alimentar suas nuvens e treinar seus modelos de IA em constante crescimento.

Em suma, agora essas big techs buscam se libertar de um fornecedor que veem como dominador preocupante no ecossistema de hardware de IA.

O post Big techs criam supergrupo para desafiar Nvidia no mercado de IA apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *