Sinop, 08/07/2025 14:53

  • Home
  • Tecnologia
  • Meta começa a testar primeiro chip interno de treinamento de IA

Meta começa a testar primeiro chip interno de treinamento de IA

Proprietária do Facebook, a Meta está testando seu primeiro chip interno para treinamento de sistemas de inteligência artificial, um marco importante à medida que busca reduzir a dependência de fornecedores externos como a Nvidia, disseram duas fontes à Reuters.

A maior empresa de mídia social do mundo iniciou uma pequena implantação do chip e planeja aumentar a produção para uso em larga escala se o teste for bem-sucedido, disseram as fontes.

O esforço para desenvolver chips internamente faz parte de um plano de longo prazo da Meta para reduzir seus enormes custos de infraestrutura, à medida que a empresa faz apostas altas em ferramentas de IA.

A Meta, que também é dona do Instagram e do WhatsApp, prevê despesas totais de US$ 114 bilhões (cerca de R$ 665 bilhões) a US$ 119 bilhões (cerca de R$ 695 bilhões) em 2025, incluindo até US$ 65 bilhões (cerca de R$ 380 bilhões) em despesas de capital, impulsionadas principalmente por gastos em infraestrutura de IA.

Uma das fontes disse que o novo chip de treinamento da Meta é um acelerador dedicado, o que significa que ele foi projetado para lidar apenas com tarefas específicas de IA. Isso pode torná-lo mais eficiente em termos de energia do que as unidades de processamento gráfico integradas (GPUs), geralmente usadas para cargas de trabalho de IA.

A Meta está trabalhando com o fabricante de chips TSMC, sediado em Taiwan, para produzir o chip, disse essa fonte.

A implantação do teste começou depois que a Meta concluiu seu primeiro “tape-out” do chip — um marcador significativo de sucesso no trabalho de desenvolvimento de silício, que envolve o envio de um projeto inicial por uma fábrica de chips, disse a outra fonte.

Um tape-out típico custa dezenas de milhões de dólares e leva de três a seis meses para ser concluído, sem garantia de que o teste será bem-sucedido. Uma falha exigiria que a Meta diagnosticasse o problema e repetisse a etapa de tape-out.

A Meta e a TSMC não quiseram comentar.

O chip é o mais recente da série Meta Training and Inference Accelerator (MTIA) da empresa. O programa teve um começo instável e em um momento descartou um chip numa fase similar de desenvolvimento.

No ano passado, no entanto, a Meta começou a usar um chip MTIA para realizar inferência – o processo envolvido na execução de um sistema de IA enquanto os usuários interagem com ele – nos sistemas de recomendação que determinam qual conteúdo aparece nos feeds de notícias do Facebook e do Instagram.

Executivos da Meta disseram que querem começar a usar seus próprios chips até 2026 para treinamento, ou seja, para o processo intensivo de computação de alimentar o sistema de IA com grandes quantidades de dados para “ensiná-lo” a executar suas funções.

Assim como o chip de inferência, o objetivo do chip de treinamento é começar com sistemas de recomendação e depois passar para produtos de IA generativa, como o chatbot Meta AI, disseram os executivos.

“Estamos trabalhando em como faríamos o treinamento para sistemas de recomendação e, eventualmente, como pensaríamos sobre treinamento e inferência para IA generativa”, disse na semana passada o diretor de produtos da Meta, Chris Cox, na conferência de tecnologia, mídia e telecomunicações do Morgan Stanley.

Cox descreveu os esforços de desenvolvimento do chip da Meta como “uma espécie de situação de andar, engatinhar e correr” até agora, mas disse que os executivos consideraram o chip de inferência de primeira geração para recomendações um “grande sucesso”.

Anteriormente, a Meta desistiu de um chip de inferência personalizado interno após ele fracassar em uma implantação de teste em pequena escala, semelhante à que está fazendo agora para o chip de treinamento.

A empresa de mídia social continua sendo uma das maiores clientes da Nvidia desde então, acumulando um arsenal de GPUs para treinar seus modelos, incluindo recomendações e sistemas de anúncios e sua série de modelos Llama. As unidades também realizam inferência para mais de 3 bilhões de pessoas que usam seus aplicativos todos os dias.

O valor dessas GPUs foi questionado neste ano, à medida que pesquisadores de IA expressam cada vez mais dúvidas sobre quanto progresso pode ser feito ao se continuar a “ampliar” grandes modelos de linguagem adicionando cada vez mais dados e poder de computação.

Essas dúvidas foram reforçadas com o lançamento, no final de janeiro, de novos modelos de baixo custo da startup chinesa DeepSeek, que otimizam a eficiência computacional ao depender mais da inferência do que a maioria dos modelos tradicionais.

Veja também: Inteligência artificial pode gerar “aniquilação global”, dizem especialistas

Brasil está entre os países que mais usam inteligência artificial

Clique aqui para acessar a Fonte da Notícia

VEJA MAIS

PetCerto compara preços e reúne milhares de produtos | Dino

Com mais de 15 anos de experiência no segmento de comparação de preços, os especialistas…

Lei exige pontos de apoio para motoboys em Cuiabá, mas empresas resistem

Basta olhar pelas ruas de Cuiabá para ver os motoboys com mochilas nas costas, seguindo…

Jovem é preso com 54 porções de maconha durante ação da Força Tática em Peixoto de Azevedo

Um jovem de 20 anos foi preso na noite de segunda-feira (7) por tráfico de…