O Google quer enfraquecer a vantagem da Nvidia no mercado de inteligência artificial (IA). E aposta no software para isso. Segundo a Reuters, a empresa trabalha numa iniciativa para tornar seus próprios chips mais compatíveis com o PyTorch, o programa mais usado por desenvolvedores de IA mundo afora.
A estratégia ataca o coração do domínio da Nvidia. Não se trata apenas de fabricar chips potentes, mas de quebrar uma dependência criada ao longo de anos entre hardware e software. Para isso, o Google conta com a ajuda da Meta (principal apoiadora do PyTorch, diga-se). É uma tentativa explícita de redução de custos feita por quem quer sair da órbita da Nvidia.
Por que o software virou o maior trunfo da Nvidia na corrida da IA
A reportagem da Reuters deixa claro que a força da Nvidia vai além das GPUs. O diferencial real está no CUDA, conjunto de ferramentas de software que virou o padrão de fato para treinar e rodar modelos de IA. É essa camada invisível que conecta o chip ao trabalho diário dos desenvolvedores.
Na prática, quem cria modelos de IA raramente programa direto para o chip. O trabalho acontece dentro de frameworks como o PyTorch, espécie de “ambiente pronto” que automatiza tarefas complexas. Ao longo dos anos, engenheiros da Nvidia otimizaram esse ecossistema para que o PyTorch funcionasse de forma mais rápida e eficiente em suas GPUs.
Esse casamento entre PyTorch e CUDA criou uma vantagem cumulativa difícil de replicar. Quanto mais empresas usam, mais ferramentas surgem. E quanto mais ferramentas existem, mais caro fica mudar. O resultado é um efeito de aprisionamento tecnológico: sair da Nvidia exige tempo, dinheiro e equipes especializadas.
Para concorrentes como o Google, isso virou um gargalo estrutural. Mesmo com chips competitivos, como as TPUs, a barreira do software faz com que muitos clientes desistam antes mesmo de testar alternativas. O problema não é desempenho bruto, mas sim compatibilidade com o que o mercado já usa.
Como Google e Meta tentam quebrar dependência da Nvidia com o projeto TorchTPU
É nesse ponto que entra o projeto TorchTPU. De acordo com a Reuters, a iniciativa busca tornar os chips do Google totalmente compatíveis com o PyTorch, eliminando a necessidade de reescrever código ou adaptar toda a infraestrutura existente. A ideia é simples: se o software roda, o chip passa a ser uma opção real.

Hoje, as TPUs são otimizadas principalmente para o Jax, framework interno do Google. Isso funciona bem dentro da empresa, mas cria fricção para clientes externos, que já estruturaram tudo em PyTorch. O TorchTPU tenta fechar essa lacuna, reduzindo o trabalho extra exigido de quem quer migrar.
Diferentemente de tentativas anteriores, o Google agora trata o projeto como prioridade estratégica. A empresa avalia até abrir partes do software, segundo fontes ouvidas pela agência de notícias, para acelerar a adoção e atrair desenvolvedores acostumados ao ecossistema da Nvidia.
Leia mais:
- O ChatGPT agora tem uma loja de aplicativos – e isso pode mudar tudo
- 10 extensões do Chrome para usar no ChatGPT e Gemini
- 8 geradores de prompt para ChatGPT, Gemini e demais IAs
A parceria com a Meta é central nesse plano. Como criadora e principal mantenedora do PyTorch, a empresa tem interesse direto em tornar o framework mais flexível. A Meta busca reduzir custos de inferência, diversificar sua infraestrutura de IA e ganhar poder de negociação frente à Nvidia.
O movimento acontece num contexto mais amplo. O Google vem ampliando a venda de TPUs para clientes externos, inclusive instalando os chips diretamente em data centers fora da sua nuvem. Se o TorchTPU funcionar como prometido, a dependência da Nvidia pode diminuir. Não por falta de chip, mas porque o software finalmente deixou de ser um obstáculo.
O post Como Google e Meta planejam enfraquecer a Nvidia na corrida da IA apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/12/18/pro/como-google-e-meta-planejam-enfraquecer-a-nvidia-na-corrida-da-ia/
