A OpenAI já garantiu US$ 10 bilhões em acordos de chips e nuvem. Nenhum deles coloca Intel, Google ou Amazon no comando. Isso não aconteceu por acaso. Aconteceu porque a OpenAI não quer depender de nenhum deles. Ela quer o poder distribuído. Quer escalar rapidamente. Quer controle.
Em novembro passado, após a Nvidia divulgar resultados impressionantes, Jensen Huang disse aos investidores: “Tudo o que a OpenAI faz roda na Nvidia hoje.” Isso é verdade por enquanto. Mas não vai continuar assim por muito tempo.
Na mesma semana, a OpenAI assinou um acordo de US$ 10 bilhões com a Cerebras, uma fabricante de chips bem menor que está tentando abrir capital. Este não foi apenas mais um acordo. Foi parte de uma estratégia maior: usar novos players, conseguir mais chips, construir mais rápido e não depender de ninguém.
OpenAI aposta em Cerebras, Broadcom e AMD para diversificar fornecimento de chips
O acordo com a Cerebras é apenas uma parte. A OpenAI afirmou que usará 750 megawatts de chips da Cerebras em diferentes fases até 2028. Esses chips ajudarão a executar seus grandes modelos e cargas de trabalho mais pesadas.
Isso se soma à maratona de infraestrutura de US$ 1,4 trilhão do ano passado, quando se associou à Nvidia, AMD e Broadcom. Foi isso que levou a avaliação da OpenAI a US$ 500 bilhões nos mercados privados.
Em setembro, Jensen comprometeu US$ 100 bilhões da Nvidia para ajudar a construir 10 gigawatts de sistemas para a OpenAI. Isso equivale à energia usada por 8 milhões de casas em um ano. Jensen disse que seriam necessárias de 4 a 5 milhões de GPUs. Mas a OpenAI não está apostando tudo nele. Poucas horas após o anúncio, revelou mais 10 gigawatts em chips vindos da Broadcom. Não são chips padrão. São aceleradores de IA personalizados, chamados XPUs. A Broadcom vem desenvolvendo eles com a OpenAI há mais de um ano.
O acordo com a Broadcom teve grande repercussão em Wall Street. As ações dispararam. A Broadcom agora vale mais de US$ 1,6 trilhão. É isso que acontece quando a OpenAI te convida para a mesa.
Google, Amazon e Intel ficam de fora enquanto OpenAI constrói sua própria pilha de chips
Enquanto isso, Amazon, Google e Intel mal aparecem no cenário. A OpenAI até assinou um acordo de nuvem de US$ 38 bilhões com a Amazon Web Services em novembro. Ela rodará cargas de trabalho nos data centers da AWS. A Amazon também prometeu construir novos centros para a OpenAI.
E sim, a Amazon pode investir mais de US$ 10 bilhões na empresa, mas ainda não há compromisso de usar Inferentia ou Trainium, os chips próprios da Amazon. As negociações continuam, mas nada está garantido.
O Google Cloud também está fornecendo capacidade sob um acordo assinado no ano passado. Mas quando questionada sobre o uso das unidades de processamento tensorial do Google, a OpenAI disse que não. Não tem interesse. Nem mesmo com a Broadcom ajudando a fabricar esses chips.
Depois, há a Intel. A Reuters informou que a empresa teve a chance, anos atrás, de investir na OpenAI e fornecer chips. Recusou. Agora está atrás de todos.
Em outubro, a Intel tentou recuperar o tempo perdido. Apresentou um chip chamado Crescent Island. Ele é voltado para inferência de IA e promete maior memória e melhor eficiência energética. Mas as amostras reais só começarão a ser distribuídas no final de 2026.
Para sobreviver em IA, a Intel teve que aceitar dinheiro da Nvidia e do governo dos EUA. O mercado verá na próxima semana se isso fez alguma diferença, quando a Intel divulgar seus resultados de tecnologia.
Se você está lendo isto, já está à frente. Fique assim com a nossa newsletter.
