Nvidia share caiu bastante, onde estão as oportunidades na nova fase da revolução AI? Este é o nono artigo da série de 100 artigos sobre pesquisa e investimento em IA.


Nos artigos anteriores, analisamos Intel, AMD e ARM. Nos últimos anos, seus preços de ações tiveram aumentos consideráveis — AMD dobrou, Intel triplicou, ARM também atingiu níveis históricos.
Depois de subir, surge uma questão simples:
Ainda vale a pena manter esses que já subiram?
Há oportunidades nos que ainda não subiram?
Para responder a essa questão, não há como escapar de uma palavra-chave — raciocínio.
Nos artigos anteriores, esses aumentos de preço das empresas sempre voltaram a esse conceito.
Então: qual o tamanho do mercado de raciocínio?
Em que estágio estamos atualmente?
Quais empresas se beneficiarão?
Quais já estão precificadas pelo mercado e quais ainda não?
Este é o nono artigo da série de 100 sobre pesquisa e investimento em IA, com cerca de 15 mil palavras, conteúdo rico e de fácil leitura. Recomenda-se guardar o artigo para leitura posterior.
1. Qual o tamanho do mercado
O treinamento de modelos é como “escrever programas”, enquanto o raciocínio é “o processo diário de execução desses programas”.
Após o treinamento do GPT, milhões de pessoas o usam diariamente para fazer perguntas, e cada interação consome poder de raciocínio.
O Claude Code executa uma tarefa, e o agente roda 100 rodadas, cada uma representando um raciocínio.
Diversas pesquisas do setor e mídia apontam na mesma direção: após colocar o modelo em produção, o raciocínio se tornará a maior parte do custo de ciclo de vida, estimado entre 80% a 90%.
Ou seja, na futura conta de poder computacional da era da IA, 8 em cada 10 reais serão gastos com raciocínio.
Porém, nos últimos três anos, o mercado discutiu quase exclusivamente o treinamento, pois ele é considerado mais “sensacional” — quem tem mais H100, mais parâmetros, ou treina o próximo modelo de geração.
O raciocínio era visto como uma tarefa secundária após o treinamento.
Essa percepção está mudando, e essa mudança é a razão fundamental pela qual as empresas de semicondutores foram reprecificadas no último ano.
Então, o raciocínio é um mercado grande, mas qual o seu tamanho exato?
Podemos estimar de cinco formas específicas.
Primeiro, número de usuários.
ChatGPT tem 900 milhões de usuários semanais e 50 milhões de assinantes pagos.
Na China, a comparação é mais direta — o volume diário de tokens utilizados passou de 100 bilhões no início de 2024 para 140 trilhões em 2026, um aumento de 1.400 vezes.
Essa métrica ainda não atingiu saturação.
Segundo, intensidade de uso.
O volume de tokens processados pelo OpenAI era de 6 bilhões por minuto em outubro de 2025, e atingiu 15 bilhões em abril de 2026 — um aumento de 2,5 vezes em seis meses.
A receita de versões empresariais representa mais de 40%, e o uso por clientes corporativos é dezenas de vezes maior que o de consumidores.
Terceiro, comprimento das conversas.
O comprimento do contexto passou de algumas centenas de tokens na fase inicial para 1 milhão de tokens na API DeepSeek V4 Pro / Flash, com saída máxima de 384 mil tokens.
Quanto maior o texto, maior o consumo de memória e poder de processamento por raciocínio.
Quarto, os próprios modelos estão cada vez mais exigentes em termos de poder computacional.
Modelos como OpenAI o1, DeepSeek R1, Claude Thinking — que realizam raciocínio —, antes de responder, “pensam” internamente por milhares ou dezenas de milhares de tokens.
Yong Renxun, fundador da Nvidia, citou o DeepSeek R1 como exemplo, dizendo que modelos de raciocínio podem precisar de muito mais cálculo, até cem vezes mais.
Antes, uma IA respondia direto; agora, ela precisa “pensar” por meia minuto antes de responder.
Esse “pensar” adicional consome mais poder de cálculo.
Quinto, os agentes.
Um agente geralmente precisa chamar o modelo de 10 a 100 vezes por tarefa.
O uso semanal do OpenAI Codex já ultrapassou 4 milhões de usuários (até 22/04/2026) — e isso é apenas um produto de uma empresa.
Um especialista na cadeia de IA estima que o consumo total de poder de cálculo de um agente inteligente pode ser mais de 10 vezes maior que de um grande modelo de linguagem com parâmetros semelhantes.
Multiplicando esses cinco fatores, a demanda total por raciocínio deve expandir em escala de quantidade nos próximos três a cinco anos.
Essa não é uma narrativa exagerada, mas uma avaliação cada vez mais próxima do consenso.
《Nvidia share caiu bastante, onde estão as oportunidades na nova fase da revolução AI?》
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar