Home / Claude Code / Cada Edit do Claude Code Custava 5x Mais Que o Necessário? Uma Atualização Silenciosa Muda Isso

Cada Edit do Claude Code Custava 5x Mais Que o Necessário? Uma Atualização Silenciosa Muda Isso

Cada Edit do Claude Code Custava 5x Mais Que o Necessário? Uma Atualização Silenciosa Muda Isso

Vou te fazer uma pergunta simples: você sabe quanto custa cada vez que o Claude Code edita uma linha de código no seu projeto?

Não estou falando do preço da assinatura. Estou falando do custo por operação. Cada vez que o Claude Code modifica um arquivo, ele precisa gerar tokens de saída — e tokens de saída custam de 3 a 5 vezes mais que tokens de entrada. No Claude Sonnet 4.6, a conta é brutal: $3 por milhão de tokens de entrada contra $15 por milhão de tokens de saída. Cinco vezes mais caro.

Na minha experiência com 300+ software houses, quase nenhuma sabe disso. Pagam a assinatura, usam a ferramenta, e nunca olham pra onde o dinheiro realmente vai. A versão 2.1.91 do Claude Code trouxe uma mudança que parece pequena no changelog — “Edit tool now uses shorter old_string anchors, reducing output tokens” — mas que ataca exatamente esse ponto cego. E eu vou te explicar por que isso importa mais do que qualquer feature nova com nome bonito.

O que é o Edit tool e como ele funciona

O Edit tool é, de longe, a ferramenta mais usada do Claude Code. Toda vez que o modelo precisa modificar código — corrigir um bug, refatorar uma função, adicionar uma feature — ele usa o Edit tool. Não o Write (que reescreve o arquivo inteiro), mas o Edit, que faz cirurgia precisa: localiza um trecho específico e substitui.

Para funcionar, o Edit tool precisa de dois parâmetros:

  1. old_string — o trecho exato que existe no arquivo (o “anchor”)
  2. new_string — o que vai substituir

O problema está no old_string. Para garantir que o trecho seja único no arquivo (e não editar o lugar errado), o Claude Code historicamente gerava anchors longos. Às vezes, copiava 5, 10, 15 linhas de código inteiras só para ter certeza de que o match seria único.

E aqui está o detalhe que ninguém percebe: o old_string é um token de saída. O modelo precisa *gerar* esse texto, caractere por caractere. E cada caractere gerado custa 5x mais que um caractere lido.

A assimetria que sua software house ignora

Existe uma assimetria brutal no pricing de LLMs que a maioria dos times de tecnologia simplesmente desconhece.

Segundo uma análise de mais de 60 modelos LLM em 2026, output tokens custam entre 2x e 6x mais que input tokens em todos os providers — OpenAI, Anthropic, Google, todos seguem o mesmo padrão. No caso do Claude:

Modelo Input (por MTok) Output (por MTok) Multiplicador
Claude Opus 4.6 $5.00 $25.00 5x
Claude Sonnet 4.6 $3.00 $15.00 5x
Claude Haiku 4.5 $1.00 $5.00 5x

Por que output é mais caro? Porque gerar texto é computacionalmente mais pesado. Input tokens são processados em paralelo numa única passagem. Output tokens exigem processamento sequencial — cada token depende de todos os anteriores, com uma passagem completa do modelo para cada um.

Um estudo da CodeAnt ilustra a assimetria na prática: um prompt com 1.000 tokens de input e 100 de output pode custar *menos* que um prompt com 100 de input e 1.000 de output, mesmo tendo a mesma quantidade total de tokens.

Agora pensa no Edit tool. Cada chamada gera, no mínimo, dezenas de tokens de output só no old_string — antes mesmo de gerar o código novo. Em uma sessão típica de desenvolvimento, o Claude Code faz dezenas de edits. Num time de 20 devs, são centenas de edits por dia. Cada anchor desnecessariamente longo é dinheiro queimado no token mais caro.

O que mudou na v2.1.91

A atualização é cirúrgica: o Edit tool agora usa anchors mais curtos no old_string. Em vez de copiar 10 linhas para garantir unicidade, o algoritmo encontra o menor trecho que ainda é único no arquivo.

Parece simples. E é. Mas o impacto compõe.

Digamos que, em média, cada anchor ficou 40% mais curto (estimativa conservadora para arquivos médios). Numa sessão com 50 edits, cada um economizando 30-50 tokens de output:

  • Por sessão: 1.500-2.500 tokens de output economizados
  • A $15/MTok (Sonnet): ~$0.02-0.04 por sessão
  • Por dev/dia (2-3 sessões): ~$0.06-0.12
  • 20 devs × 22 dias úteis/mês: ~$26-53/mês

Parece pouco? Agora soma com todas as outras otimizações que a Anthropic vem fazendo silenciosamente. Na mesma janela de tempo, a v2.1.92 trouxe o Write tool com diff computation 60% mais rápido para arquivos grandes. A v2.1.86 reduziu overhead de tokens no Read tool com formato compacto de números de linha e deduplicação de re-reads. A v2.1.89 limitou output de hooks em 10K caracteres para não poluir contexto.

Cada uma dessas mudanças sozinha parece insignificante. Juntas, formam um padrão: a Anthropic está sistematicamente atacando o “last mile” do custo de tokens. E quem não percebe esse padrão está pagando um imposto invisível.

Por que isso importa para sua software house

Segundo dados do Index.dev, 92,6% dos desenvolvedores já usam um assistente de IA pelo menos uma vez por mês. 51% usam diariamente. Sua software house provavelmente está nesse grupo.

E o custo real é maior do que parece. Uma análise do Morph LLM acompanhando 42 sessões de agentes de código descobriu que 70% dos tokens consumidos são desperdício — leitura de arquivos, busca de código, re-envio de contexto. Apenas 5-15% dos tokens vão para geração de código efetiva.

Veja a distribuição típica de onde os tokens vão numa sessão de Claude Code:

Atividade % dos Tokens
Leitura e busca de código 35-45%
Output de ferramentas/comandos 15-25%
Re-envio de contexto 15-20%
Raciocínio e planejamento 10-15%
Geração de código (valor real) 5-15%

Agora adiciona a assimetria de pricing. Se 70% dos tokens são desperdício e os tokens de output (que incluem anchors de Edit, reasoning, e geração) custam 5x mais, o custo real do desperdício é exponencialmente maior do que o volume sugere.

Uma software house com 20 devs usando Claude Code no dia a dia pode facilmente gastar R$15.000-30.000/mês em IA. A pergunta não é se você pode pagar. É se você sabe pra onde esse dinheiro vai.

O stack de otimização que a Anthropic construiu

O que me impressiona não é uma feature isolada. É o stack completo que a Anthropic montou para atacar custos de diferentes ângulos:

  1. Edit tool shorter anchors (v2.1.91) — menos output tokens por edit
  2. Write tool diff 60% faster (v2.1.92) — menos latência em arquivos grandes
  3. Read tool compact format (v2.1.86) — menos tokens em leitura
  4. Hook output cap 10K chars (v2.1.89) — contexto protegido
  5. Auto-compaction — sumariza histórico quando se aproxima do limite
  6. Prompt caching — cache reads custam 10% do input price (90% economia)
  7. /cost per-model breakdown (v2.1.92) — visibilidade por modelo e cache hits

Cada camada ataca um vetor diferente de desperdício. Mas você só se beneficia se souber que elas existem.

Dados que deveriam te preocupar

Segundo o Exceeds AI, 20-30% do OpEx de engenharia está projetado para fluir para IA em 2026. Isso não é assinatura de Spotify. É a segunda ou terceira maior linha de custo do seu time de desenvolvimento.

E a pesquisa é consistente:

  • Devs experientes gastam $150-400/mês em ferramentas de IA durante desenvolvimento ativo (Morph LLM)
  • Claude Code heavy users: $20-40/dia, ou $600-1.200/mês
  • Um caso documentado: uma correção de $0.50 virou $30 depois de 47 iterações do agente
  • 87% dos tokens de uma sessão analisada foram gastos *buscando* código, não escrevendo

A Redis documentou que estratégias combinadas de otimização de tokens entregam 40-70% de redução de custo. Num time de 20 devs gastando R$25K/mês, isso é R$10K-17.5K de economia mensal. R$120K-210K por ano.

O que eu penso

Olha, eu mentoro mais de 300 software houses. E o padrão que eu vejo é sempre o mesmo: o dono compra a ferramenta, distribui pro time, e nunca mais olha pra conta. Aí três meses depois descobre que tá gastando o equivalente a um dev junior só em tokens.

O Edit tool com anchors mais curtos não vai mudar sua vida sozinho. Mas ele é sintoma de algo maior: a Anthropic está tratando eficiência de tokens como feature de produto, não como detalhe técnico. E a software house que entende token economics antes dos concorrentes tem uma vantagem competitiva real.

A assimetria input/output não é bug — é a física dos LLMs. Mas você pode decidir se vai pagar 5x mais por texto que ninguém lê (anchors redundantes, contexto poluído, re-reads desnecessários) ou se vai usar as ferramentas que a própria Anthropic construiu para cortar o desperdício.

Minha recomendação: começa por /cost no Claude Code. Vê o breakdown por modelo. Olha os cache hits. Depois configura o managed-settings.d pra padronizar modelos no time. E usa o X-Claude-Code-Session-Id num proxy pra ver quem gasta o quê.

Token economics não é assunto de infraestrutura. É assunto de P&L.

Conclusão

O changelog diz “Edit tool now uses shorter old_string anchors, reducing output tokens.” Uma linha. Sem fanfarra.

Mas por trás dessa linha tem uma verdade que a maioria das software houses ignora: cada token de output que a ferramenta gera custa 5x mais que cada token que ela lê. E o Edit tool — que roda em TODA edição de código — estava gerando anchors mais longos que o necessário em cada chamada.

Agora não gera mais. E isso, multiplicado por 20 devs, 250 edits por dia, 22 dias por mês, não é “detalhe técnico.” É dinheiro.

Se você quer implementar esse nível de controle de custos na sua software house e parar de pagar imposto invisível em IA, essa é a hora de olhar pra token economics com a mesma seriedade que olha pra faturamento.

Sou Thulio, mentoro 300+ SHs desde 2016.

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *