Cada Edit do Claude Code Custava 5x Mais Que o Necessário? Uma Atualização Silenciosa Muda Isso
Vou te fazer uma pergunta simples: você sabe quanto custa cada vez que o Claude Code edita uma linha de código no seu projeto?
Não estou falando do preço da assinatura. Estou falando do custo por operação. Cada vez que o Claude Code modifica um arquivo, ele precisa gerar tokens de saída — e tokens de saída custam de 3 a 5 vezes mais que tokens de entrada. No Claude Sonnet 4.6, a conta é brutal: $3 por milhão de tokens de entrada contra $15 por milhão de tokens de saída. Cinco vezes mais caro.
Na minha experiência com 300+ software houses, quase nenhuma sabe disso. Pagam a assinatura, usam a ferramenta, e nunca olham pra onde o dinheiro realmente vai. A versão 2.1.91 do Claude Code trouxe uma mudança que parece pequena no changelog — “Edit tool now uses shorter old_string anchors, reducing output tokens” — mas que ataca exatamente esse ponto cego. E eu vou te explicar por que isso importa mais do que qualquer feature nova com nome bonito.
O que é o Edit tool e como ele funciona
O Edit tool é, de longe, a ferramenta mais usada do Claude Code. Toda vez que o modelo precisa modificar código — corrigir um bug, refatorar uma função, adicionar uma feature — ele usa o Edit tool. Não o Write (que reescreve o arquivo inteiro), mas o Edit, que faz cirurgia precisa: localiza um trecho específico e substitui.
Para funcionar, o Edit tool precisa de dois parâmetros:
old_string— o trecho exato que existe no arquivo (o “anchor”)new_string— o que vai substituir
O problema está no old_string. Para garantir que o trecho seja único no arquivo (e não editar o lugar errado), o Claude Code historicamente gerava anchors longos. Às vezes, copiava 5, 10, 15 linhas de código inteiras só para ter certeza de que o match seria único.
E aqui está o detalhe que ninguém percebe: o old_string é um token de saída. O modelo precisa *gerar* esse texto, caractere por caractere. E cada caractere gerado custa 5x mais que um caractere lido.
A assimetria que sua software house ignora
Existe uma assimetria brutal no pricing de LLMs que a maioria dos times de tecnologia simplesmente desconhece.
Segundo uma análise de mais de 60 modelos LLM em 2026, output tokens custam entre 2x e 6x mais que input tokens em todos os providers — OpenAI, Anthropic, Google, todos seguem o mesmo padrão. No caso do Claude:
| Modelo | Input (por MTok) | Output (por MTok) | Multiplicador |
|---|---|---|---|
| Claude Opus 4.6 | $5.00 | $25.00 | 5x |
| Claude Sonnet 4.6 | $3.00 | $15.00 | 5x |
| Claude Haiku 4.5 | $1.00 | $5.00 | 5x |
Por que output é mais caro? Porque gerar texto é computacionalmente mais pesado. Input tokens são processados em paralelo numa única passagem. Output tokens exigem processamento sequencial — cada token depende de todos os anteriores, com uma passagem completa do modelo para cada um.
Um estudo da CodeAnt ilustra a assimetria na prática: um prompt com 1.000 tokens de input e 100 de output pode custar *menos* que um prompt com 100 de input e 1.000 de output, mesmo tendo a mesma quantidade total de tokens.
Agora pensa no Edit tool. Cada chamada gera, no mínimo, dezenas de tokens de output só no old_string — antes mesmo de gerar o código novo. Em uma sessão típica de desenvolvimento, o Claude Code faz dezenas de edits. Num time de 20 devs, são centenas de edits por dia. Cada anchor desnecessariamente longo é dinheiro queimado no token mais caro.
O que mudou na v2.1.91
A atualização é cirúrgica: o Edit tool agora usa anchors mais curtos no old_string. Em vez de copiar 10 linhas para garantir unicidade, o algoritmo encontra o menor trecho que ainda é único no arquivo.
Parece simples. E é. Mas o impacto compõe.
Digamos que, em média, cada anchor ficou 40% mais curto (estimativa conservadora para arquivos médios). Numa sessão com 50 edits, cada um economizando 30-50 tokens de output:
- Por sessão: 1.500-2.500 tokens de output economizados
- A $15/MTok (Sonnet): ~$0.02-0.04 por sessão
- Por dev/dia (2-3 sessões): ~$0.06-0.12
- 20 devs × 22 dias úteis/mês: ~$26-53/mês
Parece pouco? Agora soma com todas as outras otimizações que a Anthropic vem fazendo silenciosamente. Na mesma janela de tempo, a v2.1.92 trouxe o Write tool com diff computation 60% mais rápido para arquivos grandes. A v2.1.86 reduziu overhead de tokens no Read tool com formato compacto de números de linha e deduplicação de re-reads. A v2.1.89 limitou output de hooks em 10K caracteres para não poluir contexto.
Cada uma dessas mudanças sozinha parece insignificante. Juntas, formam um padrão: a Anthropic está sistematicamente atacando o “last mile” do custo de tokens. E quem não percebe esse padrão está pagando um imposto invisível.
Por que isso importa para sua software house
Segundo dados do Index.dev, 92,6% dos desenvolvedores já usam um assistente de IA pelo menos uma vez por mês. 51% usam diariamente. Sua software house provavelmente está nesse grupo.
E o custo real é maior do que parece. Uma análise do Morph LLM acompanhando 42 sessões de agentes de código descobriu que 70% dos tokens consumidos são desperdício — leitura de arquivos, busca de código, re-envio de contexto. Apenas 5-15% dos tokens vão para geração de código efetiva.
Veja a distribuição típica de onde os tokens vão numa sessão de Claude Code:
| Atividade | % dos Tokens |
|---|---|
| Leitura e busca de código | 35-45% |
| Output de ferramentas/comandos | 15-25% |
| Re-envio de contexto | 15-20% |
| Raciocínio e planejamento | 10-15% |
| Geração de código (valor real) | 5-15% |
Agora adiciona a assimetria de pricing. Se 70% dos tokens são desperdício e os tokens de output (que incluem anchors de Edit, reasoning, e geração) custam 5x mais, o custo real do desperdício é exponencialmente maior do que o volume sugere.
Uma software house com 20 devs usando Claude Code no dia a dia pode facilmente gastar R$15.000-30.000/mês em IA. A pergunta não é se você pode pagar. É se você sabe pra onde esse dinheiro vai.
O stack de otimização que a Anthropic construiu
O que me impressiona não é uma feature isolada. É o stack completo que a Anthropic montou para atacar custos de diferentes ângulos:
- Edit tool shorter anchors (v2.1.91) — menos output tokens por edit
- Write tool diff 60% faster (v2.1.92) — menos latência em arquivos grandes
- Read tool compact format (v2.1.86) — menos tokens em leitura
- Hook output cap 10K chars (v2.1.89) — contexto protegido
- Auto-compaction — sumariza histórico quando se aproxima do limite
- Prompt caching — cache reads custam 10% do input price (90% economia)
/costper-model breakdown (v2.1.92) — visibilidade por modelo e cache hits
Cada camada ataca um vetor diferente de desperdício. Mas você só se beneficia se souber que elas existem.
Dados que deveriam te preocupar
Segundo o Exceeds AI, 20-30% do OpEx de engenharia está projetado para fluir para IA em 2026. Isso não é assinatura de Spotify. É a segunda ou terceira maior linha de custo do seu time de desenvolvimento.
E a pesquisa é consistente:
- Devs experientes gastam $150-400/mês em ferramentas de IA durante desenvolvimento ativo (Morph LLM)
- Claude Code heavy users: $20-40/dia, ou $600-1.200/mês
- Um caso documentado: uma correção de $0.50 virou $30 depois de 47 iterações do agente
- 87% dos tokens de uma sessão analisada foram gastos *buscando* código, não escrevendo
A Redis documentou que estratégias combinadas de otimização de tokens entregam 40-70% de redução de custo. Num time de 20 devs gastando R$25K/mês, isso é R$10K-17.5K de economia mensal. R$120K-210K por ano.
O que eu penso
Olha, eu mentoro mais de 300 software houses. E o padrão que eu vejo é sempre o mesmo: o dono compra a ferramenta, distribui pro time, e nunca mais olha pra conta. Aí três meses depois descobre que tá gastando o equivalente a um dev junior só em tokens.
O Edit tool com anchors mais curtos não vai mudar sua vida sozinho. Mas ele é sintoma de algo maior: a Anthropic está tratando eficiência de tokens como feature de produto, não como detalhe técnico. E a software house que entende token economics antes dos concorrentes tem uma vantagem competitiva real.
A assimetria input/output não é bug — é a física dos LLMs. Mas você pode decidir se vai pagar 5x mais por texto que ninguém lê (anchors redundantes, contexto poluído, re-reads desnecessários) ou se vai usar as ferramentas que a própria Anthropic construiu para cortar o desperdício.
Minha recomendação: começa por /cost no Claude Code. Vê o breakdown por modelo. Olha os cache hits. Depois configura o managed-settings.d pra padronizar modelos no time. E usa o X-Claude-Code-Session-Id num proxy pra ver quem gasta o quê.
Token economics não é assunto de infraestrutura. É assunto de P&L.
Conclusão
O changelog diz “Edit tool now uses shorter old_string anchors, reducing output tokens.” Uma linha. Sem fanfarra.
Mas por trás dessa linha tem uma verdade que a maioria das software houses ignora: cada token de output que a ferramenta gera custa 5x mais que cada token que ela lê. E o Edit tool — que roda em TODA edição de código — estava gerando anchors mais longos que o necessário em cada chamada.
Agora não gera mais. E isso, multiplicado por 20 devs, 250 edits por dia, 22 dias por mês, não é “detalhe técnico.” É dinheiro.
Se você quer implementar esse nível de controle de custos na sua software house e parar de pagar imposto invisível em IA, essa é a hora de olhar pra token economics com a mesma seriedade que olha pra faturamento.
Sou Thulio, mentoro 300+ SHs desde 2016.




