Eu recebo essa mensagem no WhatsApp pelo menos duas vezes por mês.
“Thulio, a gente quer rodar o Claude Code pelo Google Cloud pra ter billing unificado e data residency, mas o setup é um inferno. Já tentaram 3 vezes e desistiram.”
E eu entendo. Porque até pouco tempo atrás, configurar o Claude Code no Vertex AI significava:
- Habilitar a API do Vertex AI no projeto GCP
- Pedir acesso aos modelos Claude no Model Garden (e esperar 24-48h)
- Configurar autenticação via
gcloudou service account - Setar
CLAUDE_CODE_USE_VERTEX=1 - Setar
CLOUD_ML_REGION=global(ou uma região específica) - Setar
ANTHROPIC_VERTEX_PROJECT_ID=seu-projeto - Decidir se precisa de
DISABLE_PROMPT_CACHING=1 - Pinar versões de modelo com
ANTHROPIC_DEFAULT_OPUS_MODEL,ANTHROPIC_DEFAULT_SONNET_MODEL,ANTHROPIC_DEFAULT_HAIKU_MODEL - Configurar
VERTEX_REGION_CLAUDE_*para modelos que não suportam global endpoint - Testar. Falhar. Debugar 403. Tentar de novo.
Dez passos. Seis variáveis de ambiente mínimas. Uma tarde inteira do dev sênior jogada fora.
Na minha experiência com 300+ software houses, o setup é o assassino silencioso da adoção de IA. Não é o preço. Não é a curva de aprendizado. É o dev que tenta configurar na sexta-feira, não consegue, e na segunda já voltou pro método antigo.
A boa notícia: o Claude Code v2.1.98 matou esse problema com um wizard interativo que faz tudo em 2 minutos.
O que é o Interactive Vertex AI Setup Wizard
A partir da versão 2.1.98, lançada em 9 de abril de 2026, o Claude Code ganhou um wizard interativo para setup do Google Vertex AI, acessível direto na tela de login.
A documentação oficial descreve o fluxo em três passos:
- Rode
claude— na tela de login, selecione “3rd-party platform”, depois “Google Vertex AI” - Siga o wizard — ele detecta seu projeto GCP, região, verifica quais modelos Claude seu projeto pode invocar, e permite pinar versões
- Pronto — o wizard salva tudo no arquivo de settings do usuário. Zero variáveis de ambiente manuais.
Acabou. Sem export. Sem .bashrc. Sem “pergunta pro DevOps como faz”.
E se precisar mudar algo depois? /setup-vertex reabre o wizard a qualquer momento para trocar credenciais, projeto, região ou model pins.
Como funcionava antes vs. agora
Antes (setup manual):
# 6+ variáveis de ambiente obrigatórias
export CLAUDE_CODE_USE_VERTEX=1
export CLOUD_ML_REGION=global
export ANTHROPIC_VERTEX_PROJECT_ID=meu-projeto-gcp
export ANTHROPIC_DEFAULT_OPUS_MODEL='claude-opus-4-6'
export ANTHROPIC_DEFAULT_SONNET_MODEL='claude-sonnet-4-6'
export ANTHROPIC_DEFAULT_HAIKU_MODEL='claude-haiku-4-5@20251001'
# Se modelo não suporta global endpoint:
export VERTEX_REGION_CLAUDE_HAIKU_4_5=us-east5
export VERTEX_REGION_CLAUDE_4_6_SONNET=europe-west1
# Autenticação GCP separada
gcloud auth application-default login
gcloud config set project meu-projeto-gcp
Resultado: dev sênior perdendo uma tarde, documentação interna de 3 páginas, e mesmo assim alguém sempre erra.
Agora (wizard v2.1.98):
$ claude
> Selecione: 3rd-party platform → Google Vertex AI
> Autenticação: [Application Default Credentials detectada]
> Projeto: meu-projeto-gcp [detectado automaticamente]
> Região: global
> Modelos disponíveis: Claude Opus 4.6 ✓, Sonnet 4.6 ✓, Haiku 4.5 ✓
> Pinar versões? [S/n]
> ✅ Configuração salva em settings.json
Dois minutos. Qualquer dev. Sem documentação interna.
O que mais o wizard resolve
Startup Model Checks
Um problema clássico de enterprise: a Anthropic lança modelo novo, o Claude Code atualiza o default, mas seu projeto GCP ainda não tem acesso ao modelo novo. Resultado: erro 404 misterioso.
O wizard agora faz verificação automática na inicialização:
- Se você pinou uma versão antiga e a nova está disponível → sugere atualização
- Se o modelo default não está disponível → faz fallback para versão anterior automaticamente
- Se o fallback funciona → mostra aviso, não trava
Isso sozinho já elimina aquele ticket recorrente: “Claude Code parou de funcionar depois do update”.
Model Pinning obrigatório para enterprise
“Pin specific model versions when deploying to multiple users. Without pinning, model aliases such as sonnet and opus resolve to the latest version, which may not yet be enabled in your Vertex AI project when Anthropic releases an update.”
Sem pinning, seus 20 devs podem estar rodando versões diferentes do modelo. O wizard torna o pinning parte natural do fluxo — não é um passo extra que ninguém lembra.
1M Context Window via Vertex
Claude Opus 4.6 e Sonnet 4.6 suportam a janela de contexto de 1 milhão de tokens no Vertex AI. Basta adicionar [1m] ao model ID pinado. O wizard pergunta isso durante o setup.
Para contexto: 1M tokens é o equivalente a ler um codebase inteiro de ~30.000 linhas de código de uma vez. Seu agente AI lê o projeto inteiro antes de sugerir qualquer mudança.
Por que isso importa para sua Software House: multi-cloud
Eu já falei sobre o Bedrock Mantle — como rodar Claude Code na infraestrutura AWS com billing consolidado, IAM e data residency.
Agora com o Vertex AI wizard, a equação muda: sua SH não está mais presa a um provider.
- Hoje seu cliente usa AWS? Bedrock.
- Amanhã migra pra GCP? Vertex AI.
- Quer rodar na API direta da Anthropic? Também funciona.
- Microsoft? Foundry.
Mesmo Claude Code. Mesma experiência. Quatro caminhos.
E os números mostram que isso não é luxo — é sobrevivência:
- 94% dos líderes de TI temem vendor lock-in (Parallels 2026 Survey)
- 89% das empresas já operam multi-cloud, 42% especificamente para prevenir lock-in
- 74% das iniciativas de IA travam por dependências estreitas de um único vendor (Zapier)
- US$315 mil é o custo médio de migração entre clouds por projeto
- 45% dizem que vendor lock-in já impediu adoção de ferramentas melhores
Para software houses, isso é particularmente crítico. Você não atende só a SUA infra — você atende a infra dos seus CLIENTES. Se o cliente X está no GCP e o cliente Y está na AWS, você precisa que sua ferramenta de IA funcione nos dois sem reconfigurar tudo.
O contexto: Google Cloud e Vertex AI em 2026
Não estamos falando de uma plataforma marginal:
- Vertex AI cresceu 20x no último ano (Google Cloud)
- Google Cloud detém 11% do market share global de IaaS, com crescimento de 36% YoY
- Claude Opus 4.6 e Sonnet 4.6 estão GA no Vertex AI — modelos top de IA coding disponíveis na infra Google
- Brasil representa 6.1% da base global de clientes Google Cloud
- Mercado cloud brasileiro: US$24 bilhões (2025) → US$78 bilhões (2032), crescimento de 18.3% ao ano (Fortune Business Insights)
E o Claude Code? 54% de market share em ferramentas de AI coding (vs 21% OpenAI), com 46% de aprovação como “most loved” em pesquisa com 15 mil desenvolvedores (Pragmatic Engineer, fev/2026).
A ferramenta mais usada de AI coding, rodando no cloud provider que mais cresce, com setup de 2 minutos. Essa combinação não existia há 3 meses.
Na prática: como configurar em 5 passos
Se sua SH usa Google Cloud e quer rodar Claude Code via Vertex AI, aqui vai o passo a passo atualizado:
1. Pré-requisitos (uma vez por projeto GCP)
# Habilitar Vertex AI API
gcloud config set project SEU-PROJETO
gcloud services enable aiplatform.googleapis.com
2. Habilitar modelos Claude no Model Garden
Acesse o Vertex AI Model Garden, busque “Claude”, e solicite acesso. Pode levar 24-48h.
3. IAM
Seu usuário precisa da role roles/aiplatform.user (ou aiplatform.endpoints.predict em role customizada).
4. Rodar o wizard
claude
# Selecione: 3rd-party platform → Google Vertex AI
# Siga os prompts
5. Verificar
claude --version # Precisa ser v2.1.98+
# O wizard já configurou tudo — só usar
Para reconfigurar: /setup-vertex dentro do Claude Code.
Dica enterprise: use managed settings para distribuir a config via MDM para todo o time de uma vez.
O que eu penso
Eu acompanho o Claude Code desde que era uma CLI experimental que pouca gente levava a sério. Hoje é a ferramenta de AI coding mais usada do mercado, e a cada versão ela fica mais enterprise-ready.
Mas “enterprise-ready” não é só sobre segurança e compliance. É sobre fricção zero no onboarding. De nada adianta ter a melhor ferramenta do mundo se o dev novo precisa de uma tarde pra configurar.
O wizard do Vertex AI é mais um passo nessa direção. Junto com o Bedrock Mantle, o OTEL para observabilidade, o sandbox com PID namespace, e o /team-onboarding, o Claude Code está montando um stack enterprise que nenhum concorrente tem.
Multi-cloud não é tendência — é requisito. E agora, com um wizard de 2 minutos, não existe mais desculpa pra não ter Claude Code rodando na infra certa.
Se você quer implementar esse nível de IA na sua software house, com governança de verdade e setup que qualquer dev faz sozinho, me procura. Na minha experiência, a diferença entre SHs que escalam IA e as que ficam testando eternamente é exatamente isso: remover fricção.
Sou Thulio, mentoro 300+ SHs desde 2016.




