Home / Engenharia de Software / QMD: O CEO do Shopify Largou o Trono e Foi Programar uma Ferramenta de IA

QMD: O CEO do Shopify Largou o Trono e Foi Programar uma Ferramenta de IA

Eu acompanho centenas de CEOs de software houses. E posso dizer com segurança: a maioria parou de programar faz tempo. Alguns até se orgulham disso — “agora eu sou estratégico”. Pois bem, o cara que comanda uma empresa de $236 bilhões acabou de fazer 973 contribuições no GitHub em um mês e meio. E não foi commit de README.

Tobias Lütke — o Tobi — é CEO e co-fundador do Shopify. 11.600 funcionários. Plataforma que processa bilhões em vendas. E no tempo livre dele (spoiler: ele não tem tempo livre), ele criou o QMD — um motor de busca local com IA que já tem 18.000 stars no GitHub e que o próprio Shopify integrou no monorepo de código da empresa.

Se você é dono de software house e parou de codar, esse artigo é pra você.

O que é o QMD

QMD (Query Markup Documents) é um motor de busca CLI que roda 100% na sua máquina. Sem cloud. Sem API key. Sem mandar seus dados pra lugar nenhum.

Você instala com um comando:

npm install -g @tobilu/qmd

Aponta pros seus docs, meeting notes, specs, README, qualquer coisa em markdown. E depois busca com linguagem natural:

qmd query "como funciona o sistema de pagamentos"

O resultado? Não é uma lista de arquivos como o grep. É busca semântica — o QMD entende o que você quis dizer, mesmo que as palavras sejam diferentes. E faz isso combinando três engines num pipeline que, honestamente, é engenharia de primeiro nível.

O pipeline de 3 camadas que faz a mágica

Aqui é onde fica interessante pra quem é técnico.

O QMD não usa uma técnica só. Ele combina três abordagens de busca num pipeline híbrido:

Camada 1: BM25 Full-Text

Busca clássica por keywords. Rápida, confiável, funciona pra termos exatos. É o que o Elasticsearch faz por baixo dos panos.

Camada 2: Vector Semantic Search

Gera embeddings dos seus docs usando EmbeddingGemma (modelo GGUF rodando local). Busca por significado, não por palavras. “Deploy no Kubernetes” encontra “subir containers no cluster” mesmo sem match de keywords.

Camada 3: LLM Re-Ranking

Qwen3-Reranker recebe os top resultados e reordena com inteligência de linguagem. O LLM lê cada trecho e decide: “esse aqui realmente responde a pergunta?”.

As três camadas são combinadas via Reciprocal Rank Fusion (RRF) — um algoritmo que pega o ranking de cada engine e produz um score unificado de 0 a 1. O resultado é absurdamente preciso.

E o melhor: tudo roda local via node-llama-cpp com modelos GGUF. Nada sai da sua máquina.

90% menos tokens para seus AI agents

Aqui está o dado que deveria fazer qualquer CTO de software house prestar atenção.

Hoje, quando você usa Claude Code ou Codex, o agent carrega toneladas de contexto para o modelo processar. Cada token custa dinheiro. Cada token desnecessário é desperdício.

O QMD funciona como memória cirúrgica para AI agents. Em vez de mandar todo o contexto, o agent pergunta ao QMD: “o que é relevante para essa tarefa?”. E recebe só os trechos que importam.

Resultado documentado: 90% de redução no uso de tokens. Pra uma software house que gasta R$5.000-10.000/mês em APIs de IA, isso é R$4.500-9.000 de economia. Por mês.

MCP Server: plug-and-play com Claude Code

O QMD já vem com MCP Server nativo — o protocolo que conecta AI agents a ferramentas externas. Configurar é adicionar 4 linhas no seu claude_desktop_config.json:

{
  "mcpServers": {
    "qmd": {
      "command": "qmd",
      "args": ["mcp"]
    }
  }
}

Feito. Seu Claude Code agora tem acesso a busca semântica nos seus docs. Codex, Gemini CLI, qualquer tool com MCP — mesma coisa.

Os tools expostos são simples e poderosos:

  • query — busca híbrida com re-ranking
  • get — recupera documento específico
  • multi_get — batch retrieve via glob patterns
  • status — health check

SDK first: biblioteca, não só CLI

Na versão 2.0 (lançada 10 de março), o Tobi declarou o SDK como interface principal. Isso significa que você pode integrar o QMD direto no seu código:

import { createStore } from '@tobilu/qmd'

const store = await createStore({
  dbPath: './index.sqlite',
  config: {
    collections: {
      docs: { path: '/path/to/docs', pattern: '**/*.md' },
    },
  },
})

const results = await store.search("sistema de autenticação")

Pra software houses que estão construindo produtos com IA, isso é ouro. Busca semântica local, pronta pra integrar, sem dependência de API externa.

O contexto: o CEO que programa mais que seus devs

Vamos falar do elefante na sala.

Tobias Lütke fez 973 contribuições no GitHub em 1 mês e meio. Enquanto gerenciava uma empresa de $236 bilhões. Enquanto decidia a estratégia de uma plataforma que atende milhões de lojistas.

E não foi só o QMD. Ele pegou o autoresearch do Andrej Karpathy (aquele paper de 630 linhas que roda experimentos ML autônomos) e adaptou para otimizar o Liquid — o template engine open-source do Shopify. Resultado: 53% mais rápido no parse+render e 61% menos alocações de memória. Isso num projeto que existe desde 2006.

Ele confirmou no X: “QMD is a game changer for me locally. So many people at Shopify use it that we integrated version for doc search into our code monorepo.”

Traduzindo: o CEO criou a ferramenta, usou no dia a dia, o time inteiro adotou, e agora é infra interna do Shopify.

O memo que mudou a conversa

Se você acompanha o mercado de tech, provavelmente viu o memo que o Tobi mandou em abril de 2025:

“Reflexive AI usage is now a baseline expectation at Shopify.”

Na prática, isso significou: antes de pedir para contratar alguém, prove que a IA não pode fazer o trabalho. Designers fazem protótipos com IA. Devs usam GitHub Copilot, Cursor e Claude Code como padrão.

Esse memo virou benchmark da indústria. CEOs da Box, Fiverr, até o primeiro-ministro do Canadá publicaram versões inspiradas.

Mas o Tobi não parou no memo. Ele foi e construiu a ferramenta. Essa é a diferença entre falar sobre IA e usar IA.

Como usar o QMD na sua software house

Na minha experiência mentorando 300+ software houses, vejo 5 cenários onde o QMD é game-changer:

1. Memória para AI coding agents
Integre o QMD como MCP server no Claude Code ou Codex. Seus agents encontram documentação relevante automaticamente, sem desperdiçar tokens.

2. Knowledge base pesquisável
Indexe specs, docs técnicos, meeting notes, runbooks. Qualquer pessoa do time encontra qualquer informação em segundos com linguagem natural.

3. Onboarding acelerado
Novo dev entra e busca: “como funciona o módulo de pagamentos?”. Em 5 segundos tem os trechos relevantes de 200 arquivos de documentação.

4. RAG local para dados sensíveis
Se sua SH trabalha com saúde, jurídico ou financeiro — dados que não podem sair da máquina — o QMD é a camada de retrieval perfeita. Zero cloud, 100% privado.

5. Economia real em tokens
90% menos tokens significa milhares de reais economizados por mês. Num cenário de margens apertadas, isso é diferença no EBITDA.

O que eu penso

Eu já vi muita ferramenta de busca aparecer e sumir. O que me convence no QMD não é a tecnologia — que é boa, mas existem alternativas. O que me convence é o contexto.

O CEO de uma empresa de $236 bilhões decidiu que seu tempo era melhor gasto escrevendo código do que em reunião de board. Ele construiu uma ferramenta que usa pessoalmente, que o Shopify adotou internamente, e que abriu como open source pro mundo.

Isso diz mais sobre o futuro do que qualquer relatório de mercado.

Se o Tobi está investindo tempo pessoal em ferramentas de IA local para coding agents, é porque ele enxerga algo que a maioria dos CEOs ainda não viu: o futuro do desenvolvimento é human + AI agents + memória local. E quem não tiver a camada de memória, vai gastar mais, produzir menos, e ficar pra trás.

18.000 stars no GitHub não mentem. O Shopify inteiro usando não mente. E 973 commits de um CEO bilionário definitivamente não mentem.

Instale o QMD. Configure no seu Claude Code. E pare de mandar seus dados pro cloud quando não precisa.

Sou Thulio, mentoro 300+ SHs desde 2016.

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *