Eu passo boa parte do meu tempo convencendo donos de software house que IA não é só ChatGPT.
Mas confesso: até semana passada, quando alguém me perguntava “como coloco IA no meu app mobile?”, a resposta era sempre a mesma. Integre a API da OpenAI. Ou da Anthropic. Ou do Google Cloud. Pague por token. Reze pro rate limit não estourar. E torça pro usuário ter internet estável.
Isso mudou.
O Google acaba de open-sourcear o AI Edge Gallery — um app que roda modelos de IA diretamente no celular do usuário. Sem internet. Sem cloud. Sem API key. Sem custo por request. E com um modelo novo, o Gemma 4, que roda com menos de 1.5GB de RAM e compete com modelos 20 vezes maiores.
18.500 stars no GitHub. #8 na App Store em produtividade. E o mais importante: Apache 2.0 — use, modifique, venda, sem pedir permissão.
Se sua software house desenvolve produtos mobile, preste atenção.
O que é o Google AI Edge Gallery
AI Edge Gallery é a plataforma oficial do Google para rodar LLMs no dispositivo. Disponível para Android 12+ e iOS 17+, o app funciona como uma vitrine de tudo que é possível fazer com IA local:
- AI Chat com Thinking Mode (você vê o modelo raciocinando passo a passo)
- Ask Image para analisar fotos da câmera ou galeria
- Audio Scribe para transcrição e tradução em tempo real
- Agent Skills — e aqui é onde a coisa fica séria
- Prompt Lab para testar prompts com controle de temperatura e top-k
- Mobile Actions para automação offline do device
Tudo roda em modo avião. Zero dados saem do dispositivo.
O projeto é open-source (Kotlin 91%), tem 319 commits, 13 contributors do core team do Google AI Edge, e está na versão 1.0.11 lançada em 2 de abril de 2026.
Por que isso importa: Agent Skills no celular
Você já leu aqui sobre Agent Skills rodando em Claude Code, em Codex, no terminal. Mas no celular? Isso é novo.
O AI Edge Gallery traz Agent Skills on-device — workflows autônomos multi-step que rodam 100% localmente. O modelo usa constrained decoding para gerar outputs estruturados e previsíveis, o que permite tool calling production-grade sem servidor.
Hoje o app demonstra 8 skills interativos:
- query-wikipedia — consulta enciclopédica offline
- interactive-map — navegação em mapas via linguagem natural
- calculate-hash — utilitários de segurança
- text-spinner — manipulação de texto
- mood-tracker — análise emocional
- mnemonic-password — geração de senhas
- qr-code — criação de QR codes
- kitchen-adventure — experiência gamificada com NLP
Simon Willison testou e reportou resposta de 2.4 segundos no skill de mapa interativo. No Qualcomm Dragonwing IQ8, o modelo processa 3.700 tokens/segundo no prefill e 31 tokens/segundo na decodificação.
O Google Developers Blog chamou isso de “one of the first applications to run multi-step, autonomous agentic workflows entirely on-device.”
Pensa no que isso significa: um assistente de voz no app do seu cliente que cria eventos no calendário, navega pra um endereço e consulta informações — sem mandar um único byte pra internet.
Gemma 4: o modelo que muda a equação
O timing do AI Edge Gallery não é coincidência. Ele surfou o lançamento do Gemma 4, a nova família de modelos abertos do Google:
| Modelo | Params | Contexto | Destaque |
|---|---|---|---|
| E2B | 2.3B efetivos | 128K | <1.5GB RAM, roda em qualquer celular moderno |
| E4B | 4.5B efetivos | 128K | Melhor qualidade, ainda cabe no mobile |
| 26B MoE | 3.8B ativos de 26B | 256K | #6 Arena AI, supera modelos 20x maiores |
| 31B Dense | 31B | 256K | #3 Arena AI, 89.2% AIME 2026 |
Os números são absurdos. O Gemma 4 31B Dense ficou em terceiro lugar no Arena AI Leaderboard — competindo com modelos que custam fortunas pra rodar na nuvem. E a versão E2B, que roda no celular com 1.5GB de RAM, suporta 128K tokens de contexto e 140+ idiomas incluindo português.
A família Gemma já acumulou 400 milhões de downloads e 100 mil variantes criadas pela comunidade no HuggingFace. Apache 2.0 — sem restrições comerciais.
Logan Kilpatrick, head de developer relations do Google, celebrou: “Lots of people want Gemma 4! Google AI Edge is #8 on the iOS App Store for productivity apps.”
O elefante na sala: custo de API
Na minha experiência com 300+ software houses, o custo de API de IA é o terceiro maior gargalo depois de contratação e retenção de clientes.
Faça a conta. Um app com 10.000 usuários ativos fazendo 5 interações por dia, cada uma consumindo ~1.000 tokens:
- Com API cloud: 50.000 requests/dia × ~$0.003 = $150/dia = $4.500/mês
- Com IA on-device: $0/mês
Sim, zero. O modelo roda no hardware do usuário. Seu servidor não precisa processar nada. Não tem bill da OpenAI no final do mês.
Óbvio que tem trade-offs. O modelo E2B não é GPT-5.4. Mas pra 80% dos use cases de apps mobile — chatbot de atendimento, classificação de texto, transcrição, análise de imagem, automações simples — ele é mais que suficiente.
E quando o modelo não é suficiente? O app suporta modelos custom. Carregue o seu. A infraestrutura é a mesma.
Como usar na sua software house
Aqui vão 5 cenários que eu já vejo software houses implementando:
1. Apps de saúde com privacidade nativa
Dados médicos nunca saem do celular do paciente. LGPD e HIPAA compliance por design, não por configuração. Transcrição de consultas, análise de exames por foto, chatbot de triagem — tudo local.
2. Produtos offline-first para campo
Agronegócio, mineração, obras, logística. Onde não tem 4G, seu app continua inteligente. Inspeções com visão computacional, relatórios por voz, checklists inteligentes.
3. Chatbots embarcados sem backend de IA
Assistente virtual dentro do app do cliente. Sem servidor de IA. Sem mensalidade de provider. O custo de IA do seu produto é literalmente zero depois do build.
4. Transcrição e tradução local
Apps de reunião, atendimento, call center. Audio Scribe transcreve em tempo real no device. Nenhum áudio do seu cliente viaja pela internet.
5. White-label com IA inclusa
Mesmo app, modelo diferente. Escale produto white-label com IA embarcada — cada cliente pode ter seu modelo fine-tunado rodando local.
As limitações (porque honestidade importa)
Simon Willison chamou o app de “Terrible name, really great app” — e também apontou problemas reais:
- Sem histórico de conversas — chats são efêmeros, reiniciam quando fecha o app
- Estabilidade — o app travou quando ele tentou fazer follow-up nos Agent Skills
- Beta experimental — o Google mesmo classifica assim
- Download pesado — Gemma 4 E2B são 2.54GB de download
- Performance variável — depende muito do hardware do device
E tem as limitações técnicas óbvias: Gemma 4 E2B não é Claude Opus 4.6. Pra tarefas que exigem raciocínio profundo ou contexto muito longo, você ainda vai precisar de cloud. O ponto não é substituir — é complementar.
O que eu penso
Vou te falar o que me impressionou de verdade: não é o app em si. É o que ele representa.
Durante anos, a narrativa de IA foi “mande seus dados pra nuvem e a mágica acontece lá.” O Google, com o AI Edge Gallery e o Gemma 4, está dizendo: “não, a mágica acontece no bolso do seu usuário.”
E isso muda a dinâmica competitiva pra software houses de um jeito profundo.
Hoje, se você quer IA no seu produto, você depende de OpenAI ou Anthropic. Amanhã, se o modelo é bom o suficiente pra rodar no celular — e com Gemma 4, já é — você não depende de ninguém. Seu produto tem IA built-in. Sem vendor lock-in. Sem custo variável. Sem risco de o provider mudar pricing ou Terms of Service.
400 milhões de downloads da família Gemma mostram que a comunidade já abraçou isso. #8 na App Store mostra que usuários finais querem. Apache 2.0 mostra que o Google está falando sério.
Se eu fosse CEO de uma software house que faz produtos mobile — e eu mentoro várias — esse repo estaria no meu radar hoje. Não mês que vem. Hoje.
A IA está saindo da nuvem. E quem chegar primeiro no device do usuário, ganha.
Conclusão
O Google AI Edge Gallery não é só um app — é um sinal. A mesma empresa que popularizou IA na nuvem está agora open-sourceando a infraestrutura pra IA rodar no bolso de cada pessoa.
Pra software houses, isso significa uma coisa: IA on-device não é mais experimento de laboratório. É produto.
18.500 stars, #8 na App Store, Apache 2.0, Gemma 4 com 400M de downloads. Os números falam por si.
Se você quer começar a explorar IA on-device nos seus produtos mobile — e em 2026, deveria — comece aqui: github.com/google-ai-edge/gallery
Sou Thulio, mentoro 300+ SHs desde 2016.




