Seu app precisa de internet pra rodar IA? Problema seu.
Na semana passada, durante uma mentoria, um CEO de software house me disse: “Thulio, meu cliente é do agro. Metade das fazendas não tem 4G. Como eu coloco IA no app deles?”
Eu abri o celular, mostrei um app e disse: “Isso aqui roda Gemma 4 com Agent Skills. Offline. No celular. De graça.”
O app é o Google AI Edge Gallery. E ele muda completamente o jogo pra software houses que desenvolvem apps mobile.
O que é o Google AI Edge Gallery
É um app open-source do Google — disponível na Play Store e App Store — que permite rodar modelos de IA diretamente no celular, sem internet, sem cloud, sem enviar um byte de dado pra fora do dispositivo.
O repo no GitHub tem 20.400+ stars e está trending com +4.400 stars por semana.
Mas o diferencial não é só rodar LLM local. O diferencial é uma feature chamada Agent Skills: workflows agentic multi-step e autônomos que rodam 100% on-device. Pela primeira vez, o modelo no seu celular decide sozinho quando usar uma tool, executa a ação, e retorna o resultado. Tudo local.
E os modelos por trás? A família Gemma 4 — os modelos open-source mais recentes do Google DeepMind, lançados em abril de 2026.
O problema que ele resolve
Vamos ser diretos. Existem 4 barreiras que impedem software houses de integrar IA em apps mobile:
- Custo de API — Cada chamada pra OpenAI/Claude custa. Com milhares de usuários, a conta explode.
- Privacidade — Dados de saúde, financeiros, corporativos. LGPD. GDPR. O dado não pode sair do dispositivo.
- Conectividade — Agro, fábrica, construção, campo. Metade do Brasil não tem 4G estável.
- Latência — Round-trip pra cloud = delay. Usuário percebe.
O Google AI Edge Gallery resolve as 4 de uma vez: IA no device, custo zero, dado local, resposta instantânea.
O que tem dentro (7 features)
1. Agent Skills (a estrela do show)
Workflows agentic autônomos no celular. O modelo recebe uma tarefa, decide quais tools usar, executa multi-step, e entrega o resultado.
Skills built-in:
- Wikipedia — Consulta enciclopédica com citação
- Mapas interativos — Geolocalização e navegação
- QR Code — Geração de códigos
- Flashcards — Resumos e estudo
- Custom Skills — Carregáveis via URL ou contribuição da comunidade
Performance: 4.000 tokens de input em 2 skills distintas em menos de 3 segundos.
2. AI Chat com Thinking Mode
Conversas multi-turn com visualização do raciocínio do modelo. Você vê o modelo “pensando” antes de responder. Compatível com Gemma 4.
3. Ask Image (multimodal)
Analisa imagens da câmera ou galeria. Identifica objetos, resolve puzzles visuais, lê documentos. Tudo on-device.
4. Audio Scribe
Transcrição e tradução de voz em tempo real. Sem mandar áudio pra cloud.
5. Prompt Lab
Sandbox para testar prompts com controle de temperatura, top-k. Ideal pra prototipar antes de integrar.
6. Mobile Actions
Controle do dispositivo via linguagem natural usando FunctionGemma 270m. “Abre a câmera”, “liga o Wi-Fi”, “manda mensagem pro João”.
7. Benchmark
Teste de performance dos modelos no seu hardware específico. Sabe exatamente o que esperar antes de integrar.
Gemma 4: os modelos que fazem tudo funcionar
A família Gemma 4 é o motor do Gallery. São os modelos open-source mais recentes do Google DeepMind:
| Variante | Params | Tamanho | RAM | Uso |
|---|---|---|---|---|
| E2B | 2B efetivos | ~1.3GB | 6GB | Smartphones, IoT |
| E4B | 4B efetivos | ~2.5GB | 8GB | Smartphones premium |
| 26B MoE | 3.8B ativos | — | — | Desktop |
| 31B Dense | 31B | — | — | Server (256K ctx) |
Os números que importam:
- 4x mais rápido que a geração anterior
- 60% menos bateria
- 140+ idiomas (incluindo português)
- Apache 2.0 (uso comercial livre)
- 5.5x speedup em chips com SME2 (benchmarks da Arm)
- <1.5GB de memória para o E2B
E a cereja: Gemma 4 E2B e E4B são a base do Gemini Nano 4 — o próximo modelo on-device que vai vir built-in no Android.
Performance real on-device
| Dispositivo | Prefill (tokens/s) | Decode (tokens/s) |
|---|---|---|
| Raspberry Pi 5 (CPU) | 133 | 7.6 |
| Qualcomm Dragonwing IQ8 (NPU) | 3.700 | 31 |
3.700 tokens por segundo de prefill num chip NPU. Isso é performance de servidor rodando num chip de celular.
O app chegou ao #4 na App Store iOS (categoria Produtividade) — atrás apenas de Claude, Gemini e ChatGPT.
Como usar na sua software house
Instalar o app é trivial (Play Store / App Store). Mas o real valor é usar o código-fonte como base para integrar no seu produto.
O repo é 91% Kotlin, Apache 2.0, com documentação completa:
Cenários práticos:
- App do agro — Diagnóstico de pragas por imagem, offline, no campo. Ask Image + Gemma 4 E2B.
- App de saúde — Anamnese por voz com Audio Scribe. Dados nunca saem do celular. LGPD compliance nativo.
- App industrial — Inspeção visual de qualidade na fábrica, sem depender de internet. Multimodal on-device.
- CRM mobile — Transcrição de reuniões e resumo automático. Agent Skills gera follow-up sem cloud.
- App de campo — Assistente para técnicos, com manual da máquina embarcado no modelo. Offline total.
- Chatbot embarcado — Seu app com chat IA integrado. Zero custo de API. Zero latência de cloud.
- IoT/Edge — Roda no Raspberry Pi 5. Automação inteligente sem server.
- White-label — Use o código como base para criar o “assistente IA” do seu cliente. Apache 2.0 permite.
O que eu penso
Na minha experiência com 300+ software houses, a barreira #1 pra adotar IA em apps mobile não é técnica — é econômica. O custo de API por usuário inviabiliza a maioria dos casos de uso.
O Google AI Edge Gallery + Gemma 4 elimina esse custo. Quando o modelo roda no device, o custo marginal por usuário é zero. Escala infinita.
Mas preciso ser realista: modelos de 2B-4B parâmetros não são GPT-5. Eles são bons para tarefas focadas — classificação, extração, resumo, análise de imagem, Agent Skills com tools específicas. Não espere que vá substituir um Claude Opus numa tarefa de raciocínio complexo.
O segredo é usar a ferramenta certa pro problema certo. Precisa de raciocínio profundo? Cloud. Precisa de velocidade, privacidade e custo zero? Device.
E tem um detalhe estratégico: o Google confirmou que Gemma 4 E2B/E4B são a base do Gemini Nano 4, que vai vir built-in em Androids futuros. Software houses que começarem a desenvolver com Gemma 4 agora vão ter vantagem quando isso virar padrão no sistema operacional.
O mercado de edge AI está projetado para $109 bilhões em 2028. Não é tendência — é inevitável.
Conclusão
O Google AI Edge Gallery é a ponte entre “IA só funciona com cloud” e “IA funciona em qualquer lugar”. Com Gemma 4, Agent Skills, 140+ idiomas, Apache 2.0, e performance de 3.700 tokens/s num chip mobile — o Google entregou a infraestrutura que faltava pra software houses botarem IA de verdade nos apps.
O repo tá aqui: github.com/google-ai-edge/gallery. O app tá na Play Store e App Store. O código é Apache 2.0.
Se você quer botar IA no app do seu cliente e não sabe como começar — especialmente se o cliente está no agro, saúde, indústria, ou qualquer lugar onde internet não é garantia — esse é o caminho.
Sou Thulio, mentoro 300+ SHs desde 2016.




