Home / Inteligência Artificial / Google AI Edge Gallery: IA Agentic no Celular, Sem Internet e de Graça

Google AI Edge Gallery: IA Agentic no Celular, Sem Internet e de Graça

Seu app precisa de internet pra rodar IA? Problema seu.

Na semana passada, durante uma mentoria, um CEO de software house me disse: “Thulio, meu cliente é do agro. Metade das fazendas não tem 4G. Como eu coloco IA no app deles?”

Eu abri o celular, mostrei um app e disse: “Isso aqui roda Gemma 4 com Agent Skills. Offline. No celular. De graça.”

O app é o Google AI Edge Gallery. E ele muda completamente o jogo pra software houses que desenvolvem apps mobile.

O que é o Google AI Edge Gallery

É um app open-source do Google — disponível na Play Store e App Store — que permite rodar modelos de IA diretamente no celular, sem internet, sem cloud, sem enviar um byte de dado pra fora do dispositivo.

O repo no GitHub tem 20.400+ stars e está trending com +4.400 stars por semana.

Mas o diferencial não é só rodar LLM local. O diferencial é uma feature chamada Agent Skills: workflows agentic multi-step e autônomos que rodam 100% on-device. Pela primeira vez, o modelo no seu celular decide sozinho quando usar uma tool, executa a ação, e retorna o resultado. Tudo local.

E os modelos por trás? A família Gemma 4 — os modelos open-source mais recentes do Google DeepMind, lançados em abril de 2026.

O problema que ele resolve

Vamos ser diretos. Existem 4 barreiras que impedem software houses de integrar IA em apps mobile:

  1. Custo de API — Cada chamada pra OpenAI/Claude custa. Com milhares de usuários, a conta explode.
  2. Privacidade — Dados de saúde, financeiros, corporativos. LGPD. GDPR. O dado não pode sair do dispositivo.
  3. Conectividade — Agro, fábrica, construção, campo. Metade do Brasil não tem 4G estável.
  4. Latência — Round-trip pra cloud = delay. Usuário percebe.

O Google AI Edge Gallery resolve as 4 de uma vez: IA no device, custo zero, dado local, resposta instantânea.

O que tem dentro (7 features)

1. Agent Skills (a estrela do show)

Workflows agentic autônomos no celular. O modelo recebe uma tarefa, decide quais tools usar, executa multi-step, e entrega o resultado.

Skills built-in:

  • Wikipedia — Consulta enciclopédica com citação
  • Mapas interativos — Geolocalização e navegação
  • QR Code — Geração de códigos
  • Flashcards — Resumos e estudo
  • Custom Skills — Carregáveis via URL ou contribuição da comunidade

Performance: 4.000 tokens de input em 2 skills distintas em menos de 3 segundos.

2. AI Chat com Thinking Mode

Conversas multi-turn com visualização do raciocínio do modelo. Você vê o modelo “pensando” antes de responder. Compatível com Gemma 4.

3. Ask Image (multimodal)

Analisa imagens da câmera ou galeria. Identifica objetos, resolve puzzles visuais, lê documentos. Tudo on-device.

4. Audio Scribe

Transcrição e tradução de voz em tempo real. Sem mandar áudio pra cloud.

5. Prompt Lab

Sandbox para testar prompts com controle de temperatura, top-k. Ideal pra prototipar antes de integrar.

6. Mobile Actions

Controle do dispositivo via linguagem natural usando FunctionGemma 270m. “Abre a câmera”, “liga o Wi-Fi”, “manda mensagem pro João”.

7. Benchmark

Teste de performance dos modelos no seu hardware específico. Sabe exatamente o que esperar antes de integrar.

Gemma 4: os modelos que fazem tudo funcionar

A família Gemma 4 é o motor do Gallery. São os modelos open-source mais recentes do Google DeepMind:

Variante Params Tamanho RAM Uso
E2B 2B efetivos ~1.3GB 6GB Smartphones, IoT
E4B 4B efetivos ~2.5GB 8GB Smartphones premium
26B MoE 3.8B ativos Desktop
31B Dense 31B Server (256K ctx)

Os números que importam:

  • 4x mais rápido que a geração anterior
  • 60% menos bateria
  • 140+ idiomas (incluindo português)
  • Apache 2.0 (uso comercial livre)
  • 5.5x speedup em chips com SME2 (benchmarks da Arm)
  • <1.5GB de memória para o E2B

E a cereja: Gemma 4 E2B e E4B são a base do Gemini Nano 4 — o próximo modelo on-device que vai vir built-in no Android.

Performance real on-device

Dispositivo Prefill (tokens/s) Decode (tokens/s)
Raspberry Pi 5 (CPU) 133 7.6
Qualcomm Dragonwing IQ8 (NPU) 3.700 31

3.700 tokens por segundo de prefill num chip NPU. Isso é performance de servidor rodando num chip de celular.

O app chegou ao #4 na App Store iOS (categoria Produtividade) — atrás apenas de Claude, Gemini e ChatGPT.

Como usar na sua software house

Instalar o app é trivial (Play Store / App Store). Mas o real valor é usar o código-fonte como base para integrar no seu produto.

O repo é 91% Kotlin, Apache 2.0, com documentação completa:

Cenários práticos:

  1. App do agro — Diagnóstico de pragas por imagem, offline, no campo. Ask Image + Gemma 4 E2B.
  1. App de saúde — Anamnese por voz com Audio Scribe. Dados nunca saem do celular. LGPD compliance nativo.
    1. App industrial — Inspeção visual de qualidade na fábrica, sem depender de internet. Multimodal on-device.
    1. CRM mobile — Transcrição de reuniões e resumo automático. Agent Skills gera follow-up sem cloud.
      1. App de campo — Assistente para técnicos, com manual da máquina embarcado no modelo. Offline total.
      1. Chatbot embarcado — Seu app com chat IA integrado. Zero custo de API. Zero latência de cloud.
        1. IoT/Edge — Roda no Raspberry Pi 5. Automação inteligente sem server.
        1. White-label — Use o código como base para criar o “assistente IA” do seu cliente. Apache 2.0 permite.
        2. O que eu penso

          Na minha experiência com 300+ software houses, a barreira #1 pra adotar IA em apps mobile não é técnica — é econômica. O custo de API por usuário inviabiliza a maioria dos casos de uso.

          O Google AI Edge Gallery + Gemma 4 elimina esse custo. Quando o modelo roda no device, o custo marginal por usuário é zero. Escala infinita.

          Mas preciso ser realista: modelos de 2B-4B parâmetros não são GPT-5. Eles são bons para tarefas focadas — classificação, extração, resumo, análise de imagem, Agent Skills com tools específicas. Não espere que vá substituir um Claude Opus numa tarefa de raciocínio complexo.

          O segredo é usar a ferramenta certa pro problema certo. Precisa de raciocínio profundo? Cloud. Precisa de velocidade, privacidade e custo zero? Device.

          E tem um detalhe estratégico: o Google confirmou que Gemma 4 E2B/E4B são a base do Gemini Nano 4, que vai vir built-in em Androids futuros. Software houses que começarem a desenvolver com Gemma 4 agora vão ter vantagem quando isso virar padrão no sistema operacional.

          O mercado de edge AI está projetado para $109 bilhões em 2028. Não é tendência — é inevitável.

          Conclusão

          O Google AI Edge Gallery é a ponte entre “IA só funciona com cloud” e “IA funciona em qualquer lugar”. Com Gemma 4, Agent Skills, 140+ idiomas, Apache 2.0, e performance de 3.700 tokens/s num chip mobile — o Google entregou a infraestrutura que faltava pra software houses botarem IA de verdade nos apps.

          O repo tá aqui: github.com/google-ai-edge/gallery. O app tá na Play Store e App Store. O código é Apache 2.0.

          Se você quer botar IA no app do seu cliente e não sabe como começar — especialmente se o cliente está no agro, saúde, indústria, ou qualquer lugar onde internet não é garantia — esse é o caminho.

          Sou Thulio, mentoro 300+ SHs desde 2016.

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *