Home / Inteligência Artificial / MemPalace: A Atriz de Resident Evil Criou a Melhor Memória de IA do Mundo

MemPalace: A Atriz de Resident Evil Criou a Melhor Memória de IA do Mundo

Eu preciso te contar uma história que parece roteiro de filme — e, bom, considerando quem está envolvida, meio que é.

Milla Jovovich, a Alice de Resident Evil, a Leeloo de O Quinto Elemento, publicou um repositório no GitHub no último sábado. Não foi um pet project qualquer. Em 48 horas, o MemPalace já tinha 7 mil stars. Hoje, três dias depois, são 26.800 stars. E o motivo é simples: ela construiu o sistema de memória para IA com o maior score já registrado em benchmarks públicos.

Agora, antes que você pense “ah, é marketing de celebridade” — eu também pensei. Mas depois de passar a manhã analisando o código, os benchmarks e a arquitetura, minha conclusão é outra: esse projeto resolve um problema real que está travando a evolução dos agentes de IA. E resolve de um jeito que faz a gente questionar por que estávamos fazendo diferente.

O Problema Que Todo Mundo de IA Está Ignorando

Se você já usou ChatGPT, Claude ou qualquer LLM mais de três vezes na mesma semana, sabe do que eu estou falando: amnésia permanente.

Você passa 2 horas explicando seu projeto, sua stack, suas decisões de arquitetura. Amanhã, abre uma nova sessão e o assistente não lembra de nada. Zero. Como se nunca tivessem conversado.

Na minha experiência com 300+ software houses, esse é o gargalo número um de quem tenta usar IA de verdade no dia a dia. Não é a qualidade do modelo. Não é o preço do token. É que a IA esquece tudo.

As soluções que existem — Mem0 ($19 a $249 por mês), Zep ($25+/mês) — fazem uma coisa que parece inteligente mas é um tiro no pé: usam IA para resumir suas conversas antes de guardar. Resultado? Perdem contexto, nuance, raciocínio. Guardam “bullet points” quando o que você precisa é do pensamento completo.

O Que É o MemPalace

MemPalace é um sistema de memória persistente para LLMs que faz exatamente o oposto do que todo mundo está fazendo: guarda tudo, sem resumir nada.

Cada conversa, cada decisão, cada raciocínio — armazenado na íntegra. Sem IA decidindo o que é importante e o que pode ser descartado. E aí usa busca semântica para encontrar o que você precisa, quando precisa.

A metáfora é a de um palácio da memória (a mesma técnica que Sherlock Holmes usa):

  • Wings = projetos ou pessoas
  • Halls = tipos de memória (fatos, eventos, preferências, conselhos)
  • Rooms = tópicos específicos dentro de cada hall
  • Closets = resumos que apontam para o conteúdo original
  • Tunnels = conexões entre assuntos de diferentes wings

Tudo roda 100% local no seu computador. ChromaDB para busca vetorial, SQLite para o knowledge graph. Sem cloud, sem API key, sem assinatura mensal.

Os Números Que Chamaram Minha Atenção

Vou ser direto com os benchmarks, porque aqui é onde a coisa fica séria:

LongMemEval (500 questões de memória multi-sessão):

  • MemPalace (raw, sem IA): 96.6% — custo $0 por query
  • MemPalace (hybrid + rerank): 100% — custo ~$0.001 por query
  • Supermemory: ~85% (produção)
  • Mastra: 94.87% (usa GPT-5-mini)

ConvoMem (75 mil pares de QA, benchmark da Salesforce):

  • MemPalace: 92.9%
  • Mem0: 30-45%
  • Gemini (long context): 70-82%

Leu certo. Mais que o dobro do Mem0, que cobra até $249/mês.

Agora, preciso ser honesto: o time fez overclaims iniciais. Anunciaram “100% em tudo” quando o 100% é com hybrid mode + LLM reranking (que custa frações de centavo). O score raw, sem IA, é 96.6%. Eles próprios publicaram uma nota de transparência reconhecendo isso. Eu respeito mais um projeto que corrige claims do que um que nunca erra porque nunca mostra os números.

A História Por Trás: Como Uma Atriz de Hollywood Acabou no GitHub

Milla Jovovich começou a usar IA intensivamente no final de 2025. ChatGPT, Claude — para decisões de negócio, trabalho criativo, debugging. Acumulou milhares de conversas e ficou frustrada com a amnésia.

Testou as soluções existentes. Não gostou de nenhuma. Teve um insight que engenheiros de IA não tiveram: “Por que a IA deveria decidir o que eu preciso lembrar?”

Encontrou Ben Sigman, um engenheiro com “talento claro para design de sistemas”. Os dois passaram meses construindo o MemPalace usando Claude Code. No dia do lançamento, Sigman tweetou uma só palavra: “Multipass” — a referência ao Quinto Elemento que viralizou junto com o repo.

Tem controvérsia? Tem. Community notes no X questionaram o envolvimento real de Milla no código (“conceptual or promotional”). Um professor da USC validou a abordagem técnica. O fato é: o código funciona, a arquitetura é sólida, e o MIT License está lá para quem quiser auditar.

Brian Roemmele, um empreendedor de tecnologia conhecido, deployou o MemPalace para 79 funcionários em produção nos primeiros dias após o lançamento.

Como Usar Na Sua Software House

Aqui é onde eu me empolgo, porque as aplicações práticas são óbvias:

1. Agentes com memória real
Seus chatbots, assistentes internos, agentes de suporte — todos podem ter memória persistente de verdade. O cliente liga na terça e o agente lembra da conversa de segunda. Sem pagar $249/mês por assento.

2. Onboarding de desenvolvedores
Mine o repositório da empresa, a documentação, as decisões de arquitetura. Novo dev entra e tem acesso a um “cérebro” searchable com todo o contexto histórico do projeto.

3. Knowledge base que se atualiza sozinha
Cada conversa no Slack, cada standup, cada retro — minerado e organizado automaticamente. Não é mais uma wiki que ninguém atualiza.

4. Contradiction detection
O MemPalace tem um fact_checker.py que detecta informações conflitantes na memória. Imagine isso aplicado a requisitos de projeto: “na sprint 3 o cliente disse X, mas na sprint 7 disse o contrário de X.”

5. Custo zero
Enquanto Mem0 Pro cobra $249/mês e Zep precisa de infraestrutura cloud, MemPalace roda no notebook do dev. Para uma software house de 20 pessoas, isso é uma economia de $3.000 a $5.000 por mês.

O Que Eu Penso

O insight mais provocativo do MemPalace não está no código. Está na documentação:

“The field is over-engineering the memory extraction step. Raw verbatim text with good embeddings is a stronger baseline than anyone realized.”

Traduzindo: a indústria inteira está complicando demais. Em vez de treinar modelos sofisticados para “entender” e “resumir” memórias, basta guardar tudo e usar boas embeddings para encontrar.

Isso me lembra muito do que vejo em software houses que tentam over-engineer soluções quando o simples resolve. Às vezes o approach “bruto” — guardar tudo, indexar bem, buscar rápido — ganha de qualquer arquitetura elegante.

É perfeito? Não. O AAAK compression ainda underperforma (84.2% vs 96.6% do raw). A controvérsia sobre o envolvimento da Milla é legítima. Mas o projeto é real, funciona, é gratuito e tem a licença mais permissiva possível.

Se você está construindo qualquer coisa com agentes de IA na sua software house — e em 2026, se não está, a gente precisa conversar — MemPalace merece 30 minutos do seu tempo.

Sou Thulio, mentoro 300+ SHs desde 2016.

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *