Toda vez que você pergunta algo ao Claude sobre o seu projeto, ele relê os arquivos do zero — e você paga por cada token. O Graphify resolve isso transformando seu codebase em um grafo de conhecimento persistente, consultável e incrivelmente eficiente.

71.5× Redução de tokens por query.
Em testes com corpora mistos (código + papers + diagramas), o custo médio caiu de ~123k tokens por consulta para apenas ~1,7k.

O problema: você paga para o LLM “se orientar”

Pense num projeto médio: 50 arquivos, documentação em PDF, algumas gravações de reuniões de arquitetura. Você pergunta “como funciona o fluxo de autenticação?” — e o assistente de IA lê tudo novamente, do zero, a cada query. Em projetos grandes, isso significa centenas de milhares de tokens queimados só para o modelo descobrir onde as coisas estão.

Cada token que o Claude gasta se “orientando” é um token que ele não está gastando resolvendo o seu problema.

“Graphify faz a análise cara uma única vez, comprime tudo num grafo de conhecimento consultável — e esse grafo fica em disco para sempre.”

Como o Graphify funciona por dentro

A beleza da arquitetura do Graphify está em ser honesta sobre o que sai da sua máquina. O processo é dividido em três passes distintos:

1. Extração AST determinística 🔒 código nunca sai da máquina
tree-sitter analisa seu código-fonte usando gramáticas formais. Classes, funções, imports, call graphs, docstrings — tudo extraído sem nenhum LLM, sem chamada de rede. Suporta 25 linguagens. Cada aresta recebe a tag EXTRACTED: fato verificável, custo zero além de CPU.

2. Transcrição local de áudio ⚡ local
faster-whisper transcreve seus vídeos e arquivos de áudio localmente. Gravações de reuniões, walkthroughs de arquitetura, screencasts de design — viram nós de texto no grafo sem nunca sair do seu hardware.

3. Extração semântica ☁ conteúdo semântico enviado
PDFs, docs e imagens passam pelo LLM configurado no seu assistente — mas apenas o conteúdo semântico, nunca o código-fonte raw. Atenção: documentos confidenciais chegam ao seu provedor de IA.

O resultado? Um grafo com nós, arestas e comunidades — armazenado em disco, reutilizado em todas as sessões futuras.

Instalação e primeiros passos

# Instalar via pip
pip install graphify-codebase

# Gerar o grafo do seu projeto
graphify build --path ./meu-projeto

# Ver o relatório gerado
cat graphify-out/GRAPH_REPORT.md

# Consultar parte específica do codebase
graphify query "mostre o fluxo de autenticação" --graph graphify-out/graph.json

# Limitar saída a um orçamento de tokens
graphify query "como funciona o billing?" --budget 2000

O que você recebe como saída

Após rodar o graphify build, a pasta graphify-out/ contém:

graph.html
Interativo
Visualize relações no browser
GRAPH_REPORT.md
Sumário
Insights + god nodes detectados
graph.json
Persistente
Grafo consultável via CLI ou MCP
cache/
Incremental
Só reprocessa arquivos alterados

Exemplo real: biblioteca HTTP em Python

Para 6 arquivos Python modelando uma camada de transporte HTTP, o Graphify gerou:

MétricaResultadoInsight
Nós no grafo144Classes, funções, imports mapeados
Arestas330Relações entre componentes
Comunidades detectadas6Algoritmo Leiden (agrupamento temático)
“God nodes” detectadosClient, AsyncClient, Response, RequestNós de alta centralidade
Aresta surpresaDigestAuth → ResponseRelação implícita revelada

Exemplo real: 52 arquivos mistos (repos + papers)

3 repositórios de frameworks GPT + 5 papers sobre atenção + 4 diagramas (~92k palavras):

AbordagemTokens por queryResultado
Naive (ler arquivos brutos)~123.000 tokensFrequentemente bate context limit
Graphify~1.700 tokens71.5× mais eficiente

Integração com MCP e Claude Code

O Graphify expõe o grafo do codebase como ferramentas chamáveis por LLM via MCP server — tornando-se um bloco fundamental para agentes autônomos que precisam de compreensão estruturada do código, não apenas busca por arquivos.

.claude/settings.json

{
  "mcpServers": {
    "graphify": {
      "command": "graphify",
      "args": ["mcp", "--graph", "./graphify-out/graph.json"]
    }
  }
}

Com isso, em vez de varrer arquivos aleatoriamente, o Claude navega usando o grafo. Não é sobre prompts melhores ou modelos maiores — é sobre construir uma camada de memória.

A lógica por trás: por que grafos vencem

A ideia não é nova: Andrej Karpathy demonstrou que você não precisa de um banco de vetores sofisticado para reduzir tokens. Você precisa de arquivos markdown bem organizados com links explícitos — o LLM lê índices e segue links ao invés de busca por similaridade.

O Graphify aplica essa lógica ao código. O grafo torna as relações explícitas e consultáveis antes do Claude tocar no contexto da sua sessão.

“Um usuário pegou 383 arquivos espalhados + 100 transcrições de reuniões e derrubou o uso de tokens em 95% ao consultar com Claude.”

Vale a pena? Considerações honestas

O número de 71.5× é auto-reportado e merece escrutínio. A lógica é sólida — subgrafos pequenos e relevantes são estruturalmente mais eficientes do que arquivos brutos completos. O cache incremental torna execuções subsequentes baratas, mas a primeira indexação de um repositório grande pode ser custosa.

Para projetos pequenos (menos de 20 arquivos), o overhead provavelmente não compensa. Para codebases médias e grandes com documentação mista — PDFs de arquitetura, gravações, múltiplos módulos — o Graphify é uma das intervenções mais práticas disponíveis hoje para reduzir o custo operacional de assistentes de IA.

O Graphify não faz nada misterioso. Ele resolve um problema simples: o Claude não deveria re-ler coisas que poderiam ser pré-computadas. Para codebases grandes, elimina a maior parte do custo de “orientação”. Essa é a história toda — e é suficiente.

Acesse em: graphify.net →