2 meses com Claude Code: o que funcionou, o que quebrou e o que eu não esperava
TL;DR: Dois meses usando Claude Code como ferramenta principal mudaram minha stack de formas que eu não previa. A velocidade de prototipagem subiu. O sistema de agentes em paralelo virou parte do meu dia. O custo do Max assusta no começo, mas faz sentido quando você conta o tempo economizado. O que não funcionou: contexto que explode em sessões longas, alucinações em código muito específico e uma dependência do ecossistema Anthropic que eu não gostei de perceber.
Em fevereiro de 2026 comecei a usar Claude Code de forma séria. Não como experimento, não como curiosidade. Como ferramenta de trabalho. Dois meses depois, a stack mudou, o ritmo mudou e a forma como penso sobre o que posso construir sozinho também mudou.
Este post é um relato honesto sobre a minha experiência real com Claude Code em 2 meses. Tem o que funcionou, o que quebrou e o que me surpreendeu para os dois lados. Não tem promessa de que vai funcionar igual para você.
Como era antes
Antes do Claude Code, o processo era o de sempre: pesquisa manual, documentação aberta em dez abas, Stack Overflow, trial and error. Para um side project ou uma feature nova, o tempo gasto em pesquisa e código boilerplate era grande demais para o resultado.
O blog que você está lendo agora foi construído pelo Claude Code. Não só o código: a estrutura de posts, o sistema de slug numerado, os componentes React. Contei isso em detalhes no primeiro post desta série.
O que mudou desde então foi a escala do que consigo entregar.
O que acelerou de verdade na minha stack com Claude Code?
Velocidade de prototipagem. Tarefas que levavam uma tarde inteira, como configurar um endpoint ou criar componentes com variantes, agora levam menos de uma hora. O esforço mudou de digitação para revisão e direcionamento. O ciclo de iteração ficou curto o suficiente para mudar o que é viável construir sozinho.
Times que adotaram Claude Code como ferramenta principal relataram que 70 a 90% do código produzido passa pela ferramenta, segundo dados internos da Anthropic. Não é que o desenvolvedor desapareceu. É que o esforço mudou.
No meu caso, não porque o Claude acerta sempre. Porque o ciclo de iteração ficou muito mais rápido. Descrevo o que preciso com precisão, reviso o que ele produziu e corrijo o que está errado. Ainda tem erro. A diferença é que o ponto de partida é melhor e o loop de ajuste é mais curto.
Como o sistema de agentes em paralelo mudou meu fluxo?
Um agente pesquisa, outro escreve, outro revisa. Cada um com um CLAUDE.md próprio que define escopo, regras e memória. O que antes parecia ficção científica virou rotina. O Claude Code suporta até 7 agentes simultâneos em worktrees separados, mas na prática uso 3 a 4. Mais do que isso, o overhead de gerenciar começa a anular o ganho.
Esta foi a surpresa positiva que eu menos previa.
A documentação oficial do Claude Code confirma o suporte a múltiplos agentes paralelos, cada um em seu próprio worktree. Escrevi sobre como esse sistema funciona no dia a dia no post sobre a feature que o Claude entregou enquanto eu dormia. O que eu não contei lá é que aquilo não foi um acidente. Foi o resultado de semanas afinando o sistema de memória e os prompts de orquestração.
Por que o contexto longo é o maior problema do Claude Code?
Em sessões acima de 2 horas com um repositório complexo, a qualidade das respostas cai. O agente começa a tomar decisões que parecem razoáveis mas ignoram partes do código que ele mesmo escreveu meia hora antes. O contexto enche e a atenção efetiva do modelo diminui, mesmo com a janela de 200K tokens anunciada.
Aqui começa a parte que as reviews não costumam mencionar.
O benchmark NoLiMa, apresentado no ICML 2025, mostrou que a maioria dos LLMs erra mais da metade das vezes quando precisa recuperar informações específicas em contextos acima de 32 mil tokens. Mesmo com janela de 200K tokens, a atenção efetiva do modelo é menor do que o anunciado.
O jeito que encontrei para mitigar é dividir em sessões menores, com CLAUDE.md bem definido e contexto compacto. Não elimina o problema, reduz a frequência.
Alucinações em código específico são o problema silencioso
O Claude Code raramente tem alucinações em tarefas genéricas. Criar um componente React, escrever um endpoint REST, gerar testes para uma função simples: o acerto é alto.
O problema aparece em código muito específico. Integrações com APIs menos documentadas, lógica de negócio com regras particulares do domínio, bibliotecas menos populares. Nesses casos, o Claude gera código que parece correto, compila, e só quebra em runtime por um detalhe que ele assumiu errado.
O antídoto que funciona para mim é sempre pedir que o agente explique o raciocínio antes de gerar o código. Quando ele explica o que vai fazer e eu consigo identificar o erro na explicação, economizo o tempo de debugar o código gerado.
Quanto custa usar Claude Code como ferramenta principal?
Plano Pro é $20 por mês e suficiente para uso leve. Para desenvolvimento intensivo, o Max custa entre $100 e $200 por mês. Nesses planos, o custo é fixo mensal: você não paga por token individual. O que muda entre planos são os limites de uso diário e semanal. A conta só fecha se você calcular o tempo economizado: 2 horas por dia poupadas são 40 horas por mês, o que torna $200 razoável para quem já paga pelo próprio tempo.
Para uso como ferramenta principal de desenvolvimento, você vai bater nos rate limits no plano Pro. Segundo dados de uso publicados pela Anthropic, o custo médio para times intensivos fica entre $100 e $200 por desenvolvedor por mês no plano Max com Sonnet 4.6. O Opus custa mais e não entrega proporcionalmente mais para a maioria das tarefas de código.
O problema é que esse cálculo exige disciplina: usar a ferramenta de forma eficiente, não deixar sessões abertas sem propósito, focar em tarefas onde o ganho é real.
Existe risco real de depender do ecossistema Anthropic?
Sim. Em abril de 2026, a Anthropic bloqueou sem aviso ferramentas de terceiros que usavam as assinaturas Pro e Max. O sistema de agentes, o formato de CLAUDE.md e as permissões de hooks funcionam enquanto a Anthropic permite. Não é motivo para parar de usar, mas é motivo para ter um plano de contingência antes de construir algo crítico sobre essa infraestrutura.
Desenvolvedores que tinham workflows inteiros construídos sobre ferramentas como OpenClaw viram seus custos potencialmente multiplicar 50 vezes da noite para o dia. Não fui afetado diretamente porque uso o Claude Code oficial. Mas o episódio me fez pensar sobre quanto da minha stack depende de decisões que a Anthropic pode tomar sem aviso.
O que ficou após 2 meses e o que é hype de early adopter
Depois de 2 meses com Claude Code como experiência real, consigo separar com mais clareza o que fica e o que é exagero de early adopter.
Fica:
- Prototipagem rápida. Para criar um MVP funcional ou testar uma ideia, não tem nada mais eficiente no meu fluxo atual.
- Sistema de memória com
CLAUDE.md. Quando bem configurado, o agente mantém contexto de projeto, regras e decisões de forma que economiza muito tempo de repetição. - Geração de testes. Esta é consistentemente uma das tarefas onde o acerto é mais alto e o esforço manual seria maior.
Ainda é hype (para mim):
- A ideia de que você pode "largar no projeto e voltar com tudo pronto". O agente precisa de direcionamento constante em projetos complexos. Não é autopiloto.
- Rodar 10 agentes em paralelo. Tecnicamente funciona. Praticamente, gerenciar o output de 10 agentes simultâneos exige atenção que anula parte do ganho.
A codebase que vazou do próprio Claude Code em março de 2026 deixou claro como o sistema é construído internamente. O que ficou mais evidente ao ler aquele código é que a ferramenta é poderosa e frágil ao mesmo tempo. Poderosa quando você entende os limites. Frágil quando você assume que ela não tem.
O que muda daqui para frente
Continuo usando Claude Code como ferramenta principal. Detalhei como o workflow completo de agentes evoluiu nesse período, com os três arquétipos que uso hoje. Mas com alguns ajustes que aprendi da forma difícil:
Sessões mais curtas com contexto mais compacto. Verificação manual em código que envolve lógica de domínio específica. Diversificação: não quero depender exclusivamente de uma plataforma que pode mudar as regras.
O ritmo de evolução da ferramenta é alto. O que descrevo aqui provavelmente muda nos próximos meses. Mas os princípios não: entender os limites antes de confiar cegamente é o que separa quem usa IA de forma eficiente de quem fica frustrado com ela.
Se quiser acompanhar o processo conforme ele evolui, cadastra na newsletter. Você recebe um email quando sair post novo, sem frequência fixa, sem spam.
Perguntas Frequentes
Vale a pena trocar o Cursor pelo Claude Code?
Depende do seu fluxo. Cursor é melhor para quem quer autocompletar integrado no editor e prefere interface visual. Claude Code é mais forte em tarefas complexas de múltiplos arquivos, raciocínio profundo sobre código existente e uso via terminal. A maioria dos desenvolvedores profissionais em 2026 usa os dois: Cursor para o dia a dia e Claude Code para tarefas que exigem mais contexto e planejamento.
O plano Pro de $20 é suficiente para uso real?
Para uso casual ou projetos pequenos, sim. Para desenvolvimento intensivo, você vai bater nos rate limits em sessões longas. O plano Max ($100 a $200 por mês) faz mais sentido se Claude Code for sua ferramenta principal de trabalho. Em ambos os planos, o custo é fixo mensal: você não paga por token, só respeita os limites de uso diário e semanal. Calcule o valor da sua hora antes de decidir.
Como evitar que o contexto estoure em sessões longas?
Divida sessões longas em partes menores com objetivos claros. Use CLAUDE.md para guardar contexto de projeto e decisões tomadas. Reinicie a conversa quando perceber que as respostas estão ficando menos precisas. Manter contexto compacto e relevante é mais eficaz do que deixar acumular.
Claude Code alucina com frequência?
Em tarefas genéricas (componentes React, endpoints REST, testes unitários), a taxa de erro é baixa. O problema aparece em integrações com APIs menos populares ou lógica de domínio muito específica. A prática de pedir que o agente explique o raciocínio antes de gerar o código ajuda a identificar erros antes de executar.
Existe risco de depender demais do ecossistema Anthropic?
Sim, e vale levar a sério. A Anthropic mudou as regras de acesso de terceiros ao Claude sem aviso prévio em 2026. Se você constrói workflows críticos sobre a plataforma, inclua um plano de contingência. Para uso pessoal e side projects, o risco é gerenciável. Para infraestrutura de produção, pense duas vezes antes de criar dependência exclusiva.