Stop Paying Anthropic $200/month for Claude Code (Do This Instead)
Por Ankita Kulkarni
Conteudo
TLDR;
Use o Ollama para rodar modelos open-source locais como Llama 3 ou GBD OSS 20B com um proxy que substitui o backend da Anthropic no Claude Code, tornando-o gratuito.. Instale o Ollama de ollama.com, baixe um modelo, configure as variáveis ANTHROPIC_BASE_URL=http://localhost:11434/v1 e ANTHROPIC_API_KEY com um valor qualquer, e execute claude -m nome_do_modelo no terminal.. Você obtém 90% da experiência do Claude Code com edição de arquivos e tool calling por $0, sem dados saindo da máquina, mas precisa de hardware potente e os modelos são menos inteligentes que o Opus 4.5.
Resumo
O vídeo apresenta um tutorial para criar uma versão gratuita e local do Claude Code, substituindo o caro modelo Opus 4.5 da Anthropic (que pode custar US$ 200/mês para desenvolvedores intensivos) por modelos open-source rodando na própria máquina. O autor elogia o Claude Code por suas capacidades em codificação, como edição de arquivos e uso de ferramentas, mas destaca a solução acessível: 90% da experiência sem custos, chaves de API ou envio de dados para a nuvem. Utilizando o Ollama (baixe em ollama.com), é possível instalar modelos potentes como Llama 3, GLM-4 ou GBD OSS 20B localmente. Após instalar o Claude Code no terminal, configure variáveis de ambiente: ANTHROPIC_BASE_URL para "http://localhost:11434" (porta do Ollama) e uma ANTHROPIC_API_KEY falsa (ex: "token"). Em seguida, execute "claude --model [nome-do-modelo]" para redirecionar as consultas ao modelo local. Na demonstração, o setup cria um app Next.js "Hello World" com TypeScript, instalando dependências, gerando arquivos e rodando o servidor em localhost:3000 com sucesso. Vantagens incluem privacidade total, zero custos e foco em hardware potente para respostas rápidas; 2026 é visto como o ano dos modelos open-source. (198 palavras)