11:36
youtube.com ontem SRT AI Coder TODAY

Gemma 4 + Ollama = FREE Claude Code Setup!

Gemma 4 e Ollama se unem para trazer um setup de Claude Code de graça!

Claude Tecnologia Open Models Gemma 4

Conteudo

TLDR;

É possível rodar o Claude Code de graça redirecionando chamadas para modelos Gemma 4 locais via Ollama/Olama e integrando com Cloud Code para evitar limites de taxa. Use o utilitário "Can I run AI" para escolher a variante Gemma 4 compatível com seu hardware (por exemplo 4B para tarefas leves, 26B para bom equilíbrio de desempenho e 31B para máxima qualidade). Os passos são: verificar compatibilidade com "Can I run AI", instalar Ollama/Olama, baixar o modelo Gemma 4 via comando CLI do model card, manter o Olama rodando, instalar Cloud Code e configurar as variáveis de ambiente conforme o guia da Olama.

Resumo

Google lançou recentemente a família open‑source Gemma 4 (licença Apache 2.0), focada em “inteligência por parâmetro”: modelos menores alcançam desempenho similar a modelos muito maiores, às vezes superando modelos até 20 vezes maiores. Foram anunciadas quatro variantes: 2B (ultraeficiente para mobile/edge), 4B (melhor desempenho de edge e multimodal), 26B (altamente eficiente, ativa ~3,8–8B durante inferência) e 31B denso (qualidade máxima, desempenho aberto de alto nível). Em testes, o 26B surpreendeu ao oferecer alta velocidade e eficiência — rodando até ~300 tokens/s em hardware antigo como um Mac Studio M2 Ultra — tornando o uso local viável para desenvolvimento. Isso facilita integrar Gemma 4 a fluxos agentivos como Claude Code, especialmente usando Olama para executar modelos locais e contornar limites de taxa, combinando modelos locais leves (ex.: 4B) com Cloud Code para escalar quando necessário. O vídeo também promove Claus, serviço patrocinador que simplifica rodar OpenClaw na nuvem sem terminal, oferecendo créditos e integrações com ferramentas como Slack, Google Workspace e automações. Por fim, o conteúdo orienta passo a passo: usar “Can I run AI” para escolher variante conforme GPU/VRAM, instalar Olama (provider local), baixar Gemma via CLI, acessar pelo chatbot Olama e instalar Cloud Code seguindo comandos e variáveis de ambiente indicados no blog.