Negócios

Claude Code custa até US$200/mês. Goose faz o mesmo, de graça.

19/01/2026
2 visualizações
2 min de leitura
VentureBeat AI
Claude Code custa até US$200/mês. Goose faz o mesmo, de graça.

A revolução da codificação por inteligência artificial (IA) tem um custo elevado, exemplificado pelo Claude Code da Anthropic. Este agente de IA baseado em terminal, capaz de escrever, depurar e implantar código de forma autônoma, tem preços que variam de US$20 a US$200 por mês, dependendo do uso. Essa estrutura de preços, juntamente com limites de uso (rate limits) controversos, tem gerado insatisfação entre os desenvolvedores que deveriam ser os principais beneficiários da ferramenta. Em resposta a essa insatisfação, uma alternativa gratuita e de código aberto, chamada Goose, está ganhando grande popularidade. Desenvolvido pela Block (anteriormente Square), o Goose oferece funcionalidades quase idênticas às do Claude Code, mas com a vantagem crucial de rodar inteiramente na máquina local do usuário. Isso elimina a necessidade de taxas de assinatura, dependência de serviços em nuvem e os irritantes limites de uso que se redefinem a cada poucas horas. O principal apelo do Goose é o controle total e a privacidade dos dados, permitindo que o trabalho seja realizado offline. O projeto demonstrou um crescimento explosivo, acumulando mais de 26.100 estrelas no GitHub e um ritmo de desenvolvimento que rivaliza com produtos comerciais. Para os desenvolvedores frustrados com as restrições e o custo do Claude Code, o Goose representa uma opção genuinamente gratuita e sem compromissos para trabalhos sérios em IA.

Espaço para anúncio

Configure VITE_ADSENSE_CLIENT_ID

A revolução da codificação por inteligência artificial (IA) vem com um porém: é cara. O Claude Code, o agente de IA baseado em terminal da Anthropic que pode escrever, depurar e implantar código de forma autônoma, capturou a imaginação de desenvolvedores de software em todo o mundo. Mas seu preço – variando de US$20 a US$200 por mês, dependendo do uso – desencadeou uma crescente rebelião entre os próprios programadores que ele visa atender. Agora, uma alternativa gratuita está ganhando força. O Goose, um agente de IA de código aberto desenvolvido pela Block (a empresa de tecnologia financeira anteriormente conhecida como Square), oferece funcionalidade quase idêntica ao Claude Code, mas roda inteiramente na máquina local do usuário. Sem taxas de assinatura. Sem dependência de nuvem. Sem limites de taxa (rate limits) que se redefinem a cada cinco horas. “Seus dados permanecem com você, ponto final”, disse Parth Sareen, um engenheiro de software que demonstrou a ferramenta durante uma recente transmissão ao vivo. O comentário capta o apelo central: o Goose oferece aos desenvolvedores controle total sobre seu fluxo de trabalho alimentado por IA, incluindo a capacidade de trabalhar offline – mesmo em um avião. O projeto explodiu em popularidade. O Goose agora ostenta mais de 26.100 estrelas no GitHub, a plataforma de compartilhamento de código, com 362 colaboradores e 102 lançamentos desde seu lançamento. A versão mais recente, 1.20.1, foi lançada em 19 de janeiro de 2026, refletindo um ritmo de desenvolvimento que rivaliza com produtos comerciais. Para desenvolvedores frustrados com a estrutura de preços e os limites de uso do Claude Code, o Goose representa algo cada vez mais raro na indústria de IA: uma opção genuinamente gratuita e sem compromissos para trabalho sério. **Os novos limites de taxa da Anthropic desencadeiam uma revolta de desenvolvedores** Para entender por que o Goose é importante, é preciso entender a controvérsia dos preços do Claude Code. A Anthropic, a empresa de inteligência artificial de São Francisco fundada por ex-executivos da OpenAI, oferece o Claude Code como parte de seus níveis de assinatura. O plano gratuito não oferece acesso algum. O plano Pro, por US$17 por mês com cobrança anual (ou US$20 mensal), limita os usuários a apenas 10 a 40 prompts a cada cinco [horas].

💡Nossa Análise

A emergência do Goose como alternativa gratuita e de código aberto ao custoso Claude Code da Anthropic ressoa profundamente no cenário tecnológico brasileiro. Para o Brasil, onde o custo de licenças de software e serviços em nuvem, muitas vezes dolarizados, representa um desafio significativo para startups, pequenas e médias empresas (PMEs) e até mesmo grandes corporações, a proposta do Goose é extremamente atraente. Profissionais autônomos e desenvolvedores individuais, que buscam otimizar seus custos operacionais para se manterem competitivos, encontram no Goose uma ferramenta que democratiza o acesso a capacidades avançadas de IA para codificação. Além disso, a execução local do Goose, sem dependência de nuvem, é um diferencial importante em regiões com infraestrutura de internet menos robusta ou para empresas com políticas rigorosas de privacidade de dados, eliminando preocupações com a soberania e o tráfego de informações sensíveis para servidores estrangeiros. Criticamente, a ascensão do Goose destaca uma tendência vital na indústria de IA: a demanda por soluções que equilibrem poder computacional com acessibilidade e controle. A insatisfação com modelos de precificação e limites de uso do Claude Code sublinha que, para a adoção massiva de ferramentas de IA, a comunidade de desenvolvedores valoriza a liberdade e a autonomia. O Goose não apenas oferece uma alternativa econômica, mas também fortalece o ecossistema de código aberto no Brasil, incentivando a colaboração e a inovação local. O desafio, contudo, reside na manutenção do ritmo de desenvolvimento e na garantia de que a comunidade brasileira de desenvolvedores contribua ativamente para aprimorar e adaptar o Goose às particularidades do mercado local, como a compatibilidade com frameworks e linguagens específicas ou a integração com sistemas legados comuns em empresas brasileiras. Olhando para o futuro da IA, o sucesso do Goose sinaliza uma bifurcação importante. De um lado, teremos soluções proprietárias de alta performance, mas com custos e restrições inerentes; do outro, um ecossistema robusto de IA de código aberto, impulsionado pela comunidade, que oferece flexibilidade, transparência e controle. Essa dinâmica pode acelerar a inovação ao forçar os provedores comerciais a repensar seus modelos de negócios e a oferecer mais valor. Para o Brasil, isso significa uma oportunidade de construir competências em IA sem a barreira de entrada financeira, formando uma nova geração de talentos capazes de desenvolver e personalizar ferramentas de IA para as necessidades locais, impulsionando a transformação digital de forma mais inclusiva e soberana. O controle sobre os dados e a capacidade de operar offline são, sem dúvida, vetores que moldarão as futuras aplicações de IA, especialmente em setores críticos como finanças, saúde e governo.

Espaço para anúncio

Configure VITE_ADSENSE_CLIENT_ID

Leia Também

CEO da Newsweek, Dev Pragad, alerta editoras: adaptem-se à medida que a IA se torna portal de notícias

CEO da Newsweek, Dev Pragad, alerta editoras: adaptem-se à medida que a IA se torna portal de notícias

Dev Pragad, CEO da Newsweek, alerta as editoras sobre a mudança fundamental na relação entre jornalismo e público, impulsionada pela ascensão da inteligência artificial. Com plataformas de IA e interfaces conversacionais cada vez mais mediando o acesso das pessoas às notícias, a forma como as audiências descobrem e confiam na informação está sendo redefinida, muitas vezes antes mesmo de visitarem o site de uma editora. Essa transformação exige que as empresas de mídia repensem suas estratégias para permanecerem relevantes e acessíveis em um cenário dominado pela IA. Pragad enfatiza que, embora a IA possa representar um desafio, ela também oferece oportunidades significativas para o jornalismo. Ele sugere que as editoras devem se concentrar em produzir conteúdo de alta qualidade e com autoridade, que se destaque em meio ao ruído gerado pela IA. Além disso, é crucial que as organizações de notícias colaborem com desenvolvedores de IA para garantir que o jornalismo ético e factual seja priorizado nos algoritmos e modelos de IA. A adaptação não é apenas sobre tecnologia, mas sobre a reavaliação do valor e da entrega do jornalismo na era da IA.

13 de fev. de 2026
3 visualizações
IA em Múltiplas GPUs: Operações Ponto a Ponto e Coletivas

IA em Múltiplas GPUs: Operações Ponto a Ponto e Coletivas

Este artigo foca nas operações distribuídas do PyTorch para cargas de trabalho de IA que utilizam múltiplas GPUs. Ele explora como a inteligência artificial pode ser escalada de forma eficiente aproveitando o poder de processamento paralelo de várias unidades de processamento gráfico (GPUs), um aspecto crucial para treinar modelos complexos e lidar com grandes volumes de dados. A discussão abrange dois tipos principais de comunicação entre GPUs: operações ponto a ponto e operações coletivas. As operações ponto a ponto envolvem a comunicação direta entre pares de GPUs, permitindo a troca de dados específicos. Já as operações coletivas coordenam a comunicação entre um grupo maior de GPUs, facilitando tarefas como a agregação de gradientes ou a distribuição de modelos. A compreensão e implementação eficaz dessas operações são fundamentais para otimizar o desempenho e a eficiência do treinamento de modelos de deep learning em ambientes distribuídos, garantindo que o potencial computacional de cada GPU seja plenamente utilizado.

13 de fev. de 2026
28 visualizações
Além dos limites de taxa: escalando o acesso a Codex e Sora

Além dos limites de taxa: escalando o acesso a Codex e Sora

A OpenAI desenvolveu um sistema inovador para gerenciar o acesso contínuo às suas poderosas ferramentas de IA, como o Codex e o Sora. Este sistema vai além dos tradicionais limites de taxa (rate limits), combinando-os com um rastreamento detalhado de uso e um modelo de créditos flexível. O objetivo é permitir que desenvolvedores e usuários acessem essas capacidades de IA de forma consistente, mesmo diante de uma demanda crescente e da necessidade de alocar recursos computacionais de forma eficiente. Tradicionalmente, os limites de taxa são usados para evitar sobrecarga de sistemas e garantir fair usage, mas podem ser restritivos para aplicações que exigem alta disponibilidade e escalabilidade. A abordagem da OpenAI visa otimizar a experiência do usuário, oferecendo um acesso mais dinâmico e responsivo, onde o consumo é medido por créditos que podem ser ajustados com base na complexidade das operações e na capacidade do usuário. Isso permite uma gestão mais granular e adaptável dos recursos, essencial para modelos de IA que consomem muitos recursos computacionais. Ao integrar limites de taxa, monitoramento de uso e um sistema de créditos, a OpenAI busca criar um ecossistema robusto que suporte o crescimento e a inovação. Este modelo garante que os usuários possam escalar suas aplicações sem interrupções abruptas, ao mesmo tempo em que a empresa mantém o controle sobre a infraestrutura e a sustentabilidade do serviço. É uma solução sofisticada para o desafio de democratizar o acesso a tecnologias de IA de ponta, equilibrando performance, custo e disponibilidade.

13 de fev. de 2026
2 visualizações
Gemini 3.1 Pro: Um modelo mais inteligente para suas tarefas mais complexas

Gemini 3.1 Pro: Um modelo mais inteligente para suas tarefas mais complexas

O Gemini 3.1 Pro é um avanço significativo no campo dos modelos de linguagem, projetado especificamente para lidar com tarefas que exigem mais do que respostas diretas e superficiais. Este modelo representa uma evolução na capacidade de processamento e compreensão, permitindo que os usuários enfrentem desafios computacionais e analíticos de alta complexidade com maior eficiência e precisão. Sua arquitetura foi otimizada para cenários onde a nuance, o contexto e a interconexão de informações são cruciais. Isso o torna ideal para aplicações que vão desde a análise de grandes volumes de dados não estruturados até a geração de conteúdo criativo e a resolução de problemas que demandam raciocínio multifacetado. O Gemini 3.1 Pro se posiciona como uma ferramenta poderosa para desenvolvedores e empresas que buscam elevar o nível de suas soluções baseadas em inteligência artificial, oferecendo uma plataforma robusta para inovação. Em essência, o modelo visa preencher a lacuna onde as soluções existentes podem falhar em fornecer a profundidade e a sofisticação necessárias. Ao focar em tarefas complexas, o Gemini 3.1 Pro promete desbloquear novas possibilidades em pesquisa, desenvolvimento de produtos e automação inteligente, solidificando sua posição como um recurso valioso no ecossistema da IA.

19 de fev. de 2026
2 visualizações

Compartilhar Artigo

O que você achou deste artigo?

Comentários (0)

Seus comentários serão moderados antes de aparecerem publicamente.

Nenhum comentário ainda. Seja o primeiro a comentar!