open source culposo, quando não há intenção de compartilhar o código
a anthropic, responsável pelo claude code, vazou acidentalmente todo o código da ferramenta… de novo
A Anthropic, responsável pelo Claude Code, vazou acidentalmente todo o código da ferramenta… de novo. Foram cerca de 500 mil linhas de código expostas por um descuido com arquivos source maps em produção.
Antes de mais nada, é importante entender que o Claude Code não é o LLM desenvolvido pela Anthropic, ele é o que geralmente nós chamamos de ‘harness’ (a melhor tradução que conseguimos pensar é ‘arreios’ ou ‘selas): uma ferramenta que deixa o modelo ‘nos trilhos’ de um comportamento específico e evita que a IA se distraia da sua tarefa.
É ela que provê o contexto e dados necessários para que os modelos de linguagem atuem como um assistente de programação que roda direto no terminal do computador, edita arquivos, executa comandos, gerencia git – faz tudo que uma pessoa desenvolvedora faria, só que com um modelo de IA.
É basicamente o segredo de negócio da Anthropic. E foi isso que vazou.
A empresa afirmou que o vazamento ocorreu devido a um erro humano, e não por um problema na segurança da sua tecnologia. No entanto, o que eles parecem tentar omitir é que já existia um alerta de bug aberto na comunidade avisando que o sistema estava expondo arquivos sensíveis em produção, mas que eles simplesmente ignoraram.
vocês já devem estar vendo o código por aí… então, cuidado
É óbvio que muita gente ficou curiosa pra entender como o Claude Code funciona, então o arquivo original tá circulando de forma não oficial em fóruns e repositórios paralelos e já existem muitas versões maliciosas espalhadas pela internet.
Como a ferramenta depende de dezenas de bibliotecas internas e fechadas da Anthropic, hackers já perceberam a brecha e começaram a registrar pacotes falsos com os mesmos nomes nos diretórios públicos. E então, se você tentar rodar o projeto na sua máquina, o sistema vai baixar automaticamente esses pacotes maliciosos.
Além do risco de segurança, a Anthropic acionou advogados pra derrubar cópias do código via notificações de direitos autorais. Por isso, aqui vai um aviso do TeClas:
Não hospedem os forks desse código no seu github. Manter esse código no seu HD ou em repositórios dá aos advogados do vale do silício o pretexto perfeito para processar pessoas comuns e testarem novas doutrinas legais sobre propriedade intelectual e IA com vocês 🤷♂️
o grande reset
Diferente do que a Anthropic defende, desenvolver sistemas complexos usando IA não é um problema resolvido. Eu diria que a inteligência artificial ainda não é capaz nem mesmo de desenvolver sistemas simples da forma como vendem.
E falo isso sabendo que é impossível de parar agora. Infelizmente a gente vai continuar tendo que entregar produtos digitais cada vez mais rápido. Só que esse ritmo em que estamos criando software em 2026 é a forma mais rápida de gerar bugs, vulnerabilidades de segurança e dívida técnica.
Vamos ver como esses produtos vibecodados vão estar daqui a um ano. Será que sistemas feitos com código que a pessoa “criadora” não sabe ler podem ser realmente seguros? Será que o custo de tokens e processamento dessas ferramentas terceirizadas não vai acabar ficando mais caro do que a receita que a própria empresa gera?
Sei lá 😀
Só sei que a próxima grande crise do mercado de tecnologia vai ser causada por essa pressa em fingir que a máquina já faz o trabalho de pensar por nós, ao invés de focar em construir soluções reais.





Eu PRECISO dessa imagem de capa como sticker de zap, PLIS