No dia 25 de março, o GitHub atualizou a política de uso de dados do Copilot. A mudança não veio com muito alarde — um post no blog corporativo, uma atualização nos Termos de Serviço — mas o efeito prático é direto: o que antes era opt-in vira opt-out.
A partir de 24 de abril de 2026, dados de interação com o Copilot passam a ser usados para treinar modelos de IA por padrão. Isso vale para usuários do Copilot Free, Pro e Pro+. Se você não agir antes do dia 24, está dentro do programa automaticamente.
O que o GitHub vai coletar
A política lista o que se enquadra como "interaction data":
- Sugestões aceitas ou modificadas por você
- Código enviado como contexto ao modelo (o que está ao redor do cursor quando o Copilot processa sua requisição)
- Prompts enviados no chat do Copilot
- Nomes de arquivos e estrutura do repositório
- Padrões de navegação pelo código
- Comentários e documentação que você escreve
- Feedback nas sugestões (avaliações de thumbs up/thumbs down)
Não é apenas o código que você aceita. É tudo que o Copilot vê enquanto você trabalha — incluindo o contexto que o editor envia automaticamente, sem nenhuma ação explícita da sua parte.
Os dados coletados podem ser compartilhados com "afiliadas do GitHub" — que incluem a Microsoft. Terceiros externos ao grupo corporativo não têm acesso.
Quem é afetado
A mudança cobre os planos pessoais. Os três planos afetados são Copilot Free, Copilot Pro e Copilot Pro+. Dois planos ficam explicitamente de fora: Copilot Business e Copilot Enterprise.
Para Business e Enterprise, a proteção é contratual: dados de interação nunca são usados para treinamento, e isso não muda. Estudantes e professores com acesso via GitHub Education também estão isentos.
O GitHub informou que quem já tinha desativado a opção anterior de coleta para "melhoria de produto" teve a preferência preservada. Se você já tinha feito opt-out, seu dado continua protegido. Mesmo assim, vale confirmar — a interface mudou com a atualização de março.
O caso dos repositórios privados
O GitHub faz uma distinção que parece clara mas tem uma nuance importante.
Código armazenado "at rest" em repositórios privados está protegido. O GitHub não varre seus repos. O que está em jogo é diferente: quando você usa o Copilot no VS Code, Neovim ou JetBrains, o editor envia automaticamente o contexto ao redor do cursor para o modelo processar. Esse contexto inclui código do seu repositório privado — os arquivos abertos, os imports visíveis, as funções em escopo.
Esse dado em trânsito é exatamente o que a política chama de "interaction data". O GitHub afirma que ele "é necessário para operar o serviço" e pode ser usado para treinamento sem opt-out.
A distinção entre "código at rest protegido" e "código em uso coletável" é legítima tecnicamente, mas pode confundir quem lê o anúncio rapidamente. Se você trabalha em projetos com código proprietário ou sob NDA e usa Copilot nos planos pessoais, essa é a parte que merece atenção.
Como fazer opt-out antes de 24 de abril
O processo leva menos de um minuto:
- Acesse
github.com/settings/copilot/features(ou Settings > Copilot > Features na interface) - Role até a seção Privacy
- Desmarque "Allow GitHub to use my data for AI model training"
- Salve as configurações
Para administradores de organizações nos planos Business ou Enterprise: a coleta de interaction data para treinamento já é desabilitada por padrão no nível organizacional. Nenhuma ação adicional é necessária.
Uma boa notícia: o GitHub manteve as preferências de quem já havia feito opt-out anteriormente. A plataforma informa que "sua escolha foi preservada" — mas confirmar nas configurações é sempre mais seguro do que assumir.
Como os concorrentes tratam seus dados
A mudança gerou comparações diretas com as outras ferramentas principais do mercado.
O Cursor oferece um Privacy Mode que, quando ativo, garante zero data retention — código não é armazenado nem usado para treinamento. O Cursor não treina modelos próprios: repassa as requisições para OpenAI, Anthropic ou outros provedores upstream, seguindo as políticas de cada um. Para planos Business, o Privacy Mode vem habilitado por padrão, sem necessidade de configuração.
O Claude Code segue a política da Anthropic para a API: dados de produção de clientes API não são usados para treinamento sem consentimento explícito. Planos pagos têm controles de privacidade disponíveis por padrão, sem inversão de consentimento para participação.
O Gemini Code Assist, que o Google tornou gratuito para desenvolvedores individuais em março de 2026, tem suas políticas de dados gerenciadas pelo painel do Google Workspace. As configurações variam por produto dentro do ecossistema Google — o que torna o controle um pouco menos imediato do que um único toggle.
Com a mudança, o Copilot passa a ter a política individual mais permissiva para coleta de dados por padrão entre os assistentes de código mainstream. Para usuários Business e Enterprise a situação é diferente. Mas para planos pessoais, a comparação não favorece o Copilot.
Conclusão
O GitHub tem um argumento técnico válido: dados reais de desenvolvedores produzem modelos mais úteis do que dados sintéticos. A lógica não é irracional.
O que fica difícil de defender é a execução. Inverter o modelo de consentimento de opt-in para opt-out comunicando via post de blog 30 dias antes não é o padrão de transparência esperado de uma plataforma usada por dezenas de milhões de desenvolvedores. Quem não acompanha ativamente o blog corporativo do GitHub simplesmente não vai saber.
Se você usa Copilot em projetos pessoais sem código sensível, a coleta pode ser indiferente. Se trabalha com código proprietário, contratos de confidencialidade ou dados que sua empresa preferiria não entrar num pipeline de treinamento, o opt-out é a ação correta.
O prazo é 24 de abril. Três cliques em github.com/settings/copilot/features. Faça agora.
Referências pesquisadas nesta publicação
- Updates to GitHub Copilot interaction data usage policy - The GitHub Blog
- GitHub Enables Copilot Data Collection For AI Training By Default - gHacks Tech News
- GitHub: We going to train on your data after all - The Register
- GitHub's Copilot will use you as AI training data, but you can opt out - How-To Geek
- Copilot Free/Pro/Pro+ interaction data for AI model training - DevelopersIO
- AI Data Retention Policies Compared: OpenAI vs Anthropic vs Google vs GitHub (2026) - AxSentinel