No dia 25 de março, o GitHub atualizou a política de uso de dados do Copilot. A mudança não veio com muito alarde — um post no blog corporativo, uma atualização nos Termos de Serviço — mas o efeito prático é direto: o que antes era opt-in vira opt-out.

A partir de 24 de abril de 2026, dados de interação com o Copilot passam a ser usados para treinar modelos de IA por padrão. Isso vale para usuários do Copilot Free, Pro e Pro+. Se você não agir antes do dia 24, está dentro do programa automaticamente.

O que o GitHub vai coletar

A política lista o que se enquadra como "interaction data":

  • Sugestões aceitas ou modificadas por você
  • Código enviado como contexto ao modelo (o que está ao redor do cursor quando o Copilot processa sua requisição)
  • Prompts enviados no chat do Copilot
  • Nomes de arquivos e estrutura do repositório
  • Padrões de navegação pelo código
  • Comentários e documentação que você escreve
  • Feedback nas sugestões (avaliações de thumbs up/thumbs down)

Não é apenas o código que você aceita. É tudo que o Copilot vê enquanto você trabalha — incluindo o contexto que o editor envia automaticamente, sem nenhuma ação explícita da sua parte.

Os dados coletados podem ser compartilhados com "afiliadas do GitHub" — que incluem a Microsoft. Terceiros externos ao grupo corporativo não têm acesso.

Quem é afetado

A mudança cobre os planos pessoais. Os três planos afetados são Copilot Free, Copilot Pro e Copilot Pro+. Dois planos ficam explicitamente de fora: Copilot Business e Copilot Enterprise.

Para Business e Enterprise, a proteção é contratual: dados de interação nunca são usados para treinamento, e isso não muda. Estudantes e professores com acesso via GitHub Education também estão isentos.

O GitHub informou que quem já tinha desativado a opção anterior de coleta para "melhoria de produto" teve a preferência preservada. Se você já tinha feito opt-out, seu dado continua protegido. Mesmo assim, vale confirmar — a interface mudou com a atualização de março.

O caso dos repositórios privados

O GitHub faz uma distinção que parece clara mas tem uma nuance importante.

Código armazenado "at rest" em repositórios privados está protegido. O GitHub não varre seus repos. O que está em jogo é diferente: quando você usa o Copilot no VS Code, Neovim ou JetBrains, o editor envia automaticamente o contexto ao redor do cursor para o modelo processar. Esse contexto inclui código do seu repositório privado — os arquivos abertos, os imports visíveis, as funções em escopo.

Esse dado em trânsito é exatamente o que a política chama de "interaction data". O GitHub afirma que ele "é necessário para operar o serviço" e pode ser usado para treinamento sem opt-out.

A distinção entre "código at rest protegido" e "código em uso coletável" é legítima tecnicamente, mas pode confundir quem lê o anúncio rapidamente. Se você trabalha em projetos com código proprietário ou sob NDA e usa Copilot nos planos pessoais, essa é a parte que merece atenção.

Como fazer opt-out antes de 24 de abril

O processo leva menos de um minuto:

  1. Acesse github.com/settings/copilot/features (ou Settings > Copilot > Features na interface)
  2. Role até a seção Privacy
  3. Desmarque "Allow GitHub to use my data for AI model training"
  4. Salve as configurações

Para administradores de organizações nos planos Business ou Enterprise: a coleta de interaction data para treinamento já é desabilitada por padrão no nível organizacional. Nenhuma ação adicional é necessária.

Uma boa notícia: o GitHub manteve as preferências de quem já havia feito opt-out anteriormente. A plataforma informa que "sua escolha foi preservada" — mas confirmar nas configurações é sempre mais seguro do que assumir.

Como os concorrentes tratam seus dados

A mudança gerou comparações diretas com as outras ferramentas principais do mercado.

O Cursor oferece um Privacy Mode que, quando ativo, garante zero data retention — código não é armazenado nem usado para treinamento. O Cursor não treina modelos próprios: repassa as requisições para OpenAI, Anthropic ou outros provedores upstream, seguindo as políticas de cada um. Para planos Business, o Privacy Mode vem habilitado por padrão, sem necessidade de configuração.

O Claude Code segue a política da Anthropic para a API: dados de produção de clientes API não são usados para treinamento sem consentimento explícito. Planos pagos têm controles de privacidade disponíveis por padrão, sem inversão de consentimento para participação.

O Gemini Code Assist, que o Google tornou gratuito para desenvolvedores individuais em março de 2026, tem suas políticas de dados gerenciadas pelo painel do Google Workspace. As configurações variam por produto dentro do ecossistema Google — o que torna o controle um pouco menos imediato do que um único toggle.

Com a mudança, o Copilot passa a ter a política individual mais permissiva para coleta de dados por padrão entre os assistentes de código mainstream. Para usuários Business e Enterprise a situação é diferente. Mas para planos pessoais, a comparação não favorece o Copilot.

Conclusão

O GitHub tem um argumento técnico válido: dados reais de desenvolvedores produzem modelos mais úteis do que dados sintéticos. A lógica não é irracional.

O que fica difícil de defender é a execução. Inverter o modelo de consentimento de opt-in para opt-out comunicando via post de blog 30 dias antes não é o padrão de transparência esperado de uma plataforma usada por dezenas de milhões de desenvolvedores. Quem não acompanha ativamente o blog corporativo do GitHub simplesmente não vai saber.

Se você usa Copilot em projetos pessoais sem código sensível, a coleta pode ser indiferente. Se trabalha com código proprietário, contratos de confidencialidade ou dados que sua empresa preferiria não entrar num pipeline de treinamento, o opt-out é a ação correta.

O prazo é 24 de abril. Três cliques em github.com/settings/copilot/features. Faça agora.

Referências pesquisadas nesta publicação