A Anthropic anunciou mudanças em seus Termos do Consumidor e Política de Privacidade. Agora, eles passam a valer para os usuários dos planos Claude Free, Pro e Max. A principal novidade é a possibilidade usuários escolherem se desejam permitir que seus dados sejam utilizados no treinamento de futuros modelos de Inteligência Artificial da empresa.
Com a atualização, a companhia busca equilibrar transparência, privacidade e evolução tecnológica. Além disso, ao optar por compartilhar informações, os usuários contribuem para tornar os sistemas do Claude mais eficientes e seguros, especialmente em áreas como detecção de conteúdo nocivo, codificação, análise e raciocínio lógico.
“Agora, oferecemos aos usuários a opção de permitir que seus dados sejam usados para aprimorar o Claude e fortalecer nossas proteções contra uso prejudicial, como golpes e abusos. Ajustar suas preferências é fácil e pode ser feito a qualquer momento”, comenta a empresa em nota.
De acordo com a empresa, grandes modelos de linguagem precisam de vastos volumes de dados para evoluir. Interações reais dos usuários oferecem sinais valiosos sobre quais respostas são mais úteis, precisas e relevantes. Um exemplo citado é a depuração de código: quando um desenvolvedor corrige um programa com auxílio do Claude, o registro dessa interação fornece pistas fundamentais para treinar modelos futuros em tarefas semelhantes.
Quem será impactado?
As atualizações se aplicam exclusivamente aos planos individuais Free, Pro e Max, incluindo o Claude Code, quando utilizado em contas associadas a esses serviços. Já os produtos sob Termos Comerciais, como Claude for Work, Claude Gov, Claude for Education, além de integrações via APIs em plataformas como Amazon Bedrock e Google Cloud Vertex AI, não serão impactados pelas mudanças.
“Ao participar, você nos ajudará a melhorar a segurança dos modelos, tornando nossos sistemas de detecção de conteúdo nocivo mais precisos e menos propensos a sinalizar conversas inofensivas”, frisa a empresa. “Você sempre controla esta configuração e se usamos seus dados dessa forma. Se você for um novo usuário, poderá selecionar sua preferência durante o processo de cadastro.”
Usuários atuais terão até 28 de setembro de 2025 para revisar e aceitar os novos termos. Aqueles que já decidirem ativar a configuração imediatamente terão a atualização aplicada de forma instantânea, mas apenas em novos chats e sessões de programação. Conversas anteriores não serão aproveitadas para treinamento.
Novos clientes verão a opção de consentimento já no momento da inscrição. Em ambos os casos, a decisão poderá ser modificada a qualquer momento nas Configurações de Privacidade.
Retenção de dados ampliada
Outra mudança apresentada é a ampliação do prazo de retenção de dados, que passa de 30 dias para cinco anos, mas apenas para quem autorizar o uso de suas informações no treinamento dos modelos. A medida busca alinhar os ciclos de desenvolvimento da IA, que podem levar até dois anos entre pesquisa e lançamento.
“Manter os dados consistentes durante todo o processo de treinamento também ajuda a tornar os modelos mais consistentes: modelos treinados com dados semelhantes responderão, raciocinarão e produzirão resultados de maneiras semelhantes, tornando as mudanças entre as atualizações do modelo muito mais suaves para os usuários”, explica.
Se o usuário excluir chats específicos ou a própria conta, esses dados não serão usados em treinamentos futuros. Já os conteúdos apagados não retroativamente serão eliminados de modelos já treinados.
Como funciona o processo de consentimento
Os usuários existentes receberão uma notificação dentro do aplicativo solicitando que definam suas preferências de compartilhamento de dados. Será possível aceitar imediatamente, recusar ou adiar a decisão.
Aqueles que aceitarem terão seus novos chats e sessões de programação retidos por até cinco anos e usados para aprimorar o Claude. Os que recusarem continuarão no regime atual de retenção de 30 dias. A Anthropic reforça que não vende dados de usuários a terceiros e que utiliza “uma combinação de ferramentas e processos automatizados para filtrar ou ofuscar informações confidenciais”.
A empresa afirma ainda que o prolongamento do período de retenção também servirá para aprimorar classificadores automáticos, que ajudam a identificar usos abusivos, como spam, golpes ou assédio. Caso um cliente permita o uso de seus dados e depois opte por retirar o consentimento, a mudança só valerá para novos chats e sessões. Informações já utilizadas em treinamentos anteriores não poderão ser retiradas de modelos já concluídos. Ainda assim, a Anthropic reforça que o controle está nas mãos do usuário.
“Cabe a você escolher se permite ou não que seus dados sejam usados para melhorar novos modelos do Claude e você pode alterar sua escolha a qualquer momento”, finaliza.
*Foto: Anthropic






