Em um mundo cada vez mais digital, os dados pessoais se tornaram um ativo valioso, especialmente para o treinamento de Inteligências Artificiais (IA). Mas como os usuários podem identificar quando seus dados estão sendo usados para esse fim? E mais importante, como podem se proteger?
A entrevista com Rafael Federici, advogado e sócio de Comparato, Nunes, Federici & Pimentel Advogados, traz insights fundamentais sobre os principais sinais de uso indevido e as melhores práticas para resguardar as informações pessoais.
Seus dados estão sendo usados para treinar IA?
De acordo com Rafael Federici, não é incomum que as plataformas de IA utilizem os dados digitados pelos usuários para treinamento da ferramenta, desde que dentro das regras propostas pela plataforma e dos consentimentos fornecidos pelos usuários.
O principal sinal de que uma plataforma pode estar utilizando seus dados para treinar IA está nas informações presentes na política de privacidade. “A ausência de informações claras sobre o uso de dados ou mudanças frequentes nos termos de serviço sem notificações adequadas devem servir como um alerta”, comenta.
O especialista ainda elenca os principais pontos de atenção:
- Políticas de privacidade longas e confusas;
- Mudanças nos termos sem aviso prévio;
- Solicitações frequentes e invasivas de permissões.
Além disso, políticas de privacidade podem ser cansativas, mas são essenciais para entender como seus dados serão tratados. Rafael Federici aconselha que os usuários devem focar em questões-chave, como:
- Quais dados são coletados e para quais finalidades;
- Se os dados são usados para treinamento de modelos de IA;
- Medidas de segurança adotadas para proteger os dados.
Ações práticas para proteger dados
Além de revisar cuidadosamente as políticas de privacidade, existem medidas práticas que os usuários podem adotar para proteger suas informações pessoais. “Minimizar a quantidade de dados sensíveis fornecidos, usar senhas fortes e habilitar a autenticação em dois fatores são boas práticas de segurança“, aconselha o advogado.
Outras dicas incluem:
Minimizar informações pessoais
Evite fornecer dados sensíveis, como números de identificação ou endereços completos. Segundo Rafael Federici, manter as interações o mais anônimas possível pode evitar que dados importantes sejam usados para treinar IA.
Cuidado ao elaborar prompts para IA
Quando estiver interagindo com uma ferramenta de IA, certifique-se de que seus prompts não incluem dados pessoais. “Formule perguntas de forma mais genérica para proteger sua privacidade”, sugere o profissional.
Uso de identidades genéricas
Ao criar cenários hipotéticos em plataformas, usar nomes e situações fictícias pode ser uma camada adicional de proteção.
Revisão e edição de respostas
Após receber respostas de plataformas de IA, revise o conteúdo para garantir que nenhuma informação sensível foi acidentalmente incluída. Se necessário, edite ou exclua partes da interação.
Educação digital e o conhecimento dos direitos
Se uma plataforma não seguir as regulamentações de proteção de dados, como a Lei Geral de Proteção de Dados (LGPD), os usuários têm o direito de recorrer e podem registrar uma reclamação junto à Autoridade Nacional de Proteção de Dados (ANPD) ou procurar assistência jurídica caso os direitos tenham sido violados.
“Nas jurisdições que oferecem proteções adequadas aos usuários, como no Brasil, através da LGPD, estas plataformas têm sim a responsabilidade de fornecer informações claras e acessíveis sobre como os dados são coletados, utilizados e protegidos. Isso inclui explicar de forma transparente se e como os dados dos usuários são utilizados para treinar modelos de IA, garantindo que os usuários possam tomar decisões informadas sobre o uso de seus dados”, pontua.
Também nesse cenário, vem o questionamento: como as grandes plataformas podem educar os usuários sobre proteção de dados?
Para Rafael Federici, a responsabilidade não recai apenas sobre os consumidores, mas também sobre as grandes plataformas de tecnologia, que têm um papel crucial na educação dos usuários sobre proteção de dados. Ele reforça que essas empresas devem fornecer informações claras sobre como os dados são coletados e usados, especialmente para treinar IA.
Além das medidas mencionadas para proteger os dados pessoais, é importante destacar que a conscientização sobre privacidade digital ainda é um desafio global. Muitas vezes, os usuários aceitam os termos de uso de plataformas sem ler as políticas de privacidade, o que facilita o uso indevido de seus dados. “O problema é que a maioria das pessoas não têm o hábito de revisar as permissões concedidas”, observa Rafael Federici. Para mudar esse cenário, a educação digital se torna essencial.
Responsabilidade compartilhada
O profissional sugere que campanhas de conscientização sejam realizadas tanto pelo governo quanto pelas próprias empresas de tecnologia. “É necessário que os usuários sejam constantemente informados sobre seus direitos e sobre os riscos envolvidos no compartilhamento de dados on-line”, afirma. A inclusão de informações simples e de fácil acesso sobre o uso de dados pode fazer a diferença no nível de transparência e confiança entre usuários e plataformas.
Outra prática recomendada é o uso de ferramentas que aumentem a privacidade digital, como navegadores e mecanismos de busca focados em proteção de dados, além de extensões que bloqueiam rastreadores. “Esses recursos ajudam a evitar que os dados de navegação sejam coletados sem o consentimento do usuário”, acrescenta o advogado.
Essas ações, quando combinadas com uma leitura cuidadosa das políticas e o uso consciente das plataformas, formam a base para uma proteção mais robusta e eficaz dos dados pessoais.
Em última instância, a proteção dos dados pessoais depende tanto da conscientização dos usuários quanto da responsabilidade das plataformas. Campanhas educativas, maior transparência nas políticas de privacidade e o desenvolvimento de boas práticas ao interagir com ferramentas de IA são essenciais. “A conscientização pode ser ampliada através de campanhas educativas e informações claras nas plataformas”, conclui Rafael Federici.
*Foto: DALL·E.