A Autoridade Nacional de Proteção de Dados (ANPD) emitiu uma ordem preventiva exigindo que a Meta Platforms, incluindo o Facebook Serviços Online do Brasil, suspenda imediatamente sua nova política de privacidade referente ao uso de dados pessoais para o treinamento de sistemas de Inteligência Artificial (IA) generativa. A decisão tem como objetivo proteger os direitos dos titulares dos dados e evitar possíveis danos graves e irreparáveis. A Meta terá que comprovar a conformidade em cinco dias úteis. Ademais, o conglomerado de tecnologia está sujeito a uma multa diária de R$ 50 mil por descumprimento.
Ana Paula Siqueira, advogada especializada em Direito Digital, esclarece a determinação da ANPD. “Trata-se de uma medida preventiva adotada pelos diretores da reguladora para resguardar os direitos dos titulares de dados pessoais. O objetivo é prevenir danos graves ou irreparáveis. Ela pode ser executada de imediato e sem aviso prévio ao interessado. Há a possibilidade de aplicação de multa diária em caso de descumprimento”.
IA para crianças e adolescentes
Precipuamente, a postura da empresa é analisada de forma preliminar, sendo seguida por uma avaliação mais detalhada por meio de um processo de fiscalização.
A ANPD determinou a suspensão da nova política de privacidade da Meta devido a riscos aos direitos de crianças e adolescentes brasileiros frente à IA. Essa política passou a permitir o uso de informações publicamente disponíveis e conteúdos compartilhados em plataformas como Facebook, Messenger e Instagram para treinamento de IA generativa. Ao todo, segundo a ANPD, 102 milhões de usuários no Brasil seriam impactados.
Por consequência, a ANPD deu início a um processo de fiscalização ao identificar possíveis violações à Lei Geral de Proteção de Dados (LGPD).
IA frente ao ECA e à LGPD
Nesse ínterim, a Lei nº 8.069/1990, conhecida como Estatuto da Criança e do Adolescente (ECA), estabelece que crianças são pessoas com até doze anos incompletos. De conformidade, os adolescentes são aqueles com idades entre doze e dezoito anos. O ECA tem como objetivo garantir a proteção integral das crianças e dos adolescentes.
Por conseguinte, o Estatuto assegura-lhes as oportunidades necessárias para seu desenvolvimento em um ambiente de liberdade e dignidade. Em síntese, esse dispositivo também está previsto no artigo 227 da Constituição Federal.
Importante ressaltar que o ECA destaca a importância de garantias e ações de redução de riscos, especialmente no manuseio de informações pessoais de menores.
E, analogamente ao ECA, está o artigo 14 da LGPD. Nesse sentido, é exigido que o tratamento de dados de crianças e adolescentes seja feito no melhor interesse do menor. Precipuamente, para seguir a lei, é necessário observar os princípios e demais normas aplicáveis a qualquer processo de manipulação de dados.
Ana Paula então explica que a ANPD concluiu que a Meta não forneceu informações adequadas para que os titulares compreendessem as consequências do uso de seus dados para IA. E, em virtude dessa situação, obstáculos injustificados ao acesso às informações e ao exercício de direitos foram criados. “Ademais, a hipótese legal utilizada pela Meta, sobre o legítimo interesse, foi considerada inadequada, especialmente para dados sensíveis e de menores, por não observar os princípios de finalidade e necessidade“, explicou a especialista.
A visão da ANPD
Os dados compartilhados nas plataformas da Meta, segundo ela própria, são geralmente destinados a interações pessoais. Em suma, a empresa alega que tais informações não são voltadas para treinar sistemas de Inteligência Artificial, os quais nem existiam quando muitos dados foram compartilhados.
Entretanto, a coleta e utilização de dados de crianças e adolescentes para a IA viola a LGPD, que exige salvaguardas e medidas de mitigação de risco em tais casos.
Diante dessas constatações, a ANPD ordenou que a Meta suspenda imediatamente sua política de privacidade e o tratamento de dados para IA. “Por isso foi estabelecida a multa diária de R$ 50 mil por descumprimento. A empresa terá que demonstrar a conformidade de suas práticas com a legislação em vigor”, comenta a advogada.
O lado bom
Com efeito, a suspensão do governo brasileiro do uso de dados de usuários no treinamento de IA tem suscitado intenso debate sobre seus impactos. Em resumo, se por um lado a ação, determinada pela ANPD, visa resguardar a privacidade dos cidadãos, por outro ela tem sido criticada por grandes empresas de tecnologia, que a veem como um entrave à inovação.
“A ANPD justifica a suspensão com o objetivo de proteger os dados pessoais dos brasileiros”, enaltece o especialista em tecnologia, Fernando Nery, CEO da Portão 3, plataforma de gestão de despesas para grandes empresas e indústrias. “Essa medida assegura que as plataformas não utilizem informações sensíveis sem o consentimento explícito, prevenindo abusos e usos indevidos. Ademais, força as empresas de tecnologia a fomentar uma maior transparência nas suas práticas, tornando-se mais concisas sobre como coletam e utilizam os dados para o treinamento de IA”.
O seu ponto de vista é que isso pode ser positivo, porque reforça a confiança dos consumidores nas plataformas digitais. “Sabendo que seus dados estão protegidos por regulações rigorosas, as pessoas podem se sentir mais seguras ao utilizar serviços online. Esta confiança é essencial para o crescimento sustentável do mercado digital no Brasil, que depende da adesão e participação ativa dos consumidores”, diz.
O lado ruim
Porém, a Meta e outras empresas de tecnologia defendem que a suspensão representa um grande retrocesso para a inovação e competitividade no campo da Inteligência Artificial. Elas argumentam que a capacidade de processar grandes conjuntos de dados é essencial para aprimorar algoritmos de IA, os quais podem resultar em benefícios significativos para a sociedade, desde avanços na área da medicina até melhorias na segurança pública.
Além disso, a escolha pode colocar o Brasil em desvantagem competitiva no cenário global de tecnologia. Enquanto outros países avançam no desenvolvimento da IA, aproveitando o vasto conjunto de dados disponíveis, os brasileiros podem ficar para trás, o que limitaria o potencial de inovação e o impacto econômico positivo.
Fernando também acredita que restrições regulatórias podem desencorajar as empresas a investir no país, levando-as a buscar ambientes mais flexíveis para o avanço tecnológico.
“A decisão do governo do Brasil de interromper o uso de dados para treinar IA busca conciliar a proteção da privacidade dos usuários com a promoção da inovação tecnológica. Embora proporcione maior segurança e transparência aos cidadãos, pode também apresentar desafios consideráveis para o avanço e a competitividade do setor de tecnologia no país. O desfecho dessa medida depende da capacidade dos reguladores e das empresas envolvidas em encontrar um equilíbrio que atenda às necessidades de segurança e progresso tecnológico”, conclui Nery.
Entenda a medida
A Autoridade Nacional de Proteção de Dados (ANPD) emitiu no dia 2 de julho uma Medida Preventiva determinando a imediata suspensão, no Brasil, da vigência da nova política de privacidade da empresa Meta, que permitia o uso de dados pessoais publicados em suas plataformas para treinamento de sistemas de Inteligência Artificial (IA). Nesse link, pode-se conferir o despacho completo.
A medida diz respeito à atualização na política de privacidade da empresa que entrou em vigor em 26 de junho. A nova política se aplica aos “Produtos da Meta”, que englobam Facebook, Messenger e Instagram. A regra proíbe que a empresa utilize informações publicamente disponíveis e conteúdos compartilhados por usuários de suas plataformas para o treinamento e aprimoramento de sistemas de IA generativa. Esse tratamento pode afetar um alto número de pessoas, uma vez que, apenas no Brasil, o Facebook conta com aproximadamente 102 milhões de usuários ativos.
Fiscalização
A ANPD foi informada sobre o caso. Então, a autarquia iniciou um processo de fiscalização de ofício devido a suspeitas de violações à LGPD. Por consequência, após uma análise preliminar, considerando os riscos de danos graves e de difícil reparação aos usuários, a Autoridade determinou de forma cautelar a suspensão da política de privacidade e das operações de tratamento.
O Conselho Diretor em Circuito Deliberativo aprovou o Voto nº 11/2024/DIR-MW/CD, o qual identificou constatações preliminares que justificaram a emissão da Medida Preventiva.
Entre elas estão:
- Uso de base legal inadequada para o tratamento de dados pessoais;
- Falta de transparência na divulgação das alterações na política de privacidade e nos procedimentos de tratamento;
- Restrições excessivas aos direitos dos titulares;
- E tratamento de dados de crianças e adolescentes sem as devidas salvaguardas.
A Meta não fornecia informações para a compreensão, do usuário, no que tange o tratamento de dados para o desenvolvimento de IA generativa. Além disso, verificou-se que, embora os usuários pudessem se opor ao tratamento de dados pessoais, havia obstáculos injustificados para acessar informações e exercer esse direito.
O interesse da Meta
Além disso, a Agência considerou inapropriada a justificativa legal utilizada para legitimar o processamento de dados pessoais – o interesse legítimo da empresa. A justificativa não pode aplicar essa situação quando se trata de dados pessoais sensíveis. Em outras palavras, dados com maior risco discriminatório. Ademais, é essencial levar em conta as expectativas legítimas e obedecer aos princípios da finalidade e da necessidade.
A ANPD concluiu que os titulares geralmente compartilham as informações nas plataformas da Meta. E essas pessoas compartilham os dados para interação com amigos, comunidades próximas ou empresas de interesse. Portanto, em uma análise preliminar, não necessariamente haveria a expectativa de que todas essas informações fossem utilizadas para treinar sistemas de IA.
Por fim, a Autoridade acredita que a Meta poderia coletar e usar dados pessoais de crianças e adolescentes para treinar seus sistemas de IA. Isso inclui fotos, vídeos e postagens. “A LGPD estabelece que as entidades devem sempre tratar os dados de menores visando o melhor interesse deles. Durante a análise preliminar, não observamos a implementação de medidas de proteção e mitigação de riscos”, diz a ANPD em nota.
*Foto: Photo For Everything / Shutterstock.com.