Uma auditoria feita recentemente no Facebook sugere que a rede social ainda opera com algoritmos enviesados. De acordo com uma investigação para serviços de anúncio conduzida por pesquisadores independentes da Universidade do Sul da Califórnia (USC), o Facebook direciona mais ou menos impressões de oportunidades de emprego ora para mulheres e ora a homens, aparentemente dependendo da função da vaga.
A auditoria aponta que o sistema de entrega de anúncios do Facebook mostra diferentes anúncios de emprego a depender do gênero mesmo quando as qualificações independem de tais características. Pela lei norte-americana, isso é considerado discriminação de gênero.
As descobertas da auditoria vêm mesmo depois de outras auditorias anteriores, longos processos judiciais e promessas do Facebook referentes a reparos na sua forma de imprimir anúncios. O primeiro caso de anúncios distribuídos de maneira preconceituosa foi em 2016, quando uma auditoria mostrou que a rede social permitia que anunciantes de emprego e moradia selecionassem públicos a partir de gênero e raça.
Foi apenas em 2018 que o Facebook removeu o recurso.
Dessa vez, a auditoria fez testes com anúncios de empregos da seguinte forma: compraram anúncios de empregos com qualificações idênticas – de entregador ou entregadora da rede de pizza Domino’s e outro de entregador ou entregadora de delivery de alimentos Instacart. Atualmente, há mais homens dirigindo para a Domino’s e mais mulheres para a Instacart.
Embora nenhum público tenha sido especificado com base em informações demográficas, no caso, gênero, os algoritmos exibiram os anúncios de maneira desproporcional. O anúncio da Domino’s foi mostrado mais para homens do que mulheres e o anúncio da Instacart foi mostrado para mais mulheres do que homens.
Para não ficar em um exemplo isolado, a auditoria repetiu o teste para engenheiras e engenheiros de software para empresa de tecnologia Nvidia (viés para homens), empregos na Netflix (viés para mulheres) e oportunidades para vendedores de carros (viés para homens) e joias (viés para mulheres).
Assim, o recurso supostamente desativado para anúncios de habitação, crédito e emprego, de alguma maneira, ainda funciona. A causa dos preconceitos não foram encontradas pela auditoria da universidade e o Facebook não revela detalhes de seu sistema de impressão de anúncios.
Muitos questionamentos
Depois de 2016, quando a auditoria norte-americana ProPublica descobriu os algoritmos enviesados do Facebook para ofertas de emprego e moradia, a rede social disse, em 2018, que não usava mais o recurso de distinção demográfica. Contudo, ela foi processada novamente pelo Departamento de Habitação e Desenvolvimento Urbano dos Estados Unidos porque, segundo o órgão, ela ainda excluía o público de anúncios imobiliários sem que o anunciante especificasse a exclusão. Na época, o processo era baseado em uma auditoria de pesquisadores independentes que descobriram que casas à venda estavam sendo mostradas com mais frequência para usuários brancos, enquanto casas para alugar estavam sendo exibidas com mais frequência para usuários minoritários, como latinos, indígenas, negros e outros.
Na auditoria da universidade californiana, segundo os pesquisadores envolvidos nela e na auditoria dos anúncios de vendas de casas, o ônus da prova é ainda maior. Contudo, a legislação trabalhista norte-americana considera justificável eventuais distorções nos anúncios por causa das diferenças de qualificação.
Por outro lado, parece questionável a diferença de qualificação entre quem entrega pizza e quem entrega alimentos.
Questionamentos sobre a inteligência artificial (IA) do Facebook voltaram à tona neste ano em março, quando o MIT Technology Review publicou uma investigação jornalística de nove meses sobre a equipe de IA da empresa. Conforme mostrou o site, a equipe responsável tem negligenciado questões como disseminação de desinformação e fake news desde quando foi formada, em 2018.
A repercussão da publicação fez com que a rede social publicasse um texto em seu blog falando sobre seus esforços. “Tomamos medidas significativas para resolver os problemas de discriminação em anúncios e temos equipes trabalhando em anúncios justos hoje.”
Apesar dessas afirmações, como mostram a auditoria, nenhuma mudança perceptível é vista na forma como funcionam os algoritmos de entrega de anúncios.
+ Notícias
Senacon notifica Facebook sobre o vazamento de dados de 533 milhões de pessoas
Vazamento de dados do Facebook: uma história oficial mal contada?
Instagram, Facebook e LinkedIn compartilham mais de 50% dos dados dos usuários