Em junho de 2020, a OpenAi — instituição de pesquisa em inteligência artificial — apresentou uma ferramenta de IA capaz de produzir textos inteligíveis e coerentes. Um incremento até então nunca visto no mundo da automatização. No entanto, à época, já se especulava que a ferramenta teria potencial nocivo: ao invés de informar, poderia servir como uma arma de desinformação online ou fake news de maneira serial.
E foi comprovado. Uma equipe de especialistas no assunto demonstrou que o algoritmo, denominado GPT-3, é capaz de enganar e desinformar. Segundo a pesquisa, a IA pode amplificar artifícios “desinformativos” difíceis de se detectar.
Um grupo do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown, nos EUA, utilizou, durante seis meses, o algoritmo GPT-3 para gerar informações falsas, utilizando-se de narrativas mentirosas e notícias modificadas com o auxílio do Twitter.
“Não acho que seja uma coincidência que a mudança climática seja o novo aquecimento global”, dizia um tuite composto pelo GPT-3, que visava alcançar usuários da rede social adeptos do ceticismo no que diz respeito às mudanças climáticas.”
Outra postagem cunhou a mudança climática como “o novo comunismo – uma ideologia baseada em uma falsa ciência que não pode ser questionada”.
Segundo Ben Cuchanan, professor da Universidade de Georgetown, com mensagens curtas e automatizadas, o GPT-3 é bastante eficaz na amplificação de falsidades, no que os pesquisadores chamam de desinformação one-to-many, ou, em tradução livre, de “um para muitos”.
Segundo o estudo, o GPT-3 tem o poder de influenciar opiniões dos leitores também sobre questões de diplomacia internacional. Eles mostraram a voluntários da pesquisa tuites escritos pelo GPT-3 sobre a retirada das tropas dos EUA do Afeganistão e as sanções dos EUA à China. Em ambos os casos, concluíram que os voluntários foram influenciados pelas mensagens: depois que os usuários leram postagens sobre oposição às sanções chinesas, por exemplo, o percentual os que disseram ser contra essa política dobrou.
Ao site Wired, Mike Gruszczynski, professor da Universidade de Indiana que estuda comunicações online, afirmou que não se surpreenderia se a Inteligência Artificial atingisse um grande papel nas campanhas de desinformação. Segundo ele, os bots têm desempenhado um papel fundamental na disseminação de narrativas falsas nos últimos anos
“Com bots, deepfakes e outras tecnologias, eu realmente acho que o céu é o limite, infelizmente”, disse.
Inteligência do algoritmo leva à imprevisibilidade
Pesquisadores de Inteligência Artificial vem desenvolvendo há algum tempo programas capazes de usar a linguagem de maneira automatizada; o consenso entre eles, porém, é que nenhum algoritmo se mostrou tão surpreendente quanto o GPT-3.
Criado pela OpenAI, o algoritmo foi alimentado por grandes quantidades de texto extraído de fontes da web, incluindo Wikipedia e Reddit. Assim, o sistema dominou a linguagem. No entanto, ficou imprevisível e com o poder de disseminar incoerências, linguagem ofensiva e odiosa.
A vicissitude é tanta que, até para quem usa o GPT-3 para gerar desinformação, há dificuldade em controlar seu comportamento. Segundo Buchanan, o algoritmo não parece capaz de gerar textos persuasivos de maneira confiável por muito mais tempo do que um tuite.
Buchanan alerta, porém, que o algoritmo pode ser aprimorado e, consequentemente, pode ter seu potencial nocivo amplificado. “Quem tem mais dinheiro, mais capacidades técnicas e menos ética pode usar melhor a IA. Além disso, as máquinas só vão ficar melhores”, diz.
A OpenAI diz que o trabalho de Georgetown destaca uma questão importante que a empresa espera mitigar. “Trabalhamos ativamente para lidar com os riscos de segurança associados ao GPT-3. Também revisamos cada uso de produção do GPT-3 antes de entrar em operação e temos sistemas de monitoramento para restringir e responder ao seu uso indevido”, ”, disse um porta-voz.
+ Notícias
Estudo aponta que 90% dos clientes reclamam diretamente com a empresa – resolver é outra história