Convivemos há bastante tempo com a propagação de teorias absurdas via internet e redes sociais. Basta uma fagulha de maluquice nesse universo digital para que uma corrente de seguidores desinformados inflame as mais variadas bobagens e inverdades sobre diversos assuntos.
Por outro lado, a mesma tecnologia que suporta, auxilia e propaga todo tipo de ideias é inerentemente neutra. Se o conteúdo é para o bem ou para o mal, isso depende de quem está por trás da ferramenta.
Hoje, isso também está relacionado ao potencial e papel da Inteligência Artificial (IA) nas redes sociais. Todos nós sabemos dos perigos que essa tecnologia possui de espalhar desinformação, deepfakes e teorias da conspiração quando alimentadas e criadas para esse fim. Mas, o que aconteceria se as pessoas impactadas por essas informações mal-intencionadas pudessem debater com um chatbot de IA treinado com conhecimentos específicos? Isso poderia modificar a opinião e crença dessas pessoas?
Essas foi uma das questões que um estudo inovador elaborado por pesquisadores de duas grandes universidades nos Estados Unidos, Massachusetts Institute of Technology (MIT) e Cornell, se propôs a responder. A pesquisa demonstrou que a Inteligência Artificial generativa, utilizando o ChatGPT-4 Turbo, é, sim, capaz de encorajar as pessoas a reexaminarem e mudar um conjunto fixo de crenças relacionadas a teorias da conspiração.
O estudo foi conduzido dessa forma: primeiro, mais de 2.000 cidadãos norte-americanos articularam, com suas próprias palavras, uma teoria da conspiração em que acreditavam, junto com evidências que pensavam apoiar essa teoria.
Em seguida, foram convidados a participar de uma conversa com um chatbot de IA treinado para responder com precisão aos exemplos falsos mencionados pelos participantes. Os resultados após dois meses de estudo foram surpreendentes. A pesquisa descobriu que 20% desses entrevistados, após conversar algumas vezes com o chatbot mudaram de opinião.
Até os pesquisadores ficaram surpresos. Gordon Pennycook, professor associado da Cornell, observou: “A pesquisa desafiou noções preconcebidas sobre quão receptivas as pessoas eram a evidências sólidas que desmentem não apenas teorias da conspiração, mas também outras crenças que não estão fundamentadas em informações de boa qualidade”.
IA tem conversação desprovida de emoção
Mudarmos de opinião, ou tentarmos fazer que uma pessoa mude de opinião não é uma tarefa simples. Se consideramos ainda o quão profundamente são arraigadas algumas convicções, discutir com outro ser humano é muitas vezes uma batalha de sentimentos contra sentimentos. E por isso alguns debates não são produtivos. Mas, a IA pode ter uma certa vantagem nesse desafio. Uma conversa com um chatbot de IA, que apresenta evidências sem emoção e conhecimentos sólidos, pode demonstrar o poder da objetividade como um caminho para as pessoas reverem suas opiniões.
E o estudo comprova isso. Essa impessoalidade da IA cria uma dissociação saudável de outro ser humano, o que pode ter permitido aos participantes repensarem suas opiniões. Eles não se tornaram defensivos e intransigentes porque seus sentimentos não foram feridos, tampouco sua inteligência foi menosprezada por outro ser humano. Essa seria uma das causas que permitiu que novas informações entrassem na mente dos participantes do estudo para desencadear uma reconsideração.
E adivinha? Isso é exatamente o que os melhores educadores científicos fazem: estabelecem um diálogo a partir do ponto onde aquele público está. Ou seja, não envergonham ou menosprezam ninguém por ter crenças imprecisas ou por não entender a ciência básica, por exemplo. E, em vez disso, trabalham para desvendar o que estão ouvindo e então — com sensibilidade — respondem e compartilham informações em uma troca não autoritária.
São técnicas e condutas de profissionais que não exibem sua expertise, mas se comunicam com confiança, autoridade e o mais importante, sem arrogância. É isso que chatbots com IA podem fazer: fornecer uma conversa com citações e referências sem “bullying intelectual”. Outra característica poderosa do estudo sobre aprendizado com chatbot, é que a conversa fez com que os entrevistados se sentissem mais inclinados a concordar com as conclusões porque conseguiram isso “sozinhos”, se relacionando apenas com a IA.
Verdadeiro ou falso?
Voltando aos dados do estudo, os chatbots foram muito precisos. Das afirmações feitas pela IA, 99,2% foram consideradas verdadeiras, enquanto 0,8% foram consideradas enganosas. Nenhuma foi considerada completamente falsa. Os autores buscaram se proteger contra a tendência dos modelos de IA de inventar informações — conhecida como alucinação — empregando um verificador profissional de fatos para avaliar a precisão de 128 alegações feitas pela IA.
Diante de todos esses resultados, podemos imaginar os efeitos benéficos da IA nas redes sociais quando utilizadas de maneira correta para a construção de conhecimento. Para analistas do estudo, os chatbots de IA mostram que, com a ajuda de grandes modelos de linguagem (LLMs), podemos ao menos mitigar problemas de teorias da conspiração via redes sociais, e até encontrar uma maneira de tornar a sociedade melhor.
Sem dúvida, os ganhos são enormes quando utilizamos sabiamente novas tecnologias a nosso favor. Negacionismo científico, por exemplo, está conosco há milênios e a internet atrelada às redes sociais tornou isso ainda mais perigoso. No entanto, temos hoje a capacidade de unir IA e conhecimentos científicos em prol do combate à desinformação de todos os tipos. O futuro que queremos com Inteligência Artificial nas redes depende agora não só dessa clareza e objetividade, mas, fundamentalmente, da intenção daqueles que exploram comercialmente o seu poder de engajamento no universo online.