O tráfego de todo tipo de conteúdo já era frenético antes da popularização das ferramentas de Inteligência Artificial generativa, mas agora, que um simples prompt entrega o que o usuário quiser, a alta maciça na circulação de conteúdos de baixa qualidade ganhou até um nome: IA slop.
Na tradução, “slop” significa “desleixo” e, apesar da alcunha para o termo ainda ser desconhecida, IA slop refere-se à disseminação avançada de vídeos, textos e imagens duvidosas geradas por chatbots por meio do comando humano, como se lembrassem spams.
Mas o que está em xeque, na visão de especialistas, é o próprio futuro da internet. Será que o conteúdo criado por humanos está à beira da extinção?
Contexto 1
Nos bastidores, já se sabe que até mesmo sites de notícias têm experimentado secretamente conteúdo gerado por Inteligência Artificial – em alguns casos, assinados por autores também gerados por IA.
Dados recentes divulgados pela startup de detecção de IA, Originality AI, estimam que mais da metade das postagens mais longas em inglês no LinkedIn (54%) são geradas por essas ferramentas – globalmente, mais de 1,6 milhão de atualizações no feed da plataforma são visualizadas por minuto.
No último ano, a rede social lançou recursos gratuitos de verificação para os usuários a fim de favorecer o consumo de conteúdo autêntico.
“Incentivamos o compartilhamento de conteúdo profissional”, diz Adam Walkiewicz, head de Relevância de Feed no LinkedIn. “Vemos a IA como uma ferramenta útil que pode ajudar na revisão de um rascunho ou a superar o problema de não conseguir sair de uma página em branco, mas os pensamentos e ideias originais compartilhados são o que realmente importa”.
Contexto 2
Mas a nova mania vem ganhando a adesão de empresas como a Meta, por exemplo, que não parece querer combater a prática.
Segundo estudos conduzidos pelas universidades Stanford e Georgetown, dos Estados Unidos, o Facebook vem impulsionando esse tipo de conteúdo por meio de seus algoritmos, dificultando a distinção entre entregas genuínas das artificiais.
Em dezembro, Connor Hayes, executivo da big tech, disse ao Financial Times que a empresa tinha planos de somar à rede social personagens alimentados por IA, mas a plataforma desativou alguns perfis que viralizaram após o anúncio e a repercussão negativa dos falsos usuários.
Nesse cenário, Daniel Lázaro, líder de Data & AI na Accenture para América Latina, avalia que “é vital apoiar-se em referências regulatórias (como as da Europa) e inspirar-se nas discussões no território brasileiro, além de mapear as fontes de risco já existentes combinando com a sistematização da responsabilidade, não apenas pelos sistemas de AI, mas também pelo resultado destes sistemas”.
Tendência?
Na avaliação da Accenture, a IA slop não deverá ser uma tendência, mas apenas um dos muitos casos de uso da tecnologia que “não gera valor para nenhum ator, de nenhuma cadeia de valor”.
Mas a consultoria vê, por outro lado, que a combinação de maior oferta de modelos e opções vai fazer com que cada vez mais “e por muito tempo” sejam disponibilizadas novas alternativas.
“Vemos como tendência, na verdade, o que chamamos de Big Bang binário – quando a IA se expande exponencialmente e os sistemas são superados. E indo ao encontro dos impactos não apenas para os usuários, mas para as plataformas, cristalizamos uma outra tendência que é exatamente a definição de ‘como se diferenciar’ no mercado, tendência que chamamos de ‘Seu rosto, no futuro’”, explica.
Um ensaio para o progresso?
De forma direta, a Accenture acredita que o aumento de volume de conteúdo com baixa qualidade gerado pela AI slop pode ter baixa relevância e aderência dos usuários das plataformas. Mas Daniel Lázaro vê um cenário positivo nessa nova movimentação.
“Aqui existe uma oportunidade imensa para essas plataformas oferecerem aos usuários mecanismos de estímulos, recompensas e etc, gerando confiança no mercado, desenvolvendo métodos de engajamento, capacitação e enfim, transformando a relação dos consumidores com as próprias tecnologias a favor das empresas”, finaliza.