No universo dos modelos de Inteligência Artificial (IA), um simples “por favor” pode custar caro – literalmente. O CEO da OpenAI, Sam Altman, surpreendeu a internet ao responder a uma pergunta que viralizou no X (antigo Twitter). A usuária @tomieinlove publicou: “Eu me pergunto quanto dinheiro a OpenAI já perdeu com custos de eletricidade por conta de pessoas dizendo ‘por favor’ e ‘obrigado’ aos seus modelos”.
No dia seguinte, Altman respondeu: “Dezenas de milhões de dólares bem gastos – você nunca sabe”. A postagem, que rapidamente alcançou mais de meio milhão de visualizações e 13 mil curtidas, reacendeu uma conversa cada vez mais relevante: até onde vai o impacto humano na forma como interagimos com Inteligências Artificiais? E, por incrível que pareça, a ciência já tem respostas para essa questão.
Influência da linguagem sobre a IA
Dizer “por favor” e “obrigado” ao conversar com assistentes virtuais pode parecer um gesto meramente humano, mas novo estudo mostra que a gentileza tem efeitos concretos sobre a performance dos modelos de linguagem artificial. Segundo pesquisadores da Waseda University, no Japão, o tom usado nos prompts – os comandos dados a IAs generativas como o ChatGPT e o Llama – influencia diretamente a qualidade das respostas geradas.
O estudo, intitulado “Devemos respeitar os LLMs? Um estudo translíngue sobre a influência da polidez pronta no desempenho do LLM”, avaliou como diferentes níveis de polidez impactam tarefas realizadas por grandes modelos de linguagem (LLMs) em inglês, chinês e japonês. A conclusão? Prompts grosseiros tendem a resultar em respostas mais fracas, enquanto um nível moderado de polidez melhora o desempenho.
“Nossa hipótese é que prompts indelicados podem levar a uma deterioração no desempenho do modelo, incluindo gerações contendo erros, vieses mais intensos e omissão de informações. Além disso, também levantamos a hipótese de que o melhor nível de polidez para desempenho é diferente entre os idiomas, o que está fortemente relacionado à sua origem cultural”, frisam os autores.
Ponto de equilíbrio
Os pesquisadores descobriram que há um ponto de equilíbrio: bajulação em excesso não gera respostas melhores, indicando que os LLMs refletem o desejo humano de ser respeitado até certo ponto. Além disso, o nível ideal de cortesia varia conforme a cultura e o idioma. Em línguas como o japonês, onde normas sociais e hierarquia são mais enraizadas, a influência da polidez foi ainda mais evidente. Já no inglês, um tom moderado bastou para extrair o melhor desempenho dos modelos.
Ou seja, de acordo com o estudo, prompts muito educados ou excessivamente formais não garantem sempre uma resposta mais eficiente. Em contrapartida, comandos rudes ou autoritários prejudicam a geração de conteúdo, que tende a ser mais curta, enviesada ou até incorreta, explicam os autores do estudo.
“Nosso estudo conclui que a polidez dos avisos pode afetar significativamente o desempenho do LLM. Acredita-se que esse fenômeno reflita o comportamento social humano. O estudo observa que o uso de prompts indelicados pode resultar no baixo desempenho dos LLMs, o que pode levar ao aumento de viés, respostas incorretas ou recusa de respostas”, reforçam os autores. “ No entanto, altamente respeitosos prompts nem sempre levam a melhores resultados.”
IA reflete o comportamento humano
A pesquisa reforça a ideia de que IAs generativas aprendem não apenas informações factuais, mas também padrões de comportamento humano. Isso significa que a forma como falamos com elas pode moldar suas respostas. Em outras palavras, os modelos “sentem” (ou simulam sentir) a gentileza, alinhando-se às normas culturais refletidas nos dados com os quais foram treinados.
“Esse fenômeno sugere que os LLMs não apenas refletem o comportamento humano, mas também são influenciados pela linguagem, particularmente em diferentes contextos culturais. Nossas descobertas destacam a necessidade de levar em consideração a polidez no processamento transcultural da linguagem natural e no uso de LLMs”, destacam os autores.
Aplicações práticas
Além do impacto na performance, a escolha do tom pode influenciar na redução de vieses estereotipados. Modelos expostos a linguagem respeitosa apresentaram menor propensão a reproduzir preconceitos relacionados a gênero, raça ou aparência.
Empresas que usam IAs em canais de atendimento ou assistentes virtuais podem se beneficiar da descoberta. Prompts melhor formulados não só aumentam a precisão das respostas como também reduzem falhas críticas, viés e omissão de informações. O estudo sugere ainda que ferramentas como o RLHF (aprendizado por reforço com feedback humano) ajudam a refinar essa sensibilidade.
Na era dos robôs, a velha máxima do “gentileza gera gentileza” ganha uma nova camada. Tratar bem os assistentes de IA não é apenas questão de etiqueta, mas sim uma estratégia para obter respostas melhores, mais seguras e mais humanas.
IACX 2025
A Inteligência Artificial está transformando a maneira como empresas e marcas se conectam com seus clientes. No IACX, seminário realizado pela Consumidor Moderno e pelo Grupo Padrão, lideranças compartilharão estratégias e desafios para colocar essa tecnologia revolucionária em prática.
O evento será realizado no dia 6 de maio e terá transmissão online. Inscreva-se já e não fique de fora do futuro do CX!
*Foto: Shutterstock.com / Reprodução X