Rana Gujral, CEO da Behavioral Signals, trouxe para o CONAREC 2025 uma visão profunda sobre o poder da IA cognitiva para as relações de consumo e atendimento ao cliente. Muito mais do que explanar sobre suas características, o especialista destacou pontos sensíveis da sua aplicação e fez um alerta sobre os riscos e desafios futuros com a tecnologia.
Entendendo a IA cognitiva
Partindo do princípio de que a IA cognitiva nada mais é que uma ciência dedicada a entender e replicar a experiência humana – como emoções e comportamentos através da tecnologia –, Rana expôs as oportunidades para as empresas pensarem as relações com seus clientes apoiadas nela, e, claro, os riscos envolvidos nessa relação.
Um dos pontos que chamou atenção na sua apresentação foi sobre os biomarcadores. Ou seja, as características e padrões na voz humana que podem ser detectados e analisados por algoritmos de Inteligência Artificial (IA), e que agora também podem ser replicados tecnologicamente.
Se por um lado as marcas têm na IA cognitiva uma poderosa ferramenta para analisar o sentimento e não só a intenção por trás do tom de voz durante um atendimento ao cliente, por exemplo, abre-se também um campo para o surgimento de fraudes muito mais engenhosas com clonagens de voz.
Para ilustrar essa capacidade, Rana lembra o famoso caso de Singapura, em que uma equipe de uma organização foi enganada para transferir 200 milhões de dólares após receber um “pedido” de seu CEO em uma chamada de vídeo. No entanto, a pessoa na chamada não era o verdadeiro CEO, e sim, uma tecnologia de IA cognitiva altamente avançada.
É aquilo que Rana classifica como o “problema da pós-autenticidade”, no qual a confiança tecnológica pode ser minada. “Este problema força as empresas a protegerem suas receitas e a conformidade, enfrentando fraudes, questões de segurança e a perda do toque humano em um ambiente cada vez mais digitalizado”, diz o especialista.
CX não é mais sobre eficiência
Buscando então simular processos cognitivos humanos, como a compreensão, raciocínio, aprendizado e tomada de decisão, interagindo com dados de forma que imita como o cérebro humano processa informações, a IA cognitiva tem se revelado muito útil no CX, sobretudo, nos Contact Centers, segundo Rana. “Hoje em dia, muitas ferramentas de voz não são tão confiáveis. É onde temos que proteger a experiência humana, enquanto os Contact Centers estão sendo cada vez mais digitalizados”, diz.
Para isso, Rana salienta o poder a IA cognitiva, que propõe uma nova técnica chamada “mapeamento de comportamento”. Em vez de procurar biomarcadores na voz, esta abordagem cria um perfil de comportamento do indivíduo e analisa variações nesse padrão vocal para identificar se o áudio é falso. Esta técnica é mais robusta, e oferece um nível de precisão sem precedentes, especialmente se um modelo for treinado para uma voz específica.
Rana explica em detalhes: “A tecnologia funciona ouvindo interações passadas e extraindo de 75 a 100 atributos diferentes (como velocidade da fala, padrões emocionais e comportamentais). Esses dados são compilados em um arquivo vetorial para criar uma ‘assinatura conversacional’, que é única para cada pessoa, como uma impressão digital. Um modelo de IA então analisa essas assinaturas para encontrar a combinação ideal entre agente de atendimento e cliente em tempo real, com base no resultado desejado para a chamada (vendas, retenção, etc.). O sistema então encaminha automaticamente a chamada para o agente mais compatível que estiver disponível”.
Responsabilidade e compliance
Diversos setores estão em crise por não saber com quem estão falando em seus Contact Centers (estamos falando de golpistas, agentes falsos, robôs). Isso impacta a marca e a confiança. Perdas e fraudes por IA podem alcançar 40 bilhões de dólares por ano, com projeção de 1.330% de crescimento em fraudes (dados da Deloitte). Os dados apresentados por Rana levantam uma questão: o que fazer sobre isso?
Rana entende que as ferramentas de IA cognitiva estão aí para encontrar essas fraudes e detectar inconsistência na voz sintética. Este mapeamento comportamental com IA cognitiva olha para certas nuances que dão pistas se isso ou aquilo é falso ou não. Treinando modelos de IA cognitiva, é possível unir inteligência emocional com detecções mais específicas. É o que Rana propõe com modelos de IA cognitiva que extraem sinais e atributos, como “assinaturas de voz”.
Futuro com IA que entende os humanos
Rana destaca como o avanço acelerado da IA fez o mercado de CX se tornar o ponto de inflexão para empresas que desejam avançar no futuro das relações de consumo.
“A experiência do cliente não é mais apenas sobre eficiência. E nesse contexto, os Contact Centers agora são lugares onde a confiança é construída ou perdida em tempo real”, alerta. E sobre o seu futuro, Rana Gujaral, salienta: “O futuro não é necessariamente o bot que soa como humano. O futuro é construir um sistema que entenda o humano”.
O que você precisa saber sobre IA cognitiva em CX
- IA cognitiva: Ciência dedicada a entender e replicar a experiência humana, como emoções e comportamentos.
- O problema da pós-autenticidade: Desafios de fraude, segurança e perda do toque humano devido a tecnologias como deepfake – a clonagem de voz pode causar perdas financeiras que podem chegar a US$ 40 bilhões até 2027 (Deloitte).
- Limitações da detecção por biomarcadores: Ferramentas de IA generativa podem agora sintetizar biomarcadores, enganando os sistemas de detecção de fraude.
- Mapeamento de comportamento: Nova técnica da IA cognitiva para detectar fraudes, analisando padrões de comportamento em vez de biomarcadores de voz.
- Vantagens do mapeamento de comportamento: É uma detecção mais segura, agnóstica de idioma e com alta precisão.
- O problema do engajamento: O foco excessivo em ferramentas de eficiência está prejudicando a conexão humana





