“Uma IA que erra parece uma contradição, mas talvez seja o único caminho para seguirmos em frente.” Essa é afirmação de Benito Berretta, diretor geral da Hyper Island nas Américas, sobre o potencial das IAs emocionais para o Customer Experience (CX).
Especialista em inovação, neurociência do aprendizado e gestão de mudanças, Benito entende que o grande desafio sobre os avanços da Inteligência Artificial generativa em personalização, não é apenas entregar respostas certas, mas interpretar emoções.
Dito isso, Benito ressalta que sistemas de IAs emocionais criam um paradoxo. “Ao adotar performances algorítmicas de empatia, arriscamos amputar exatamente o motor da evolução coletiva: a falibilidade humana. Não há aprendizado sem ruído.”
Empresas não serão construídas apenas com dados
Utilizando-se do termo “Lei da Adaptabilidade” – no qual Benito descreve a importância da adaptação, com bases em neurociência, gestão empresarial e biologia –, o especialista provoca o pensamento amplo sobre o futuro que queremos com a IA.
Um futuro que, segundo ele, empresas pressionadas pela eficiência e escalabilidade podem se ver tentadas a substituir a imperfeição vibrante da comunicação humana por avatares emocionalmente corretos, porém, emocionalmente vazios. “A construção de empresas modernas, competitivas e significativas não será feita apenas com dados, mas com espaços de confiança, vulnerabilidade e inovação coletiva.”
A seguir, Benito aprofunda a sua análise sobre o impacto das IAs emocionais na construção de estratégias significativas para CX. Confira!
Autenticidade emocional da IA
Consumidor Moderno: Como você avalia os principais desafios com IAs avançando em personalização emocional?
Benito Berretta: O avanço da personalização emocional por sistemas de IA representa, ao mesmo tempo, uma inflexão estrutural nas relações entre humanos e máquinas. É um paradoxo que muitas vezes nos deixa perplexos. Avançamos para uma era em que o desafio não é apenas entregar respostas certas, mas interpretar emoções, modular o tom, simular empatia.
Esse movimento, embora fascinante do ponto de vista técnico, tensiona uma fronteira essencial: a da autenticidade. Quando escrevi a “Primeira Lei da Adaptabilidade (‘se você contribui, pode ficar’)”, o ponto central da verdadeira adaptabilidade reside na coexistência entre conexão e contribuição.
Ou seja, a IA, ainda que reconheça padrões emocionais, não supera o território de uma conexão simulada, sem a substância histórica da contribuição real. O principal desafio não é apenas gerar respostas “aparentemente” afetivas, mas preservar o espaço para o encontro humano autêntico, que carrega não apenas sinais emocionais, mas também memória, cultura e contradição.
CM: O caso da Yepic AI (com avatares que reconhecem emoções faciais para personalizar interações com humanos) sugere que a autenticidade é o novo critério de qualidade em IA?
O caso Yepic AI materializa de forma clara essa nova fase. Avatares emocionalmente responsivos, capazes de interpretar microexpressões e adaptar sua comunicação em menos de 500 milissegundos, marcam um avanço na qualidade. Mas, ainda não chegam a passar o limiar da autenticidade. Ou seja, a simulação convincente pode se tornar um critério de qualidade maior. No entanto, é fundamental entender em termos sistêmicos: Yepic AI atinge a condição necessária para parecer autêntico, mas não a condição suficiente para ser autêntico.
A Segunda Lei da Adaptabilidade esclarece: estamos fadados ao fracasso individual e ao sucesso coletivo. A autenticidade emocional real é construída no tempo, no tecido imperfeito que forma nossa fábrica ontológica, em redes de relações significativas, não em respostas programadas ou preditivas. Yepic AI resolve o problema do “sinal”, mas a “realidade” emocional permanece fora de alcance. O significado vai além da interação, ele fica intransmissível.
CM: Isso aponta um risco real de as empresas substituírem a autenticidade humana por performances algorítmicas de empatia?
Mais do que um risco. Trata-se de uma tendência silenciosa. Empresas, pressionadas pela eficiência e escalabilidade, podem se ver tentadas a substituir a imperfeição vibrante da comunicação humana por avatares emocionalmente corretos, porém emocionalmente vazios. Ao adotar performances algorítmicas de empatia, arriscamos amputar exatamente o motor da evolução coletiva: a falibilidade humana. Não há aprendizado sem ruído. Não há profundidade sem hesitação. A Terceira Lei da Adaptabilidade é clara: adaptabilidade é um jogo de volume. O sucesso não é função da precisão isolada, mas da repetição, da falha e da reconstrução inteligente.
Sobre ética e os novos parâmetros com IA
CM: O ser humano, muitas vezes, falha individualmente. Mas, na grande maioria das vezes, prospera coletivamente. Como isso se aplica ao desenvolvimento de IAs que replicam vieses humanos e estão sendo cada vez mais adotadas em áreas como recrutamento e gestão de desempenho?
A replicação de vieses em sistemas de IA é o espelho tecnológico das falhas humanas. Quando sistemas de IA são treinados com dados históricos, eles herdam e às vezes amplificam nossos preconceitos inconscientes. Superar isso exige mais do que ajustes técnicos. Exige inteligência coletiva, curadoria ética contínua, diversidade real nas equipes que constroem e auditam esses sistemas. É no enfrentamento intencional dessas falhas, em coletivo, que reside a esperança de uma IA que amplifique o melhor, e não apenas o mais frequente, da humanidade.
Dilemas na liderança com IA
CM: Como preparar líderes Baby Boomers e da Geração X para gerenciar equipes que operam em simbiose com a IA generativa, enquanto Millennials e GenZs demandam uma ‘human-first tech‘? Você vê risco de um “apartheid digital” nas organizações?
A transição necessária é mais profunda do que treinamento técnico. Trata-se de uma reconfiguração ontológica da liderança. A Primeira Lei da Adaptabilidade lembra que a permanência em sistemas vivos depende da capacidade de contribuição. Líderes que não forem capazes de integrar conexão emocional genuína e contribuição cognitiva relevante terão dificuldades progressivas, não por decreto, mas pela dinâmica inevitável dos sistemas adaptativos.
Porém, o risco de um apartheid digital, do meu ponto de vista, é baixo, mas possível. Um fosso entre líderes que entendem a IA como extensão da capacidade humana e aqueles que a veem como ameaça ou mera ferramenta me pareceria um evento surpreendente, mas esse mundo atual é imprevisível.
CM: Um dos grandes desafios para a próxima década será conciliar algoritmos e humanização. Como isso impacta o líder empresarial hoje, e como deve ser a sua abordagem na construção de empresas modernas, competitivas e mais significativas para seus clientes?
O impacto é profundo e definitivo. A Terceira Lei da Adaptabilidade oferece o melhor guia: adaptabilidade é um jogo de volume. Não vencerá o líder que tentar controlar todas as variáveis. Vencerá aquele que fomentar ciclos rápidos de aprendizado, que aceite o erro como parte constitutiva da evolução.
O líder moderno precisa construir empresas onde algoritmos ampliem capacidades humanas, sem tentar substituí-las. Onde a eficiência seja um meio, mas o valor humano seja o fim. A construção de empresas modernas, competitivas e significativas não será feita apenas com dados, mas com espaços de confiança, vulnerabilidade e inovação coletiva. Onde a inteligência das máquinas organize o caos, mas onde o caos humano continue sendo a semente da reinvenção.
CM: Temos um futuro com IA intrigante pela frente.
O futuro da Inteligência Artificial não será definido apenas pelo que conseguimos ensinar às máquinas, mas pelo que conseguimos lembrar sobre nós mesmos. Adaptar-se não é imitar a perfeição algorítmica. É aceitar que a nossa imperfeição – coletiva, mutável, contraditória – é nossa única verdadeira vantagem evolutiva. A IA poderá escalar sinais emocionais. Mas só nós, humanos, podemos escalar significados.