Durante anos, a narrativa dominante sobre tecnologia opôs humanos e máquinas em uma disputa de capacidades: quem decide melhor, quem erra menos, quem prevê com mais precisão. Agora, a pergunta muda de eixo. Já não se trata apenas do que a Inteligência Artificial é capaz de fazer. Mas podemos realmente acreditar que as pessoas são dignas de confiança num mundo em que os sistemas parecem sempre mais exatos, mais disponíveis e menos emocionais do que nós? Essa é a pergunta que perpassa boa parte das discussões e debates do SXSW 2026.
A confiança, que antes era um pressuposto silencioso na experiência de consumo, passa a ser uma escolha de design e, com o risco de se tornar uma questão política. O incômodo mais profundo não compreende a eficiência das máquinas, e no contraste que elas criam. Quando um modelo de IA responde em segundos a algo que um atendente humano levaria minutos, com hesitações e idas e vindas, nossa tolerância ao erro humano se contrai. Por incrível que pareça, nossas particularidades, que nos acompanham há séculos são agora formas de fricção. O absurdo da ideia reside no fato de que as pessoas não se tornaram menos confiáveis, mas agora elas são comparáveis a sistemas probabilísticos treinados para minimizar fricções. Nossas falhas, antes parte do jogo, viram defeito de design. Lembram do “errar é humano”? Pois bem: se o erro humano nos incomoda tanto, por que ainda insistimos em colocar pessoas no centro da experiência?
A resposta começa a aparecer quando saímos da superfície da precisão e entramos na camada da responsabilidade. A máquina erra, mas quem responde pelo erro é sempre alguém. Um médico que assina um laudo auxiliado por IA, um gestor que decide a partir de um dashboard, um analista que aprova um crédito “seguindo o modelo”. Delegar tarefas a sistemas não elimina a necessidade de confiar em alguém; apenas afasta essa confiança da linha de frente. Passamos a confiar menos em quem nos atende e mais em quem configura, supervisiona e assume as consequências. A confiança se desloca, sem desaparecer da equação.
É nesse contexto que emergem duas figuras centrais do novo ecossistema de experiência: os agentes de IA e o chamado “fim da busca” (assuntos que abordei nos artigos anteriores dessa série sobre o SXSW 2026). Durante décadas, a internet foi organizada em torno de um ritual: abrir um campo de pesquisa, digitar palavras, percorrer páginas, escolher fontes. Havia um trabalho explícito na construção da resposta. Hoje, agentes conversacionais, sistemas de answer engine e recomendações preditivas prometem eliminar esse esforço. A resposta chega antes da pergunta estar plenamente formulada; o caminho entre intenção e ação se encurta a ponto de parecer invisível.
Essa invisibilidade é sedutora. Você sabe: estamos saturados de notificações, abas e feeds, e procuramos ansiosamente por conveniência permanente. Queremos que esses sistemas “milagrosos” nos poupem do trabalho de comparar planos de saúde, escolher a tarifa de energia, decidir qual série ver, selecionar o seguro, configurar o pacote de dados, encontrar o médico, escolher o consórcio, aprovar o pedido, renovar a assinatura. Queremos terceirizar nosso esforço cognitivo. Mas, ao abdicar do esforço de buscar, também desistimos de uma parte importante da confiança: a que se constrói ao ver o processo, não apenas o resultado.
O agente de IA é, por natureza, um mediador opaco. Ele decide o que mostrar, em que ordem, com qual ênfase. É treinado em dados que não foram escolhidos por nós, calibrado por métricas que raramente vemos e financiado por interesses que nem sempre compreendemos. Ainda assim, nos acostumamos a confiar nas respostas como se fossem neutras. A confiança, que antes estava ancorada em fontes com autoridade e experiência prévias, desde o médico conhecido, passando pela marca de varejo, a plataforma de streaming, o marketplace, o banco, até a operadora de celular, agora está depositada em um tipo de interlocutor cuja biografia não conhecemos. Não sabemos de onde veio, o que já errou, quais são seus incentivos.
Esse é o ponto em que o debate sobre confiança deixa o terreno técnico e entra no ético. Confiar em uma pessoa é, em grande medida, um ato narrativo: damos crédito a alguém porque conhecemos sua história, seus vínculos, suas vulnerabilidades, suas contradições. Confiar em um sistema é um ato estatístico: aceitamos o resultado porque métricas nos dizem que ele funciona “na média”. Mas vejam: a média compreende extremos. E o que esses extremos podem nos dizer? Quando substituímos interações humanas por agentes em massa, trocamos histórias por métricas. A experiência pode ficar mais fluida, e, ao mesmo tempo, ela é desidratada do que nos faz humanos, desapegada da nossa vivência prévia.
Diante disso, resgatar a confiança no humano envolve, muitas vezes, reagir à precisão das máquinas. Porque há momentos e decisões de vida que não podem e não devem ser objeto de precisão tão-somente. Ao mesmo tempo, temos o dever de redefinir o papel das pessoas na experiência. Em vez de competir com a velocidade da IA, o humano se torna intérprete, curador e fiador. Intérprete, ao explicitar limites, incertezas e zonas cinzentas que o sistema não captura. Curador, ao conectar elementos de contexto – cultura local, história de relacionamento, nuances de linguagem. Fiador, ao assumir a responsabilidade final quando algo sai do script. A pergunta muda de “quem responde mais rápido?” para “quem responde por isso?”.
Essa reconfiguração tem consequências práticas em todos os setores. No varejo, significa repensar o papel do vendedor: menos executor de processos repetitivos, mais especialista que entra em cena quando o algoritmo já fez o trabalho pesado de filtragem. Na saúde, implica usar IA para triagem e monitoramento contínuo, preservando o encontro humano para decisões que exigem empatia e negociação de expectativas. Em seguros, consórcios e serviços financeiros, pede consultores que não sejam apenas canais de venda, mas tradutores de risco, contexto e futuro. Em teles e serviços digitais, desafia o modelo de scripts rígidos, pedindo margem para julgamento humano em casos limítrofes.
No entanto, há uma contradição incômoda pairando sobre tudo isso. Como sociedade, queremos conveniência o tempo todo, mas resistimos a nos enxergar dentro da lógica de trabalho que sustenta essa conveniência. Reclamamos de filas, tempo de espera, burocracia, fricção e nos incomodamos com a ideia de que parte desse atrito seja absorvido por pessoas em jornadas de trabalho cada vez mais comprimidas, monitoradas por métricas cada vez mais agressivas. Quando a IA é apresentada como solução, respiramos aliviados: “pelo menos não é alguém sendo explorado”. O problema é que quase nunca é tão simples.
A automação não elimina trabalho; ela o redistribui. O que some da superfície reaparece em outros lugares: na manutenção de infraestruturas gigantescas, na curadoria de dados, na moderação de conteúdo, na supervisão de modelos, no suporte necessário, crítico mesmo quando o agente virtual falha. A conveniência tem que se apoiar, forçosamente, em uma base de esforço humano pouco reconhecida. E, enquanto não enxergarmos isso, nossa discussão sobre confiança é direcionada para nossos defeitos, ignorando que nossas falhas eventuais são o motor da nossa evolução. Essa é a grande contribuição do SXSW 2026: as tensões marcantes entre o que construímos como humanidade e como estamos encarando o fato de que podemos reconstruir instituições, organizações, relações amalgamando emoção e precisão.
No limite, confiar não é apenas acreditar que alguém (ou algo) vai fazer o que prometeu, mas aceitar que há um custo por trás da promessa. Confiar em humanos na era dos agentes significa reconhecer tanto suas limitações quanto seu direito de não operar segundo a lógica da máquina – isto é, o direito de errar, de hesitar, de dizer não. Confiar em máquinas, por outro lado, requer a coragem de olhar para além da interface amigável e perguntar: quem as treinou, com quais dados, em nome de quais interesses?
Talvez o fio que costura essas tensões seja a ideia de que a rede, hoje, serve e é servida por sistemas que amplificam a nossa ambivalência. Queremos ser atendidos como indivíduos únicos, mas nos comportamos como se estivéssemos dispostos a aceitar qualquer solução que nos poupe tempo. Desejamos experiências personalizadas, mas não gostamos de lembrar que essa personalização depende de coleta massiva de dados, muitas vezes oferecendo mais de nós do que gostaríamos. Exigimos que “alguém faça alguma coisa” quando algo dá errado, mas nos acomodamos quando ninguém é nomeado como responsável.
Na era da Agentic Experience, o desafio não é apenas construir sistemas que funcionem, e sim ecossistemas que assumam, sem rodeios, onde está a confiança e quem paga o preço da conveniência. Talvez o caminho mais honesto seja entender que tipo de relação queremos entre nós, sabendo que são justamente as nossas escolhas – como cidadãos, consumidores, profissionais – que definem o que as máquinas vão otimizar. Os sistema estão ficando ótimos em nos dar razões para confiar em resultados. O trabalho urgente dos próximos anos é reconstruir razões para confiar em pessoas, sem esquecer que são elas que apertam, no fim, o botão de “confirmar”.





