O penúltimo dia do SXSW exibiu um clima estranho, quase de acareação, em que a Inteligência Artificial se assume como gramática de poder na relação entre empresas, plataformas, criadores e público. A programação abandona o tom de demonstração encantada e se aproxima de um exame público de consciência: decisões sobre atenção, dinheiro, reputação e acesso já são mediadas por sistemas que poucos conseguem explicar em voz alta, mas que muitos parecem dispostos a tratar como inevitáveis. Nesse ambiente, falar de IA significa discutir quem ganha margem, quem perde autonomia e quem fica responsável pelos efeitos colaterais do que está sendo automatizado.
A IA ganha protagonismo como um terreno em que interesses conflitantes se encontram. Startups, grandes plataformas, bancos, varejistas e criadores a tratam com naturalidade de infraestrutura, mas a metáfora é insuficiente: essa camada técnica redistribui quem decide o quê, em que ritmo e com base em quais dados. Demonstrações de agentes que ajustam ofertas, roteiam atendimento, negociam preços e antecipam churn são apresentadas como evidência de maturidade tecnológica, porém o desconforto aparece quando alguém insiste em perguntar quem define o limiar entre erro aceitável e dano concreto. É nesse ponto que o discurso começa a fraquejar, revelando o quanto ainda se evita nomear, em público, a responsabilidade por decisões que foram terceirizadas para modelos estatísticos.
A chamada creator economy, tão incensada em festivais como o SXSW, reaparece como laboratório de disciplina industrial. Plataformas que automatizam acordos entre marcas e criadores comprimem semanas de negociação em cliques, enquanto sistemas de reputação distribuem visibilidade, verba e continuidade de acordo com métricas que quase ninguém revisa criticamente. O vocabulário da eficiência cumpre seu papel, mas deixa escapar a reconfiguração silenciosa de dependências: quando remuneração, alcance e chance de futuro passam a ser derivados de indicadores opacos, o criador deixa de operar como sujeito e passa a funcionar como ativo ajustável em uma carteira de risco. O que escapa ao padrão algorítmico simplesmente sai de quadro, um tanto por censura explícita, mas na maior parte das vezes por deixar de ser considerado relevante do ponto de vista de retorno. Esse padrão erode as bases da concepção analógica do CX, baseada em impressão sensorial, e lança as bases para o que já é explorado como Agentic Experience.
Exatamente por isso, as experiências imersivas e projetos em XR funcionam como maquete do que está sendo desenhado fora de Austin. Instalações que respondem à presença do visitante, narrativas que se reorganizam a partir de escolhas e personagens animados por modelos generativos criam a sensação de uma liberdade recém-conquistada, quando, na prática, refinam o desenho de bordas invisíveis. Essa mesma lógica atravessa negócios diversos que dependem cada vez mais da escala e da recorrência para se manterem saudáveis. Falamos de serviços financeiros, varejo, telecom, plataformas digitais, seguros, streamings, bets: quanto mais “natural” a jornada, mais fácil é para o cliente aceitar como dados certos empurrões (nudges) de design, prioridades de exposição, caminhos preferenciais que resolvem, primeiro, o problema de quem construiu o sistema. O conforto da interface suaviza fricções, mas não altera o fato de que as regras duras de negócio seguem protegidas atrás de camadas técnicas e narrativas convenientes.
O fio político também aproxima essas discussões. Conversas sobre liberdade de expressão, ativismo e responsabilidade institucional costuram tecnologia, economia e cultura em uma grande questão difícil de contornar: o que acontece quando estruturas historicamente assimétricas recebem, de presente, um aparato técnico capaz de amplificar seus vieses com escala continental e verniz de neutralidade? A IA se mostra não exatamente como vilã maligna, porque se assume como uma multiplicadora de decisões que já eram desiguais quando dependiam de salas de reunião, pareceres jurídicos e burocracias analógicas. A diferença é que, agora, a combinação entre opacidade técnica e a narrativa do inevitável (tão ao gosto dos fatalistas e dos reformadores como vimos no primeiro artigo dessa série) oferece um álibi confortável para escolhas que afetam crédito, saúde, trabalho, segurança e acesso à informação, embaladas como se fossem apenas “evolução natural” de mercado.
Sim, estamos caminhando para o final do SXSW, e afirmo que a conversa sobre “inovação em CX” perde um pouco da leveza com que costuma ocupar keynotes inspiracionais. Fica a sensação de que uma parte importante do discurso empresarial sobre IA, personalização e encantamento do cliente só se sustenta enquanto ninguém formula a pergunta que funciona como dedo na ferida: se você tivesse que explicar, olho no olho, conseguiria explicar qual é o preço humano e material que um cliente pagaria para que a sua empresa ganhe eficiência com IA, dados e automação? O que estaria disposto a dizer com todas as letras e o que preferiria manter diluído em dashboards, metáforas e slogans?





