A inteligência artificial se faz cada vez mais presente no dia a dia das pessoas. Desde o momento em que o consumidor faz uma compra no e-commerce, passando pelo entretenimento em plataformas de streaming, até o andar na rua – sendo acompanhado por câmeras de vigilância inteligentes – a tecnologia é utilizada. E, muitas vezes, ela sequer é notada.
Por trás desses exemplos estão mecanismos capazes de alterar preços após entender o interesse de uma pessoa por determinado produto ou mesmo de compreender as emoções que norteiam comportamentos. Nesse sentido, é possível questionar sobre a privacidade, afinal, é como se os consumidores estivessem hackeados. Mas os usos estão indo muito além disso. Alguns exemplos são robôs sendo responsáveis por realizar processos de contratações dentro de uma empresa e sistemas avançados de reconhecimento facial empregados em políticas de segurança pública. A pergunta que fica é: como é possível garantir o bem da sociedade?
Julien Weissenberg, fundador do A.I Expert e Global Shaper do Fórum Econômico Mundial, que será keynote do evento Customer Voice Experience 2021, no próximo dia 27, afirma que a inteligência artificial está infundindo e seu uso em diferentes âmbitos é um desafio. “A implementação da IA se tornou um mainstream. O resultado é que precisamos nos acostumar e estar cientes de suas limitações”, diz.
Não à toa, recentemente, o governo federal lançou a Estratégia Brasileira de Inteligência Artificial (EBIA). Ela prevê a primeira política pública orientada ao uso de IA no País e tem como um dos objetivos estratégicos contribuir para a elaboração de princípios éticos para o desenvolvimento e uso responsáveis da tecnologia.
Os grandes desafios da inteligência artificial
Como dito por Julien Weissenberg, a IA virou mainstream e há uma corrida grande por parte do mercado para passar a usá-la e a usufruir dos pontos positivos trazidos por ela. Um exemplo é o uso de bots no atendimento, o que melhora a eficiência, reduz custos e tem a capacidade de incrementar a experiência do cliente se bem construído. De acordo com a Gartner, 47% das organizações usarão chatbots para esse fim e 40% pretendem implementar assistentes virtuais. O cenário faz com que a disponibilidade de especialistas em IA seja menor do que a demanda.
Somando isso ao desafio estrutural para implementar IA, como falta de dados úteis e dificuldade de integração com as funções da empresa, muitos negócios se veem despreparados para o avanço tecnológico.
Outra questão está diretamente relacionada com o setor de pesquisa e desenvolvimento. É o que explica Weissenberg: “Precisamos superar nossas limitações de pensar como ser humano. Até agora, maior parte do que foi feito está se reproduzindo, talvez de maneiras diferentes, mas ainda buscamos fazer algo semelhante ao que estamos pensando. Estamos vagamente tentando nos relacionar com o que já sabemos. Vai ser um grande desafio ir além disso”.
Em paralelo, o especialista chama atenção para as questões éticas. Quais soluções de fato devem ser desenvolvidas? Como garantir a transparência de todos os processos?
As questões éticas
Na Coréia do Sul um programa de televisão tem como atração o desafio de adivinhar quem faz melhor determinada ação: o ser humano ou a inteligência artificial. Uma das demonstrações que ganhou o mundo se tratava da apresentação do cantor Kim Kwang-seok, que morreu em 1996, mas estava cantando uma música recente perfeitamente. Isso só foi possível graças a um software de IA desenvolvido no país capaz de usar qualquer voz para colocá-la um objetivo específico, seja para cantar uma música ou dublar uma cena de filme. A ferramenta precisa ser utilizada com limites e por isso outra tecnologia está sendo desenvolvida para que seja informado aonde ela atuou.
Outras ferramentas capazes de “ressuscitar” pessoas já estão disponível. É o caso de uma IA que usa a foto de uma pessoa para criar um vídeo. “Claro que isso gera um apego emocional, mas, ao mesmo tempo, aquilo não é real. É uma questão profunda: o quanto realmente queremos ir nessa direção?”, alerta Julien Weissenberg.
Para o especialista, é preciso pensar por que uma solução está sendo desenvolvida e como ela irá impactar as pessoas. Nesse sentido, uma questão ética citada por ele está relacionada com a inclusão. Como desenvolver IAs que não são tendenciosas? Recentemente, o algoritmo do Facebook foi acusado de enviesar a distribuição de impressões de oportunidades de empregos de acordo com a vaga, direcionando-as de forma desigual para homens e mulheres. Julien conta que essa questão não recebeu a atenção devida em alguns casos, mas que os cientistas de IA estão cada vez mais cientes de que precisam ser cuidadosos com preconceitos.
A questão da transparência é outro tópico importante. “Quanto mais avançados os modelos são, menos clareza eles têm. Por que eles chagaram a determinada conclusão? E isso pode ser bastante problemático. Vamos pensar, por exemplo, em diagnósticos médicos. A IA fala que a pessoa tem uma doença X, mas a gente não tem uma explicação para isso porque é possível que o modelo identifique algo que os seres humanos não conseguiriam. Também fica a questão de quão preciso é o resultado. Há ferramentas que mostram qual dado é responsável pelo resultado, mas muito trabalho deve ser feito para entender as recomendações das IAs”, afirma Weissenberg.
Mas, apesar da importância dos pontos citados anteriormente, Julien ressalta a privacidade dos dados como a questão ética mais séria. “Como tratar os dados das pessoas de uma maneira que siga o escopo do que elas estão dispostas a fazer com eles? Como explicar para as pessoas o que realmente é feito com os dados delas? Como ter certeza que terceiros não terão acesso para fazer algo a mais com eles? Como ter certeza de que as pessoas entendem o valor das informações que estão dando? Qual o preço disso? É necessário que as pessoas saibam da importância dos seus dados.”
+ Notícias
As frustações do estado de bem-estar digital
Inteligência artificial no centro da disputa pela hegemonia global