A Inteligência Artificial (IA) tem se tornado uma parte cada vez mais presente do nosso dia a dia. Fato. E a partir dele, a discussão sobre a Inteligência Artificial Responsável ganha destaque. Mas o que exatamente isso significa? Basicamente, trata-se de garantir que as tecnologias de IA sejam desenvolvidas e utilizadas de maneira ética, transparente e que respeitem os direitos das pessoas.
Quando pensamos em IA Responsável, é importante considerar não apenas os aspectos técnicos, mas também o impacto social e ambiental dessas tecnologias. E é aí que entra a relação com o consumo. O que consumimos – seja produtos, serviços ou informações – influencia diretamente como as empresas desenvolvem e implementam a IA.
Cátedra de IA: os avanços
Nesse aspecto, o anúncio da criação da Cátedra de Inteligência Artificial (IA) Responsável representa um passo importante para os consumidores. A Cátedra de IA é fruto da colaboração entre a Universidade de São Paulo (USP) e o Google.
A iniciativa busca promover pesquisas que foquem na ética e na responsabilidade no desenvolvimento de sistemas de IA. Ademais, a ideia é oferecer formação e sensibilização para alunos e profissionais. Em suma, a criação da Cátedra destaca a necessidade de integrar conhecimento acadêmico e prático. Por consequência, incentivar o debate sobre a aplicação responsável da IA em diferentes setores.
A ação se alinha com direitos fundamentais do Código de Defesa do Consumidor. O instrumento inclui a necessidade de informação clara, proteção contra práticas discriminatórias e segurança nos produtos e serviços disponíveis no mercado. Com a preocupação sobre como os algoritmos perpetuam preconceitos, espalham desinformação ou manipulam decisões, a pesquisa em ética de IA se torna essencial. Isso para garantir relações de consumo mais equilibradas e confiáveis.
A missão da Cátedra de IA
De acordo com a USP, a nova cátedra tem como missão assegurar que os sistemas de IA “ampliem capacidades humanas, reduzam desigualdades e enfrentem riscos éticos e sociais”. Em sua coluna do Jornal da USP, o professor Glauco Arbix ressaltou que o foco principal é fazer com que a IA contribua para um mundo mais justo, seguro e solidário.
Em síntese, ele também alerta que uma IA responsável não surge por acaso. Glauco é coordenador do Observatório da Inovação do IEA-USP.
“Toda tecnologia crítica traz consigo riscos em primeiro lugar. Analogamente, questões éticas, discriminação de privacidade, além de vieses de gênero e raça e a possibilidade de disseminação de notícias falsas também estão em jogo”, afirma na coluna.
O lançamento da Cátedra de IA Responsável está marcado para o dia 2 de dezembro, no auditório do Conselho Universitário da USP. Em meio aos debates globais sobre segurança e governança da IA, essa iniciativa coloca o Brasil em uma posição estratégica para desenvolver diretrizes éticas e científicas que, a médio prazo, podem se traduzir em melhores práticas nas empresas e maior proteção aos consumidores no uso cotidiano de tecnologias inteligentes.
Importante destacar que a A USP é a 17ª universidade que mais produz pesquisa no mundo. A informação consta no ranking elaborado pelo Centro de Estudos em Ciência e Tecnologia (CWTS, na sigla em inglês) da Universidade de Leiden, na Holanda.





