Pesquisar
Close this search box.
/
/
Não há um único caminho para uma IA ética e responsável

Não há um único caminho para uma IA ética e responsável

Governança em IA é tema debate na FGV e pesquisadores lançam relatório com passo a passo para criação de Comitês de Ética dentro das empresas

A FGV promoveu um debate sobre ética e governança da Inteligência Artificial em organizações. Na sexta-feira, a Consumidor Moderno acompanhou a discussão sobre a criação de Comitês de Ética em IA nas empresas, principalmente em grandes companhias. O Centro de Ensino e Pesquisa em Inovação (CEPI) da FGV Direito SP aproveitou a ocasião para lançar uma pesquisa inédita, que provavelmente terá repercussão internacional, falando sobre o tema.

Os pesquisadores da FGV destacaram que ao pensarmos em uma Inteligência Artificial responsável, as soluções não são nada óbvias e para além de refletirmos sobre regulamentação, é essencial discutir a governança dentro das organizações e os processos de tomada de decisões. Segundo eles, é necessário olhar para as características das empresas, os riscos que as soluções propostas representam para a sociedade e entender que os impactos da IA ultrapassam as questões técnicas e tecnológicas.

Durante o debate foi enfatizado, por exemplo, que cada empresa deverá ter uma carta de princípios para a utilização da IA e que esses valores precisam ser trabalhados e incorporados por todos os times, não apenas por equipes de TI. Através desses princípios organizacionais, as empresas conseguirão construir ambientes éticos, com diretrizes palpáveis e normas que, de fato, funcionem.

Os Comitês de Ética em IA são importantes nesse sentido, pois eles ajudam a sistematizar os caminhos dentro do contexto de cada organização. Eles cumprem o papel de ser um ambiente de discussão em que um grupo de pessoas, de vários setores, se reúnem para organizar e orientar as estruturas éticas da empresa, para tornar possível soluções de IA responsáveis (capazes de tomar decisões importantes nas vidas das pessoas); explicáveis; e auditáveis.

Um programa de governança e prevenção de risco para ser bem sucedido, deve passar pelas seguintes etapas: definição do problema; documentação; impacto de risco; análise de saídas; e constituição de um Comitê de Ética. Atualmente, segundo o levantamento feito pelo CEPI-FGV existem apenas 23 Comitês do tipo no mundo. A maioria foi criada entre 2016 e 2020.

Para os pesquisadores isso mostra como a discussão de IA responsável e das estruturas necessárias para que as soluções de fato sejam enquadradas em conceitos éticos, ainda é muito embrionária. Isso, tanto no mundo corporativo, quanto na academia e na literatura. Em 2016, os Comitês de Ética em Ia criados eram em sua maioria externos às empresas. Na prática, eram formados por consultores independentes que faziam observações e aconselhamentos às lideranças. A única exceção era o da Microsoft, que era composto por membros da própria companhia, de áreas diversas.

Dos primeiros Comitês a serem criados, os pesquisadores também destacaram o da Axom, que com menos de cinco anos de existência, já lançou dois relatórios públicos detalhados sobre a remuneração dos membros, processo decisório e produtos revisados. Entre 2020 e 2022, de acordo com a pesquisa, foram criados sete Comitês de Ética em IA. Desses, vale a pena destacar o da Orange, o da Embrapii e o da Panasonic.

Esses dois últimos têm uma característica diferente: são formados por mais de uma empresa e trazem a ideia de governança em rede. O da Embrapii é um Comitê de Rede, formado por várias instituições. O da Panasonic, que começou a ser discutido em 2019 e foi operacionalizado em 2022, traz uma estrutura de holding. Ou seja, há uma variedade de maneiras de estruturação desses Comitês de Ética, que devem ser pensados e estruturados norteados pelos princípios e características de cada organização.

Como montar um Comitê de Ética em IA?

estruturação-comitê-ética
Fonte: FGV Direito SP

A pesquisa da FGV elaborou um framework com os cinco pilares para montar o Comitê de Ética da sua empresa e a aplicação deles passo a passo. Eles têm como base, os princípios do Fórum Econômico Mundial e de organizações como a Unesco, o Conselho Europeu e o OCDE. Os pilares são:

  • Finalidade
  • Estrutura
  • Composição
  • Poder
  • Processo Decisório

A finalidade, por exemplo, vai variar de acordo com as características da empresa e da solução de IA a ser implementada. Lembrando do Conselho de Medicina, que é muito tradicional na sociedade brasileira, a finalidade pode ser desde orientativa, informativa, até normativa e repressiva. Em relação à composição, como já falamos, o Comitê pode ser formado de pessoas de dentro ou de fora da empresa, tudo vai depender do que faz sentido em cada situação.

Segundo os pesquisadores para que o Comitê de Ética em Ia das empresas funcione de fato e se consolide neste papel de garantir o uso da IA em soluções de forma responsável, é essencial que haja uma definição de responsabilidades; um diagnóstico das soluções, porque muitas vezes o que chamam de IA não é de fato IA; um relatório geral de impacto, que vai definir as estruturas necessárias com base nos riscos.

Especialistas destacaram ainda a importância de entender que tecnologia e ética permeiam a todos no universo das empresas: grandes corporações, médias, pequenas e até os empreendedores que trabalham na informalidade. Quando falamos em Comitê de Ética, estamos falando de um recorte, um extrato desse bolo. Eles lembraram que no dia a dia, a tecnologia vem na frente dos conceitos de ética e responsabilidade, essa reflexão até existe, mas só ganha mais evidência depois de três ou cinco anos que a solução está no mercado.

É importante enfatizar ainda que não basta criar o Comitê de Ética em IA, é importante que ele funcione. Também é relevante, de acordo com os especialistas, deixar clara a definição de IA, evitando dar margem para “maquiagem” e enfatizar quando se fala sobre ética, os riscos associados ao uso da IA, porque isso “soa melhor aos ouvidos dos empresários”.

Como o conceito de IA Responsável vem sendo trabalhado pelas gigantes

Diego Canabarro, head de Política de Privacidade da Meta no Brasil, afirma que não existe uma fórmula única, ou uma resposta unânime quando o assunto é IA responsável. Segundo ele, a Meta reconhece que estamos em um momento de experimentar e de tentar achar as alternativas possíveis para fazer governança de IA em múltiplas dimensões e múltiplas frentes. “Não há um pré modelo definido próprio capaz de dar conta da complexidade desse tema”, explica.

O executivo conta que a Meta está atuando em duas frentes nesse sentido: uma interna, que é basicamente a maneira como a empresa atua no chão de fábrica; e a externa, que é a forma com que a Meta se relaciona com os outros atores do ecossistema. Internamente, de acordo com Diego, a Meta adotou um conjunto de pilares fundamentais para o uso da Inteligência Artificial de forma responsável.

“A gente adotou a declaração de princípios para orientar todo o desenvolvimento da alocação de responsabilidade da distribuição dos diferentes times. E esses pilares têm a ver com aqueles cinco princípios que já estão meio que convencionados que são: Transparência e Controle; Privacidade e segurança; governança em uma perspectiva ampla; Robustez e Segurança; e Equidade e Justiça”, relata o head de Política de Privacidade da Meta no Brasil.

A ideia, segundo ele, é incrementar a forma com que a organização se relaciona com os usuários e a criação de ferramentas para que os usuários exerçam um controle maior sobre a experiência deles dentro dos serviços da plataforma. “No meio do ano passado, a empresa entendeu que responsabilidade não pode ser um tema para uma única estrutura dentro da organização por conta da escala em que a gente opera. IA responsável tem que ser uma coisa embedada no funcionamento de toda a estrutura e nos diversos times”, afirma Diego.

Externamente, Diego explica que a Meta tem trabalhado em múltiplas frentes de colaboração. Eles participam, por exemplo, do grupo de negócios da OCDE, onde empresas têm sido convidadas para documentar os dilemas que têm enfrentado no uso de inteligência artificial. Outro caminho encontrado pela Meta, tem sido trabalhar com instituições de ensino e pesquisa, como a universidade de San Andrés, na Argentina, que tem mapeado as características que devem ser levadas em conta na discussão da IA responsável na América Latina, como o contexto socioeconômico, a demografia e o estágio de desenvolvimento da tecnologia em cada lugar.

Loren Spíndola, do grupo de políticas públicas da Microsoft, analisa que a empresa já entendeu que de nada adianta ter princípios bem definidos se não houver governança, pois é isso que garante que os princípios sejam entendidos por todos. Loren conta que a Microsoft já conta com uma série de estruturas em função de analisar riscos e criar soluções de IA responsáveis. Uma delas é composta por cientistas e engenheiros, que são responsáveis por ver o estado da arte da IA e dar conselhos à liderança.

Outra estrutura é o Departamento de AI responsável (ORA), que olha onde a Microsoft pode apoiar os reguladores para implementar regras dentro da empresa para que os princípios de IA responsável sejam considerados em tudo que é feito. Por último, há ainda um grupo de engenheiros que estão na ponta e são responsáveis por desenvolver ferramentas que apoiem os princípios de IA responsável da companhia.

“Fazemos uma análise de IA baseada em risco, que começa em consultores regionais e, a depender, chega até a nossa liderança. A gente acredita que tem as etapas, todo o arcabouço para definir qual caso vai ser levado até a liderança, mas se tratando de dados sensíveis, a decisão final deve ser sempre da liderança”, defende a executiva.

Na Microsoft hoje o curso de IA responsável é obrigatório para todos os funcionários, a ideia é entender e internalizar de fato os princípios de IA responsável na companhia.

“Na nossa visão, no final, o papel fundamentou de um Comitê de Ética é passar confiança e conseguir fazer com que a tecnologia seja mais usada”, resume Loren.

Daniel Arbiz, diretor jurídico da Google, acrescenta que ao se tratar de uma discussão tão embrionária, é fundamental olhar para fora da empresa e procurar ter trocas e aprender. Ele ressalta, por exemplo, que a proximidade com a academia é fundamental.

“A governança tem que ser evolutiva para conseguir atingir o objetivo que é o equilibrio entre ser ousado e inovador e ser responsável. As coisas precisam caminhar juntas e para isso é fundamental a escuta atenta e a correção de rumo sempre que necessário”, afirma Daniel.

Segundo ele, os princípios de IA responsável da Google foram estruturados em 2018 e orientam as decisões tomadas na empresa. Daniel Arbiz explica que a Google está investindo no campo da explicabilidade e da transparência, mas também na correção de vieses para a diminuição de impactos sociais potencialmente negativos na utilização da IA.

“Nós anunciamos princípios proativos, de: buscar IA benéfica; evitar criar ou reproduzir vieses injustos; respeitar as pessoas; contribuir com foco na segurança e com testes controlados conforme o nível de risco, inclusive testes e auditorias externa; e defender padrões elevados de rigorosidade científica. Além disso, o Google declarou que não vai desenvolver IA em situações consideradas como linhas vermelhas do desenvolvimento: quando o foco do desenvolvimento ocasionar danos sociais; em soluções usadas em tecnologias bélicas; em soluções voltadas à vigilância; e em projetos que sejam contrários ao direito internacional e aos direitos humanos”, enumerou o executivo.


+Notícias

Publicação da dosimetria para sanções será divisor de águas na LGPD

Brasil participa de discussão sobre regulação de Big Techs em Paris

Recomendadas

MAIS MATÉRIAS

SUMÁRIO – Edição 284

As relações de consumo acompanham mudanças intensas e contínuas na sociedade e no mercado. Vivemos na era da Inteligência Artificial, dos dados e de um consumidor mais exigente, consciente e impaciente. Mais do que nunca, ele é o centro de tudo: das decisões, estratégias e inovações.
O consumidor é digital sem deixar de ser humano, inovador sem abrir mão do que confia. Ele quer respeito absoluto pela sua identidade, quer ser ouvido e ter voz.
Acompanhar cada passo dessa evolução é um compromisso da Consumidor Moderno, agora um ecossistema de Customer Experience (CX), com o mais completo, sólido e original conhecimento sobre comportamento do consumidor, inteligência relacional, tecnologias, plataformas, aplicações, processos e metodologias para operacionalizar a experiência de modo eficaz, conectando executivos e lideranças.

CAPA:
YUCA | Estúdio Criativo

ILUSTRAÇÃO:
Midjorney


Publisher
Roberto Meir

Diretor-Executivo de Conhecimento
Jacques Meir
[email protected]

Diretora-Executiva
Lucimara Fiorin
[email protected]

COMERCIAL E PUBLICIDADE
Gerentes-Comerciais
Andréia Gonçalves
[email protected]

Daniela Calvo
[email protected]

Elisabete Almeida
[email protected]

Érica Issa
[email protected]

Fabiana Hanna
[email protected]

NÚCLEO DE CONTEÚDO
Head de Conteúdo e Comunicação
Verena Carneiro
[email protected]

Head de Conteúdo
Melissa Lulio
[email protected]

Editora-Assistente
Larissa Sant’Ana
[email protected]

Repórteres
Bianca Alvarenga
Danielle Ruas 
Jéssica Chalegra
Julia Fregonese
Marcelo Brandão

Designer
Melissa D’Amelio
YUCA | Estúdio Criativo

Revisão
Elani Cardoso

MARKETING
Líder de Marketing Integrado 
Suemary Fernandes 
[email protected]

Coordenadora
Mariana Santinelli

TECNOLOGIA
Gerente

Ricardo Domingues

CX BRAIN
Data Analyst
Camila Cirilo
[email protected]


CONSUMIDOR MODERNO
é uma publicação da Padrão Editorial Eireli.
www.gpadrao.com.br
Rua Ceará, 62 – Higienópolis
Brasil – São Paulo – SP – 01234-010
Telefone: +55 (11) 3125-2244
A editora não se responsabiliza pelos conceitos emitidos nos artigos ou nas matérias assinadas. A reprodução do conteúdo editorial desta revista só será permitida com autorização da Editora ou com citação da fonte.
Todos os direitos reservados e protegidos pelas leis do copyright,
sendo vedada a reprodução no todo ou em parte dos textos
publicados nesta revista, salvo expresso
consentimento dos seus editores.
Padrão Editorial Eireli.
Consumidor Moderno ISSN 1413-1226

NA INTERNET
Acesse diariamente o portal
www.consumidormoderno.com.br
e tenha acesso a um conteúdo multiformato
sempre original, instigante e provocador
sobre todos os assuntos relativos ao
comportamento do consumidor e à inteligência
relacional, incluindo tendências, experiência,
jornada do cliente, tecnologias, defesa do
consumidor, nova consciência, gestão e inovação.

PUBLICIDADE
Anuncie na Consumidor Moderno e tenha
o melhor retorno de leitores qualificados
e informados do Brasil.

PARA INFORMAÇÕES SOBRE ORÇAMENTOS:
[email protected]

SUMÁRIO – Edição 284

As relações de consumo acompanham mudanças intensas e contínuas na sociedade e no mercado. Vivemos na era da Inteligência Artificial, dos dados e de um consumidor mais exigente, consciente e impaciente. Mais do que nunca, ele é o centro de tudo: das decisões, estratégias e inovações.
O consumidor é digital sem deixar de ser humano, inovador sem abrir mão do que confia. Ele quer respeito absoluto pela sua identidade, quer ser ouvido e ter voz.
Acompanhar cada passo dessa evolução é um compromisso da Consumidor Moderno, agora um ecossistema de Customer Experience (CX), com o mais completo, sólido e original conhecimento sobre comportamento do consumidor, inteligência relacional, tecnologias, plataformas, aplicações, processos e metodologias para operacionalizar a experiência de modo eficaz, conectando executivos e lideranças.

CAPA:
YUCA | Estúdio Criativo

ILUSTRAÇÃO:
Midjorney


Publisher
Roberto Meir

Diretor-Executivo de Conhecimento
Jacques Meir
[email protected]

Diretora-Executiva
Lucimara Fiorin
[email protected]

COMERCIAL E PUBLICIDADE
Gerentes-Comerciais
Andréia Gonçalves
[email protected]

Daniela Calvo
[email protected]

Elisabete Almeida
[email protected]

Érica Issa
[email protected]

Fabiana Hanna
[email protected]

NÚCLEO DE CONTEÚDO
Head de Conteúdo e Comunicação
Verena Carneiro
[email protected]

Head de Conteúdo
Melissa Lulio
[email protected]

Editora-Assistente
Larissa Sant’Ana
[email protected]

Repórteres
Bianca Alvarenga
Danielle Ruas 
Jéssica Chalegra
Julia Fregonese
Marcelo Brandão

Designer
Melissa D’Amelio
YUCA | Estúdio Criativo

Revisão
Elani Cardoso

MARKETING
Líder de Marketing Integrado 
Suemary Fernandes 
[email protected]

Coordenadora
Mariana Santinelli

TECNOLOGIA
Gerente

Ricardo Domingues

CX BRAIN
Data Analyst
Camila Cirilo
[email protected]


CONSUMIDOR MODERNO
é uma publicação da Padrão Editorial Eireli.
www.gpadrao.com.br
Rua Ceará, 62 – Higienópolis
Brasil – São Paulo – SP – 01234-010
Telefone: +55 (11) 3125-2244
A editora não se responsabiliza pelos conceitos emitidos nos artigos ou nas matérias assinadas. A reprodução do conteúdo editorial desta revista só será permitida com autorização da Editora ou com citação da fonte.
Todos os direitos reservados e protegidos pelas leis do copyright,
sendo vedada a reprodução no todo ou em parte dos textos
publicados nesta revista, salvo expresso
consentimento dos seus editores.
Padrão Editorial Eireli.
Consumidor Moderno ISSN 1413-1226

NA INTERNET
Acesse diariamente o portal
www.consumidormoderno.com.br
e tenha acesso a um conteúdo multiformato
sempre original, instigante e provocador
sobre todos os assuntos relativos ao
comportamento do consumidor e à inteligência
relacional, incluindo tendências, experiência,
jornada do cliente, tecnologias, defesa do
consumidor, nova consciência, gestão e inovação.

PUBLICIDADE
Anuncie na Consumidor Moderno e tenha
o melhor retorno de leitores qualificados
e informados do Brasil.

PARA INFORMAÇÕES SOBRE ORÇAMENTOS:
[email protected]