Nos próximos meses, a Meta irá rotular imagens criadas por meio de Inteligência Artificial (IA) publicadas em suas redes sociais, Facebook, Instagram e Threads. Segundo a empresa, imagens fotorrealistas geradas com o recurso Meta AI, já recebem uma descrição de que foram “Criadas por IA”. O objetivo é expandir a classificação para imagens geradas por ferramentas de Inteligência Artificial de outras empresas.
“É por isso que temos trabalhado com parceiros da indústria para alinhar padrões técnicos comuns que sinalizam quando um conteúdo foi criado com o uso de inteligência artificial”, explica Nick Clegg, presidente de assuntos globais da Meta, em comunicado no blog da empresa. “Ser capaz de detectar esses sinais nos permitirá rotular imagens geradas por IA que os usuários postam no Facebook, no Instagram e no Threads. Estamos desenvolvendo esse recurso agora e, nos próximos meses, começaremos a aplicar esses rótulos em todos os idiomas apoiados por cada aplicativo”.
O executivo ainda explica que o ano de 2024, quando a abordagem será aplicada, será uma importante fonte de aprendizado sobre as práticas do setor e para aprimorar a abordagem da própria Meta no futuro. Uma vez que o ano será sede de diversas eleições em todo o mundo, incluindo o Brasil, a organização espera aprender mais sobre como as pessoas estão criando e compartilhando conteúdos gerados por Inteligência Artificial e o que consideram importante em termos de transparência da tecnologia.
Num momento em que a geração de deepfakes – uso de IA para alterar o rosto de pessoas em vídeos, assim como voz e expressões de forma que pareça autêntico – e informações falsas é foco de preocupação de diferentes entidades e governos em todo o mundo, a reposta da Meta parece uma construção possível para minimizar os riscos gerados pelo uso malicioso da tecnologia.
Marcadores invisíveis
As imagens criadas por meio da Meta AI – ferramenta de assistência conversacional baseada em Inteligência Artificial (IA) generativa e geração de imagens – recebem também alguns marcadores visíveis e invisíveis, além de metadados incorporados aos arquivos. Dessa forma, usuários e demais plataformas podem identificar que se trata de uma foto gerada por meio do uso da tecnologia.
A Meta também está construindo ferramentas que possam fazer essa identificação em larga escala, de forma a rotular de forma padronizada imagens geradas por programas de empresas como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock, à medida que as organizações implementem objetivos de adicionar metadados às imagens criadas por IA.
No entanto, a fundadora do Facebook acrescenta que ainda não consegue detectar áudios e vídeos gerados por meio de Inteligência Artificial. O motivo para isso é que as empresas ainda não começaram a incluir esse sistema de “etiquetas” e metadados em ferramentas que gerem esses artigos na mesma escala que a geração de imagens.
“Enquanto a indústria trabalha para alcançar esse recurso, estamos adicionando uma funcionalidade para que as pessoas sinalizem quando compartilharem vídeos ou áudios gerado por inteligência artificial, para que possamos adicionar o rótulo”, explica Clegg. “Passaremos a exigir que as pessoas utilizem essa ferramenta de divulgação e rotulagem quando publicarem conteúdos orgânicos com vídeo ou áudio realista que tenha sido criado ou alterado digitalmente, e poderemos aplicar penalidades caso não o façam”.
O comunicado também aponta que, caso a Meta determine que a imagem, áudio ou vídeo gerado ou alterado por meio de IA crie um risco elevado para enganar o público, a empresa poderá adicionar um rótulo ou descrição mais proeminente. Assim, demais usuários estão mais informados e terão mais contexto ao consumir aquela mídia.
Mais transparência em IA
Segundo a Meta, essas práticas representam o que há de mais atualizado no mercado hoje, além de tecnicamente viável no momento. Mas a empresa também ressalta que ainda não é possível identificar todo conteúdo produzido por meio de IA. Além disso, há formas de retirar os marcadores invisíveis – ou marcas d’água – das mídias digitais produzidos pelo uso da tecnologia.
“Estamos buscando uma série de opções”, afirma o comunicado. “Estamos trabalhando muito para desenvolver uma classificação que nos ajude a detectar automaticamente conteúdos gerados por inteligência artificial, mesmo que ele não tenha marcadores invisíveis. Simultaneamente, estamos procurando maneiras de dificultar a remoção ou alteração das marcas d’água invisíveis”.
Uma dessas possíveis soluções é a Stable Signature, uma tecnologia de marca d’água invisível explorada pelo FAIR, laboratório de pesquisa de Inteligência Artificial da Meta. Uma vez que essa assinatura integra o mecanismo de rotulagem na geração de fotos para alguns tipos de ferramentas, isso faz com que a marca d’água não possa ser removida ou alterada. Trata-se de uma solução que pode ser especialmente benéfica para modelos de código aberto (open source).
A Meta ainda acrescenta que IA já é utilizada para ajudar a detectar e endereçar discursos de ódio e demais conteúdos que violem os Padrões da Comunidade das plataformas. No entanto, a adoção de ferramentas de IA generativa para esse mesmo objetivo ainda é limitada.
“Começamos a testar grandes modelos de linguagem (LLMs), treinando-os com os nossos Padrões da Comunidade para nos ajudar a determinar se um conteúdo viola as nossas políticas”, explica Clegg. “Esses testes iniciais sugerem que os LLMs podem ter um desempenho melhor do que os modelos de aprendizado de máquina já existentes. Também estamos usando LLMs para remover conteúdo das filas de revisão em determinadas circunstâncias, quando temos certeza de que ele não é violador das nossas políticas”.