/
/
Na era da IA e manipulação de imagens, ver já não é acreditar

Na era da IA e manipulação de imagens, ver já não é acreditar

Deepfakes e edições hiper-realistas feitas por IA desafiam a segurança, a política e o jornalismo, criando novas ameaças à confiança pública e aos direitos individuais.
Na era da IA e manipulação de imagens, ver já não é acreditar
Na era da IA e manipulação de imagens, ver já não é acreditar

Nos últimos anos, a Inteligência Artificial deixou de ser uma tecnologia restrita a especialistas para se tornar acessível a qualquer pessoa com um celular e conexão à internet. Entre os campos mais impactados por essa democratização, está a manipulação de imagens, agora capaz de produzir conteúdos hiper-realistas que desafiam até os olhos mais atentos.

O fenômeno, que envolve desde simples retoques até deepfakes extremamente convincentes, acende alertas em áreas como segurança digital, política, jornalismo, padrões de beleza e direitos autorais.

Acesso facilitado, risco multiplicado

Para Gustavo Zaniboni, CAIO e fundador da Ananque, o principal fator que agrava os riscos hoje não é necessariamente a mudança na natureza das ameaças, mas sim na facilidade com que elas podem ser executadas.

“Os riscos de manipulação de imagens, no geral, não mudaram muito. O que mudou foi a probabilidade de acontecerem. Uma vez que as ferramentas para ataques envolvendo imagens ‘fakes’ estão disponíveis agora para pessoas sem conhecimento avançado em tecnologia”, alerta.

Ferramentas de baixo custo, ou mesmo gratuitas, permitem que qualquer usuário crie ou altere imagens com alto grau de realismo. Isso sem que seja necessário ter experiência em softwares avançados. Esse acesso democratizado, segundo Gustavo, amplia o alcance de golpes de extorsão, fraudes em sistemas de autenticação e manipulação da opinião pública.

Ele alerta que não se trata apenas de criar imagens do zero, mas também de realizar pequenas alterações com potencial de gerar impacto significativo.

“Colocar uma garrafa de bebida alcoólica na mão de uma pessoa que diz não beber é muito simples. E isso pode ser usado para manipular a opinião pública, por exemplo”, comenta.

Do engano humano à fraude automatizada

O avanço das IAs também coloca em xeque a capacidade de diferenciação entre o real e o sintético. Gustavo destaca que, para humanos, o risco de engano cresce em situações de estresse ou baixa atenção, como no caso de idosos recebendo imagens falsas de familiares em perigo. Já para sistemas automáticos, o perigo está na ausência de camadas adicionais de verificação.

“Sistemas de reconhecimento facial que podem ser manipulados com injeção de imagens já não deveriam existir, assim como outras tecnologias de segurança. Qualquer sistema de segurança deve operar em camadas, e se algum deles não faz isso, o sistema em si é ruim. Então, sistemas ‘ruins’ de segurança podem ser manipulados. Mas esses tipos de ataques são conhecidos faz 40 anos”, explica.

Michael San Martim, fundador da DataSpoc, reforça que a detecção de deepfakes é um desafio técnico contínuo. “Um deepfake é uma mídia sintética criada por Inteligência Artificial para imitar com alto realismo a aparência ou a voz de uma pessoa real – como se fosse uma fantasia digital extremamente convincente”, comenta. “Detectar deepfakes é como jogar esconde-esconde com um adversário que muda constantemente de disfarce.”

Ele explica que sua empresa desenvolve o GenbyAI, uma tecnologia que funciona como “detetive digital”, examinando milhares de elementos invisíveis a olho nu, como iluminação, ruído, padrões estruturais e reflexos, para identificar inconsistências.

O que caracteriza um deepfake?

Segundo Michael, há sinais visíveis que ainda ajudam a identificar deepfakes. São fatores como piscar anormal, desalinhamento entre fala e boca, textura de pele excessivamente lisa ou proporções corporais incoerentes. Mas ele ressalta que, mesmo quando a mídia parece perfeita, é fundamental investigar o contexto. “Mesmo que o vídeo pareça natural, a pessoa pode estar dizendo ou fazendo algo que jamais faria, o que demanda investigação contextual”, pontua. Essa perspectiva é essencial diante do uso de deepfakes em golpes financeiros, manipulação política, pornografia não consensual e falsificação de evidências em processos judiciais.

Gustavo Zamboni reforça haver ferramentas que buscam padrões em imagens geradas por computador que permitem indicar imagens fake com alguma precisão. Mas isso só serve para um filtro em casos específicos.

“Imagens mal-feitas, ou feitas por leigos, normalmente apresentam características de textura e até de composição da cena que pode ser identificada com um olhar cuidadoso. Ainda tem problema com dedos de pessoas, horas nos relógios, etc. Então, imagens geradas sem muito cuidado, podem ser notadas com cuidado. Os vídeos, por exemplo, que viraram moda ultimamente, tem um formato bem típico. São cortes de 8 segundos no máximo, muitas vezes com descontinuidade. As pessoas sempre com expressões forçadas”, relata.

Porém, o especialista alerta que, em um ataque deliberado, não é possível esperar que as pessoas que recebem materiais fakes – sejam imagens ou vídeos – parem para analisar se a situação retratada é verdadeira ou não.

“Se você escrever uma legenda ‘imagem feita com computador’, é capaz de ainda assim as pessoas não se tocarem disso. Isso aumenta muito essa capacidade de manipulação e fazem as ferramentas de identificação praticamente não servirem para muita coisa”, acrescenta Gustavo.

Impactos na confiança pública e no jornalismo

Para Aline Sordili, mestranda em Inteligência Artificial pela PUC-SP e especialista em IA aplicada ao ambiente profissional, o risco mais grave é o colapso da “prova visual”. Ela lembra que, historicamente, fotos e vídeos eram tratados como provas quase incontestáveis.

“Com deepfakes e imagens hiper-realistas geradas por IA, essa credibilidade entra em colapso. Para o jornalismo, isso significa adotar novos protocolos de verificação e reforçar a educação midiática do público. Para a sociedade, significa entrar numa era onde ‘ver’ não é mais ‘acreditar’, com implicações profundas para a política, a justiça e a memória histórica. É preciso promover um letramento digital em IA amplo para toda a sociedade”, frisa.

A especialista também cita princípios da UNESCO e da Declaração de Montreal para o Uso Responsável da IA, que destacam a importância da transparência para proteger direitos humanos e a dignidade das pessoas.

“A Declaração de Montreal sobre o uso responsável da IA (2018) reforça que devemos prevenir a manipulação e preservar a dignidade humana. Eticamente, estamos falando de violar o direito à informação verdadeira, previsto no pacto internacional de direitos civis e políticos, e ao consentimento informado. A transparência na origem e no processo de criação é o mínimo para preservar a integridade visual”, reforça.

Riscos jurídicos e zonas cinzentas

Quando uma imagem gerada por IA retrata uma pessoa inexistente, mas com traços hiper-realistas, Aline aponta que há risco jurídico se houver coincidência com características de alguém real.

“O Artigo 5º da Constituição Federal protege a imagem das pessoas. E mesmo que a pessoa retratada ‘não exista’, se seus traços coincidirem com características de uma pessoa real, intencionalmente ou não, pode haver alegação de uso indevido de imagem ou até difamação”, explica. “O direito analisa pelo impacto e pelo potencial de confusão, não apenas pela intenção, seguindo a lógica do princípio da ética do cuidado aplicado ao direito digital.”

O desafio, segundo Aline, é que a IA gera padrões visuais que podem coincidir com indivíduos reais de forma estatisticamente inevitável. Isso cria um território cinza na aplicação da lei, tema ainda não consolidado na jurisprudência brasileira.

Padrões de beleza e autoestima

Além dos riscos políticos e de segurança, a IA pode amplificar padrões de beleza irreais e inatingíveis, alimentando comparações e distorcendo a percepção de corpo e aparência. Recentemente, uma campanha da Guess publicada na Vogue reacendeu o debate. “Sob a perspectiva da ética do cuidado e dos princípios de não discriminação previstos no artigo 5º da Constituição Federal, isso configura uma ameaça à integridade moral das pessoas”, reforça Aline.

Em redes sociais, onde o engajamento visual é alto, isso se traduz em pressão estética, transtornos de imagem e aumento de casos de ansiedade e depressão. Segundo a especialista, as diretrizes da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) para IA reforçam a necessidade de robustez técnica e governança responsável.

“Eticamente, as plataformas têm a responsabilidade de alertar quando um conteúdo é manipulado, limitar filtros que distorçam excessivamente a aparência e investir em campanhas de conscientização. Legalmente, é um campo em evolução, mas já se discute a responsabilização das plataformas em casos de danos comprovados. Várias plataformas já têm políticas públicas que proíbem o uso da IA para esses fins, mas a execução dessas políticas ainda é falha. Há um gap entre a política e a prática ou o cumprimento da diretriz”, destaca.

Ilusão da marca d’água e importância da autoria

Um ponto controverso é a ideia de inserir marcas d’água ou selos digitais de autenticidade, com o objetivo de aumentar a transparência e a rastreabilidade das imagens produzidas ou alteradas por Inteligência Artificial. Para Gustavo Zaniboni, isso pode criar uma falsa sensação de segurança. Isso porque, segundo o especialista, quem tem a intenção de aplicar um golpe usará modelos não regulados.

“Imagine que uma rede social diga que ‘marca’ imagens geradas por IA. A tecnologia não permite que ela identifique todas as imagens, isso é um fato. Ou seja, os usuários dessa rede vão confiar muito mais que as imagens são verdadeiras. Assim, as poucas imagens feitas por atacantes para manipular as pessoas terão muito mais impacto, já que elas estarão em um ambiente mais confiável”, explica.

Michel San Martim, por outro lado, vê potencial no “carimbo criptográfico”, que registra a origem e autenticidade de fotos e vídeos, desde que a tecnologia seja robusta e resistente a alterações. Nesse caso, esse carimbo poderia ser emitido por câmeras, celulares ou plataformas online. Além disso, ele sugere que ferramentas de IA poderiam inserir assinaturas digitais invisíveis.

Quem é o autor de uma imagem feita por IA?

A autoria de imagens geradas por IA é outro território nebuloso. Aline lembra que a lei brasileira de direitos autorais pressupõe autoria humana, mas reconhece que o criador do prompt pode ser considerado autor quando há participação criativa substancial.

“Estamos num limbo jurídico. A Lei de Direitos Autorais brasileira (9.610/98) pressupõe autoria humana, não reconhecendo máquinas como autoras. Como a Inteligência Artificial não é uma pessoa perante a lei, a autoria recai sobre quem deu a direção criativa: o que pode incluir o criador do prompt, se ele tiver participação substancial na concepção”, diz.

Ao mesmo tempo, a ausência de regulamentação específica gera disputas. Especialmente quando os prompts são genéricos ou a imagem é fortemente derivada de bases de dados pré-existentes. A tendência internacional, conforme as diretrizes da OCDE, é reconhecer a autoria humana apenas quando há contribuição criativa significativa.

“Internacionalmente, há diferentes abordagens: o Copyright, Designs and Patents Act do Reino Unido reconhece direitos autorais para obras geradas por computador quando há arranjo humano suficiente, enquanto o Japão permite uso mais amplo de dados protegidos para treinamento de IA em sua reforma de 2018”, comenta. “Mas, e se tirássemos o Photoshop, o InDesign, o Canva dos criativos? Como eles criariam? Nesses casos, as IAs também precisam ser vistas como ferramentas de criação como suas antecessoras.”

Punir o ato, não a ferramenta

A regulação, segundo Gustavo, poderia tornar a penalidade mais severa quando alguém comete algum crime relacionado à manipulação da realidade. Seja por imagens, áudio, vídeo ou texto, independentemente de ser Inteligência Artificial. Porém, ele reforça que não adianta exigir que os modelos não gerem certos conteúdos, ou que as imagens geradas por empresas tenham marca d’água. Isso seria resumir demais o problema.

“Hoje, o Photoshop usa IA para tirar o fundo de uma imagem. Normalmente isso manipula mais de 30% da imagem. Seria considerada uma imagem fake? A zona cinzenta é muito grande. Agora, se eu mexer em apenas um pedacinho da imagem e a intenção com ela for cometer um crime, como manipular a imagem de um candidato perante a população na véspera da eleição, isso deve ser punido”, aponta.

Segundo o especialista, o erro está na conduta daqueles que espalham deepfakes, e não na ferramenta. Além disso, existe uma facilidade no acesso de programas que possibilitam manipulação de imagem, fora dos grandes players.

“Assim, a regulação cometeria um erro ao impor medidas ineficazes. Usamos IA quando não temos uma receita de bolo para resolver um problema. Mostramos exemplos e o sistema passa a responder como esses exemplos. Todas as tentativas de ‘forçar’ certos tipos de saídas em sistemas desse tipo dão errado. Os requisitos regulatórios devem primar pela reprodutibilidade, pela transparência na informação, e pela governança”, defende.

Aline complementa que a adaptação regulatória deve combinar legislação ágil, autorregulação setorial, soluções tecnológicas e educação midiática. “A tecnologia muda rápido, mas o impacto humano é profundo e duradouro. A proteção passa por combinar leis, ética, tecnologia e alfabetização digital numa abordagem holística que preserve os direitos fundamentais previstos na Constituição Federal e nos tratados internacionais de direitos humanos”, comenta.

Corrida entre ataque e defesa

O equilíbrio entre avanço das técnicas de manipulação e ferramentas de detecção é frágil. Michael acredita que, embora a impressão seja de que os ataques evoluem mais rápido, a defesa pode acompanhar desde que haja investimento. Além disso, novas plataformas surgem diariamente, tornando o cenário mais diversificado. Assim, a detecção precisa se adaptar rapidamente a cada novo método.

“Nossa tecnologia acelera essa adaptação com treinamento e criação automatizada de modelos, respondendo de forma ágil a novas ameaças. Exemplo: se apenas os “atacantes” evoluírem e ninguém criar defesas, chegaremos a um ponto em que nada poderá ser confiável. É preciso desenvolver proteção ao mesmo tempo em que surgem novas técnicas de falsificação”, finaliza.

Compartilhe essa notícia:

Recomendadas

MAIS +

Veja mais noticias

Uso disseminado da IA por profissionais do Direito eleva produtividade e qualidade, mas expõe falta de diretrizes e investimento das organizações.
IA alcança 77% dos advogados e pressiona transformação no setor jurídico
Uso disseminado da IA por profissionais do Direito eleva produtividade e qualidade, mas expõe falta de diretrizes e investimento das organizações.
IA já impacta profissionais qualificados e pode ampliar desigualdade no Brasil. Especialista da ESPM analisa efeitos no trabalho, renda e consumo.
CM Entrevista: IA vai gerar riqueza ou ampliar desigualdade?
IA já impacta profissionais qualificados e pode ampliar desigualdade no Brasil. Especialista da ESPM analisa efeitos no trabalho, renda e consumo.
CTOs e lideranças de tecnologia femininas assumem protagonismo na adoção da IA nas empresas, definindo limites, governança e impacto na experiência do cliente.
Para CTOs, se a tecnologia falha, a experiência morre
CTOs e lideranças de tecnologia femininas assumem protagonismo na adoção da IA nas empresas, definindo limites, governança e impacto na experiência do cliente.
Rodolfo Eschenbach, presidente da Accenture para Brasil e América Latina.
CM Entrevista: "IA é simples de experimentar e difícil de escalar", diz presidente da Accenture
Rodolfo Eschenbach explica por que transformar testes em resultados concretos ainda é o principal desafio das empresas brasileiras.
SUMÁRIO – Edição 296

A evolução do consumidor traz uma série de desafios inéditos, inclusive para os modelos de gestão corporativa. A Consumidor Moderno tornou-se especialista em entender essas mutações e identificar tendências. Como um ecossistema de conteúdo multiplataforma, temos o inabalável compromisso de traduzir essa expertise para o mundo empresarial assimilar a importância da inserção do consumidor no centro de suas decisões e estratégias.

A busca incansável da excelência e a inovação como essência fomentam nosso espírito questionador, movido pela adrenalina de desafiar e superar limites – sempre com integridade.

Esses são os valores que nos impulsionam a explorar continuamente as melhores práticas para o desenho de uma experiência do cliente fluida e memorável, no Brasil e no mundo.

A IA chega para acelerar e exponencializar os negócios e seus processos. Mas o CX é para sempre, e fará a diferença nas relações com os clientes.

CAPA: Rhauan Porfírio
IMAGEM: IA Generativa | ChatGPT


Publisher
Roberto Meir

Diretor-Executivo de Conhecimento
Jacques Meir
[email protected]

Diretora-Executiva
Lucimara Fiorin
[email protected]

COMERCIAL E PUBLICIDADE
Gerentes

Daniela Calvo
[email protected]

Elisabete Almeida
[email protected]

Érica Issa
[email protected]

Gustavo Bittencourt
[email protected]

Juliana Carvalho
[email protected]

Marcelo Malzoni
[email protected]

NÚCLEO DE CONTEÚDO
Head de Conteúdo
Larissa Sant’Ana
[email protected]

Editora do Portal 
Júlia Fregonese
[email protected]

Produtores de Conteúdo
Bianca Alvarenga
Danielle Ruas 
Jéssica Chalegra
Marcelo Brandão
Victoria Pirolla

Head de Arte
Camila Nascimento
[email protected]

Revisão
Elani Cardoso

COMUNICAÇÃO E MARKETING
Coordenadoras
Nayara Manfredi
Paula Coutinho

TECNOLOGIA
Gerente

Ricardo Domingues


CONSUMIDOR MODERNO
é uma publicação da Padrão Editorial Ltda.
www.gpadrao.com.br
Rua Ceará, 62 – Higienópolis
Brasil – São Paulo – SP – 01234-010
Telefone: +55 (11) 3125-2244
A editora não se responsabiliza pelos conceitos emitidos nos artigos ou nas matérias assinadas. A reprodução do conteúdo editorial desta revista só será permitida com autorização da Editora ou com citação da fonte.
Todos os direitos reservados e protegidos pelas leis do copyright,
sendo vedada a reprodução no todo ou em parte dos textos
publicados nesta revista, salvo expresso
consentimento dos seus editores.
Padrão Editorial Ltda.
Consumidor Moderno ISSN 1413-1226

NA INTERNET
Acesse diariamente o portal
www.consumidormoderno.com.br
e tenha acesso a um conteúdo multiformato
sempre original, instigante e provocador
sobre todos os assuntos relativos ao
comportamento do consumidor e à inteligência
relacional, incluindo tendências, experiência,
jornada do cliente, tecnologias, defesa do
consumidor, nova consciência, gestão e inovação.

PUBLICIDADE
Anuncie na Consumidor Moderno e tenha
o melhor retorno de leitores qualificados
e informados do Brasil.

PARA INFORMAÇÕES SOBRE ORÇAMENTOS:
[email protected]