Nos últimos anos, a Inteligência Artificial deixou de ser uma tecnologia restrita a especialistas para se tornar acessível a qualquer pessoa com um celular e conexão à internet. Entre os campos mais impactados por essa democratização, está a manipulação de imagens, agora capaz de produzir conteúdos hiper-realistas que desafiam até os olhos mais atentos.
O fenômeno, que envolve desde simples retoques até deepfakes extremamente convincentes, acende alertas em áreas como segurança digital, política, jornalismo, padrões de beleza e direitos autorais.
Acesso facilitado, risco multiplicado
Para Gustavo Zaniboni, CAIO e fundador da Ananque, o principal fator que agrava os riscos hoje não é necessariamente a mudança na natureza das ameaças, mas sim na facilidade com que elas podem ser executadas.
“Os riscos de manipulação de imagens, no geral, não mudaram muito. O que mudou foi a probabilidade de acontecerem. Uma vez que as ferramentas para ataques envolvendo imagens ‘fakes’ estão disponíveis agora para pessoas sem conhecimento avançado em tecnologia”, alerta.
Ferramentas de baixo custo, ou mesmo gratuitas, permitem que qualquer usuário crie ou altere imagens com alto grau de realismo. Isso sem que seja necessário ter experiência em softwares avançados. Esse acesso democratizado, segundo Gustavo, amplia o alcance de golpes de extorsão, fraudes em sistemas de autenticação e manipulação da opinião pública.
Ele alerta que não se trata apenas de criar imagens do zero, mas também de realizar pequenas alterações com potencial de gerar impacto significativo.
“Colocar uma garrafa de bebida alcoólica na mão de uma pessoa que diz não beber é muito simples. E isso pode ser usado para manipular a opinião pública, por exemplo”, comenta.
Do engano humano à fraude automatizada
O avanço das IAs também coloca em xeque a capacidade de diferenciação entre o real e o sintético. Gustavo destaca que, para humanos, o risco de engano cresce em situações de estresse ou baixa atenção, como no caso de idosos recebendo imagens falsas de familiares em perigo. Já para sistemas automáticos, o perigo está na ausência de camadas adicionais de verificação.
“Sistemas de reconhecimento facial que podem ser manipulados com injeção de imagens já não deveriam existir, assim como outras tecnologias de segurança. Qualquer sistema de segurança deve operar em camadas, e se algum deles não faz isso, o sistema em si é ruim. Então, sistemas ‘ruins’ de segurança podem ser manipulados. Mas esses tipos de ataques são conhecidos faz 40 anos”, explica.
Michael San Martim, fundador da DataSpoc, reforça que a detecção de deepfakes é um desafio técnico contínuo. “Um deepfake é uma mídia sintética criada por Inteligência Artificial para imitar com alto realismo a aparência ou a voz de uma pessoa real – como se fosse uma fantasia digital extremamente convincente”, comenta. “Detectar deepfakes é como jogar esconde-esconde com um adversário que muda constantemente de disfarce.”
Ele explica que sua empresa desenvolve o GenbyAI, uma tecnologia que funciona como “detetive digital”, examinando milhares de elementos invisíveis a olho nu, como iluminação, ruído, padrões estruturais e reflexos, para identificar inconsistências.
O que caracteriza um deepfake?
Segundo Michael, há sinais visíveis que ainda ajudam a identificar deepfakes. São fatores como piscar anormal, desalinhamento entre fala e boca, textura de pele excessivamente lisa ou proporções corporais incoerentes. Mas ele ressalta que, mesmo quando a mídia parece perfeita, é fundamental investigar o contexto. “Mesmo que o vídeo pareça natural, a pessoa pode estar dizendo ou fazendo algo que jamais faria, o que demanda investigação contextual”, pontua. Essa perspectiva é essencial diante do uso de deepfakes em golpes financeiros, manipulação política, pornografia não consensual e falsificação de evidências em processos judiciais.
Gustavo Zamboni reforça haver ferramentas que buscam padrões em imagens geradas por computador que permitem indicar imagens fake com alguma precisão. Mas isso só serve para um filtro em casos específicos.
“Imagens mal-feitas, ou feitas por leigos, normalmente apresentam características de textura e até de composição da cena que pode ser identificada com um olhar cuidadoso. Ainda tem problema com dedos de pessoas, horas nos relógios, etc. Então, imagens geradas sem muito cuidado, podem ser notadas com cuidado. Os vídeos, por exemplo, que viraram moda ultimamente, tem um formato bem típico. São cortes de 8 segundos no máximo, muitas vezes com descontinuidade. As pessoas sempre com expressões forçadas”, relata.
Porém, o especialista alerta que, em um ataque deliberado, não é possível esperar que as pessoas que recebem materiais fakes – sejam imagens ou vídeos – parem para analisar se a situação retratada é verdadeira ou não.
“Se você escrever uma legenda ‘imagem feita com computador’, é capaz de ainda assim as pessoas não se tocarem disso. Isso aumenta muito essa capacidade de manipulação e fazem as ferramentas de identificação praticamente não servirem para muita coisa”, acrescenta Gustavo.
Impactos na confiança pública e no jornalismo
Para Aline Sordili, mestranda em Inteligência Artificial pela PUC-SP e especialista em IA aplicada ao ambiente profissional, o risco mais grave é o colapso da “prova visual”. Ela lembra que, historicamente, fotos e vídeos eram tratados como provas quase incontestáveis.
“Com deepfakes e imagens hiper-realistas geradas por IA, essa credibilidade entra em colapso. Para o jornalismo, isso significa adotar novos protocolos de verificação e reforçar a educação midiática do público. Para a sociedade, significa entrar numa era onde ‘ver’ não é mais ‘acreditar’, com implicações profundas para a política, a justiça e a memória histórica. É preciso promover um letramento digital em IA amplo para toda a sociedade”, frisa.
A especialista também cita princípios da UNESCO e da Declaração de Montreal para o Uso Responsável da IA, que destacam a importância da transparência para proteger direitos humanos e a dignidade das pessoas.
“A Declaração de Montreal sobre o uso responsável da IA (2018) reforça que devemos prevenir a manipulação e preservar a dignidade humana. Eticamente, estamos falando de violar o direito à informação verdadeira, previsto no pacto internacional de direitos civis e políticos, e ao consentimento informado. A transparência na origem e no processo de criação é o mínimo para preservar a integridade visual”, reforça.
Riscos jurídicos e zonas cinzentas
Quando uma imagem gerada por IA retrata uma pessoa inexistente, mas com traços hiper-realistas, Aline aponta que há risco jurídico se houver coincidência com características de alguém real.
“O Artigo 5º da Constituição Federal protege a imagem das pessoas. E mesmo que a pessoa retratada ‘não exista’, se seus traços coincidirem com características de uma pessoa real, intencionalmente ou não, pode haver alegação de uso indevido de imagem ou até difamação”, explica. “O direito analisa pelo impacto e pelo potencial de confusão, não apenas pela intenção, seguindo a lógica do princípio da ética do cuidado aplicado ao direito digital.”
O desafio, segundo Aline, é que a IA gera padrões visuais que podem coincidir com indivíduos reais de forma estatisticamente inevitável. Isso cria um território cinza na aplicação da lei, tema ainda não consolidado na jurisprudência brasileira.
Padrões de beleza e autoestima
Além dos riscos políticos e de segurança, a IA pode amplificar padrões de beleza irreais e inatingíveis, alimentando comparações e distorcendo a percepção de corpo e aparência. Recentemente, uma campanha da Guess publicada na Vogue reacendeu o debate. “Sob a perspectiva da ética do cuidado e dos princípios de não discriminação previstos no artigo 5º da Constituição Federal, isso configura uma ameaça à integridade moral das pessoas”, reforça Aline.
Em redes sociais, onde o engajamento visual é alto, isso se traduz em pressão estética, transtornos de imagem e aumento de casos de ansiedade e depressão. Segundo a especialista, as diretrizes da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) para IA reforçam a necessidade de robustez técnica e governança responsável.
“Eticamente, as plataformas têm a responsabilidade de alertar quando um conteúdo é manipulado, limitar filtros que distorçam excessivamente a aparência e investir em campanhas de conscientização. Legalmente, é um campo em evolução, mas já se discute a responsabilização das plataformas em casos de danos comprovados. Várias plataformas já têm políticas públicas que proíbem o uso da IA para esses fins, mas a execução dessas políticas ainda é falha. Há um gap entre a política e a prática ou o cumprimento da diretriz”, destaca.
Ilusão da marca d’água e importância da autoria
Um ponto controverso é a ideia de inserir marcas d’água ou selos digitais de autenticidade, com o objetivo de aumentar a transparência e a rastreabilidade das imagens produzidas ou alteradas por Inteligência Artificial. Para Gustavo Zaniboni, isso pode criar uma falsa sensação de segurança. Isso porque, segundo o especialista, quem tem a intenção de aplicar um golpe usará modelos não regulados.
“Imagine que uma rede social diga que ‘marca’ imagens geradas por IA. A tecnologia não permite que ela identifique todas as imagens, isso é um fato. Ou seja, os usuários dessa rede vão confiar muito mais que as imagens são verdadeiras. Assim, as poucas imagens feitas por atacantes para manipular as pessoas terão muito mais impacto, já que elas estarão em um ambiente mais confiável”, explica.
Michel San Martim, por outro lado, vê potencial no “carimbo criptográfico”, que registra a origem e autenticidade de fotos e vídeos, desde que a tecnologia seja robusta e resistente a alterações. Nesse caso, esse carimbo poderia ser emitido por câmeras, celulares ou plataformas online. Além disso, ele sugere que ferramentas de IA poderiam inserir assinaturas digitais invisíveis.
Quem é o autor de uma imagem feita por IA?
A autoria de imagens geradas por IA é outro território nebuloso. Aline lembra que a lei brasileira de direitos autorais pressupõe autoria humana, mas reconhece que o criador do prompt pode ser considerado autor quando há participação criativa substancial.
“Estamos num limbo jurídico. A Lei de Direitos Autorais brasileira (9.610/98) pressupõe autoria humana, não reconhecendo máquinas como autoras. Como a Inteligência Artificial não é uma pessoa perante a lei, a autoria recai sobre quem deu a direção criativa: o que pode incluir o criador do prompt, se ele tiver participação substancial na concepção”, diz.
Ao mesmo tempo, a ausência de regulamentação específica gera disputas. Especialmente quando os prompts são genéricos ou a imagem é fortemente derivada de bases de dados pré-existentes. A tendência internacional, conforme as diretrizes da OCDE, é reconhecer a autoria humana apenas quando há contribuição criativa significativa.
“Internacionalmente, há diferentes abordagens: o Copyright, Designs and Patents Act do Reino Unido reconhece direitos autorais para obras geradas por computador quando há arranjo humano suficiente, enquanto o Japão permite uso mais amplo de dados protegidos para treinamento de IA em sua reforma de 2018”, comenta. “Mas, e se tirássemos o Photoshop, o InDesign, o Canva dos criativos? Como eles criariam? Nesses casos, as IAs também precisam ser vistas como ferramentas de criação como suas antecessoras.”
Punir o ato, não a ferramenta
A regulação, segundo Gustavo, poderia tornar a penalidade mais severa quando alguém comete algum crime relacionado à manipulação da realidade. Seja por imagens, áudio, vídeo ou texto, independentemente de ser Inteligência Artificial. Porém, ele reforça que não adianta exigir que os modelos não gerem certos conteúdos, ou que as imagens geradas por empresas tenham marca d’água. Isso seria resumir demais o problema.
“Hoje, o Photoshop usa IA para tirar o fundo de uma imagem. Normalmente isso manipula mais de 30% da imagem. Seria considerada uma imagem fake? A zona cinzenta é muito grande. Agora, se eu mexer em apenas um pedacinho da imagem e a intenção com ela for cometer um crime, como manipular a imagem de um candidato perante a população na véspera da eleição, isso deve ser punido”, aponta.
Segundo o especialista, o erro está na conduta daqueles que espalham deepfakes, e não na ferramenta. Além disso, existe uma facilidade no acesso de programas que possibilitam manipulação de imagem, fora dos grandes players.
“Assim, a regulação cometeria um erro ao impor medidas ineficazes. Usamos IA quando não temos uma receita de bolo para resolver um problema. Mostramos exemplos e o sistema passa a responder como esses exemplos. Todas as tentativas de ‘forçar’ certos tipos de saídas em sistemas desse tipo dão errado. Os requisitos regulatórios devem primar pela reprodutibilidade, pela transparência na informação, e pela governança”, defende.
Aline complementa que a adaptação regulatória deve combinar legislação ágil, autorregulação setorial, soluções tecnológicas e educação midiática. “A tecnologia muda rápido, mas o impacto humano é profundo e duradouro. A proteção passa por combinar leis, ética, tecnologia e alfabetização digital numa abordagem holística que preserve os direitos fundamentais previstos na Constituição Federal e nos tratados internacionais de direitos humanos”, comenta.
Corrida entre ataque e defesa
O equilíbrio entre avanço das técnicas de manipulação e ferramentas de detecção é frágil. Michael acredita que, embora a impressão seja de que os ataques evoluem mais rápido, a defesa pode acompanhar desde que haja investimento. Além disso, novas plataformas surgem diariamente, tornando o cenário mais diversificado. Assim, a detecção precisa se adaptar rapidamente a cada novo método.
“Nossa tecnologia acelera essa adaptação com treinamento e criação automatizada de modelos, respondendo de forma ágil a novas ameaças. Exemplo: se apenas os “atacantes” evoluírem e ninguém criar defesas, chegaremos a um ponto em que nada poderá ser confiável. É preciso desenvolver proteção ao mesmo tempo em que surgem novas técnicas de falsificação”, finaliza.






