O crescente uso de Inteligência Artificial (IA) tem revelado uma nova ameaça: os golpes sofisticados que usam a tecnologia para enganar consumidores e empresas em plataformas de e-commerce e recrutamento. No mais recente relatório de cibersegurança da Microsoft, o Cyber Signals, a empresa alerta para um aumento alarmante desses ataques, projetados para serem mais rápidos, econômicos e convincentes. Entre abril de 2024 e abril de 2025, a Microsoft conseguiu impedir tentativas de fraude no valor de cerca de US$ 4 bilhões, além de rejeitar 49 mil inscrições fraudulentas e bloquear 1,6 milhões de tentativas de bots por hora.
O relatório da Microsoft pontua que a IA tem facilitado a criação de ataques cibernéticos com mais eficiência, pois tem reduzido a complexidade técnica para os cibercriminosos. As ferramentas de Inteligência Artificial permitem que fraudadores gerem conteúdo convincente com rapidez, como sites falsos, campanhas de phishing, lojas virtuais fraudulentas e até entrevistas de emprego feitas com deepfakes. Ao utilizar essas tecnologias, os criminosos podem criar uma ilusão de legitimidade, enganando consumidores e empresas com maior facilidade.
A globalização desses ataques é visível, com grande parte da atividade criminosa originada da China e da Europa, em especial da Alemanha, que, por ser um dos maiores mercados de e-commerce e serviços online da União Europeia, se torna um alvo atraente para os fraudadores. Além disso, o crescimento de golpes, de acordo com a Microsoft, também foi facilitado pela baixa barreira técnica e pelo baixo custo das ferramentas de IA disponíveis.
Fraudes no e-commerce
A Inteligência Artificial tornou a criação de sites fraudulentos mais fácil. Se antes o processo exigia dias ou até semanas, agora pode ser realizado em minutos. Golpistas podem criar lojas online que imitam perfeitamente as originais. Eles utilizam descrições de produtos, imagens e avaliações de clientes geradas por IA. Assim, torna-se difícil para os consumidores distinguirem entre plataformas reais e falsas, gerando um ambiente propício para fraudes.
Além disso, a presença de chatbots de atendimento ao cliente, equipados com IA, adiciona uma camada de credibilidade aos sites fraudulentos. O relatório da Microsoft mostra que esses bots conseguem manipular reclamações de forma convincente. Assim, conseguem ainda prolongar o processo de estorno e enganar os consumidores. Diante disso, a empresa de tecnologia implementou uma série de medidas de segurança, como o Microsoft Defender for Cloud, que oferece proteção robusta contra essas ameaças.
Outro avanço significativo foi a introdução da tecnologia de aprendizado profundo no navegador Microsoft Edge. Essa tecnologia ajuda a proteger os usuários de erros de digitação em sites e de tentativas de fraudes que utilizam domínios falsos, tornando mais difícil para os criminosos se passarem por marcas conhecidas.
A IA e as fraudes no mercado de trabalho
Segundo o estudo da Microsoft, os golpes cibernéticos evoluíram ao ponto de chegar aos processos de recrutamento. Com o uso de IA generativa, esse tipo de fraude têm se intensificado. Isso acontece porque as ferramentas de GenIA facilitam a criação de anúncios de emprego falsos, perfis fraudulentos e até entrevistas simuladas. O impacto é severo, pois candidatos desavisados são atraídos para ofertas que parecem legítimas graças a ferramentas de IA como deepfakes, que geram vídeos e áudios realistas de entrevistas de trabalho.
Além disso, os fraudadores costumam solicitar informações pessoais das vítimas, como currículos e até mesmo dados bancários. Nesse cenário, para evitar golpes, a Microsoft recomenda que plataformas de emprego implementem autenticação multifator e sistemas de detecção de fraudes para impedir que criminosos assumam perfis de empregadores.
Além disso, os candidatos devem estar atentos aos sinais de alerta típicos, como salários irreais ou pedidos de pagamento antecipado para materiais de treinamento. A presença de entrevistas geradas por IA, onde as expressões faciais ou a fala podem parecer artificiais, também deve ser um indicativo de golpe.
Suporte técnico também é alvo
Ainda segundo o Cyber Signals, a IA tem sido utilizada para golpes de suporte técnico. Nesse caso, os fraudadores convencem as vítimas a pagarem por serviços que não são necessários. Em alguns casos, conseguem até mesmo acesso remoto aos dispositivos das vítimas. Assim, conseguem acesso a dados sensíveis e instalam malwares.
O estudo pontua ainda que, embora a IA não seja frequentemente utilizada nesse tipo de ataque, ela pode ser empregada em golpes mais sofisticados que se utilizam de ferramentas legítimas, como o Quick Assist da Microsoft. Em abril de 2024, a empresa observou ataques que usaram a engenharia social. Os golpistas se passaram por técnicos de suporte legítimos para obter acesso aos dispositivos das vítimas. Para combater essa ameaça, a Microsoft implementou melhorias no Quick Assist, como novos alertas de segurança e a necessidade de que os usuários marquem uma caixa confirmando o risco de segurança ao conceder acesso remoto ao dispositivo.
Como a Microsoft age contra golpes virtuais?
Diante desse cenário, a Microsoft tem adotado estratégias para combater fraudes geradas por IA. As iniciativas têm o objetivo de fortalecer a segurança dos produtos. A empresa utiliza aprendizado de máquina para identificar e mitigar tentativas de fraudes em tempo real. A implementação de sistemas de detecção avançados no Microsoft Defender e no Microsoft Edge também ajudam a proteger os usuários de ataques de phishing e sites fraudulentos.
A empresa trabalha em colaboração com autoridades policiais e outras empresas para desmantelar a infraestrutura dos criminosos. Essa parceria tem levado à prisão de milhares de criminosos cibernéticos e à interrupção de diversas redes de fraude digital.
A empresa de tecnologia também introduziu a Secure Future Initiative (SFI) com o objetivo de garantir que todos os produtos e serviços sejam desenvolvidos com resistência a fraudes desde o design. Em janeiro de 2025, a empresa implantou uma nova política de prevenção de fraudes. Com ela, todas as equipes de produtos passam a ser obrigadas a realizar avaliações de segurança como parte do processo de desenvolvimento.
Além disso, a companhia criou uma série de recomendações para consumidores e empresas. No caso de golpes em recrutamento, a empresa recomenda fortalecer a autenticação do empregador. Ou seja, plataformas de emprego devem implementar autenticação multifator para dificultar o acesso de fraudadores. Além disso, é importante monitorar golpes de recrutamento baseados em IA. O indicado é que as empresas implantem algoritmos de detecção de deepfake para identificar entrevistas falsas.
Além disso, a Microsoft recomenda que seja verificada a legitimidade de sites, procurar por sinais de segurança, como o uso de HTTPS, e evitar sites que oferecem ofertas “boas demais para ser verdade”. O cuidado com informações pessoais também é necessário. Não é recomendado o compartilhamento de dados bancários ou pessoais com fontes não verificadas.