O avanço da inteligência artificial generativa tem ampliado não apenas as possibilidades de inovação, mas também os riscos no ambiente digital. Ferramentas acessíveis e de baixo custo reduziram a barreira técnica para criminosos, que agora conseguem criar conteúdos altamente convincentes em escala.
Essa realidade explica o aumento recente das fraudes digitais baseadas em engenharia social com IA, como deepfakes, clonagem de voz e vishing. Um relatório da Serasa Experian aponta que o Brasil registrou quase 7 milhões de tentativas de fraude apenas no primeiro semestre de 2025, o que equivale a uma ocorrência a cada 2,3 segundos.
Além disso, um levantamento da Associação de Defesa de Dados Pessoais e do Consumidor (ADDP), divulgado pelo portal Olhar Digital, identificou cerca de 28 milhões de golpes envolvendo Pix entre janeiro e setembro de 2025, além de 2,7 milhões de fraudes em compras online e 1,6 milhão de golpes via WhatsApp.

De acordo com Clerio Almeida, CEO da Brasiline, esses números mostram como o ambiente digital se tornou terreno fértil para ataques cada vez mais sofisticados. “Hoje, qualquer pessoa consegue criar conteúdos altamente convincentes em escala, o que impulsiona esse tipo de fraude”, afirma.
Os golpes com IA utilizam recursos avançados para simular rostos, vozes ou interações humanas reais. No vishing, criminosos efetuam ligações se passando por executivos ou instituições confiáveis, explorando a credibilidade da voz clonada. Já os deepfakes replicam imagens e vídeos de pessoas conhecidas, induzindo as vítimas a acreditar em situações falsas.
A clonagem de voz segue a mesma lógica, reproduzindo timbres e entonações de forma tão realista que dificulta a diferenciação entre original e falso. “O nível de realismo é o que torna essas técnicas mais difíceis de identificar em comparação com fraudes tradicionais. As mensagens, áudios e vídeos são altamente personalizados e convincentes, reduzindo os sinais clássicos de fraude”, explica Almeida.
A sofisticação desses ataques exige atenção redobrada. Os sinais de alerta incluem pedidos urgentes fora do padrão, mudanças incomuns de comportamento em contatos conhecidos, solicitações financeiras inesperadas e dificuldades em confirmar a identidade por outros canais. “Esses indícios devem ser levados a sério, pois podem indicar um golpe com uso de IA”, reforça o executivo.
O impacto não se limita às vítimas individuais. Empresas também enfrentam riscos elevados, já que ataques podem comprometer cadeias produtivas, gerar prejuízos financeiros substanciais e afetar a reputação institucional. “A IA eleva o nível das ameaças, tornando os ataques mais sofisticados e escaláveis. Ao mesmo tempo, também fortalece a defesa, permitindo análises preditivas e respostas mais rápidas a incidentes”, afirma Almeida.
Estudos internacionais corroboram essa tendência. Relatório da Europol de 2024 destacou que deepfakes já estavam sendo usados em fraudes financeiras e campanhas de desinformação, alertando para o risco de manipulação em larga escala e evidenciando a vulnerabilidade das pessoas diante dessas tecnologias.
Entre as estratégias de proteção, o CEO destaca que a combinação de tecnologias como autenticação multifator, validação de identidade e monitoramento contínuo constitui um dos pilares do combate às fraudes. “A Brasiline oferece testes de phishing que simulam ataques reais para treinar colaboradores, aumentando a percepção de risco e fortalecendo a cultura de segurança dentro das organizações”, conclui o CEO.
Phishing Security Test: Fortalecendo a Primeira Linha de Defesa da Sua Empresa
34% das empresas brasileiras restauram sistemas sem verificar integridade após ataques

