O cenário de fraudes digitais deve entrar em uma nova fase em 2026, marcada pela expansão de ataques automatizados, deepfakes ultra-realistas e clonagem de voz capaz de enganar até os sistemas mais avançados. A projeção é da Nethone, empresa especializada em detecção de fraudes que integra o grupo Mangopay, e que acompanha de perto a evolução do crime digital movido por inteligência artificial.
A aceleração não é apenas tecnológica, mas também econômica. De acordo com a consultoria Future Market Insights, o mercado global de prevenção de fraudes — avaliado em US$ 43,4 bilhões em 2025 — deve ultrapassar US$ 217,8 bilhões até 2035, impulsionado pelo aumento da complexidade dos ataques e pela necessidade de novas camadas de defesa.
Para a Nethone, o próximo ano será marcado por uma mudança estrutural no tipo de ameaça. A IA generativa barateou e ampliou o acesso a ferramentas capazes de produzir vídeos, áudios e identidades digitais falsas com precisão inédita. Esse movimento já se reflete nas técnicas usadas por criminosos e deve ganhar escala.
Deepfakes e clonagem de voz entram na rotina das fraudes
A empresa aponta que vídeos e áudios falsificados estão se tornando sofisticados a ponto de simular executivos, clientes ou familiares em contextos sensíveis — desde autorizações de pagamentos até autenticações por voz.
Ao mesmo tempo, tecnologias defensivas já começam a reagir. Soluções baseadas em IA conseguem identificar microinconsistências biométricas e padrões artificiais invisíveis ao ser humano, analisando alterações milimétricas em voz, imagem e comportamento.
Bots sociais e ataques autônomos: a engenharia social ganha outra escala
Outro ponto crítico é o surgimento de bots alimentados por IA capazes de conduzir diálogos longos, coerentes e adaptativos. Eles conseguem imitar expressões humanas, ajustar o tom emocional e personalizar abordagens em tempo real — um salto qualitativo na engenharia social.
Para diferenciar humanos de agentes automatizados, ganham relevância tecnologias como behavioral biometrics, que analisam microgestos, ritmo de digitação, variações motoras e padrões cognitivos impossíveis de replicar por IA.
Confiança digital vira alvo
A Nethone destaca que as fraudes deixarão de atacar apenas infraestrutura e transações: o novo vetor é a confiança digital. A dificuldade crescente em distinguir interações reais de simulações cria um ambiente fértil para golpes de alto impacto.
A resposta, segundo a empresa, passa por autenticação adaptativa, validação contínua de identidade e mecanismos de IA defensiva treinados para reconhecer sinais sutis de falsificação.
“Em 2026, acreditamos que a segurança digital de alto nível não será mais apenas uma escolha tecnológica — será uma necessidade infraestrutural. As fraudes baseadas em IA generativa já não são uma ameaça futura: são realidades emergentes que exigem defesas à altura”, afirma Mateusz Chrobok, Head de Inteligência de Fraude da Nethone.
Criptomoedas e ataques irreversíveis
No setor de criptoativos, o risco é ainda maior. Como muitas operações são irreversíveis e permitem anonimato, deepfakes e clones de voz podem ser usados para enganar investidores, comandar transferências fraudulentas ou manipular negociações.
Nessa frente, a combinação de IA defensiva, biometria passiva e análise comportamental já se tornou padrão em exchanges avançadas, reduzindo a superfície de ataque e fortalecendo a confiança do mercado.
IA defensiva como infraestrutura essencial
A Nethone enfatiza que depender apenas de mecanismos tradicionais de segurança — senhas, tokens e verificações pontuais — não será suficiente para enfrentar a nova geração de ameaças. Será necessário adotar ferramentas que combinem múltiplas camadas:
- Detecção de deepfakes e voz clonada em tempo real;
- Biometria passiva para autenticação contínua;
- Análise de comportamento a partir de centenas de sinais;
- Colaboração entre empresas para troca de inteligência antifraude.









