Análises

IA sob vigilância: NAVA propõe quatro imperativos para fortalecer a cibersegurança nas instituições financeiras

A crescente sofisticação dos ciberataques impulsionados por inteligência artificial tem acendido um alerta no setor financeiro. Segundo pesquisa recente da Marsh, 70% dos executivos de bancos e instituições financeiras acreditam que o uso da IA pelos criminosos aumentará significativamente a incidência de ataques. Para responder a esse cenário, a NAVA, empresa de soluções em tecnologia e transformação digital, propõe um novo modelo de proteção baseado na própria IA.

“Os riscos vão além dos ataques tradicionais: envolvem vieses algorítmicos, falsos positivos e a dificuldade de interpretar as decisões tomadas por sistemas complexos”, explica Edison Fontes, CISO da NAVA. “É hora de transformar a IA em ferramenta estratégica de defesa, e não apenas em um novo vetor de ameaça.”

A NAVA destaca quatro imperativos estratégicos para que lideranças de tecnologia e segurança — especialmente CISOs — fortaleçam a resiliência cibernética nas instituições:

1. CISO como agente de transformação digital e guardião da governança da IA
A liderança em cibersegurança deve assumir protagonismo na governança da inteligência artificial. Isso significa estabelecer políticas claras sobre o uso de IA, combater o fenômeno do “Bring Your Own AI” (uso não autorizado de ferramentas de IA por colaboradores) e garantir que todo desenvolvimento esteja alinhado à estratégia corporativa. “Não podemos permitir o uso de sistemas sem propósito ou clareza de usabilidade. Governança é chave”, reforça Fontes.

2. Inteligência defensiva baseada em IA para respostas preditivas e automatizadas
A adoção de tecnologias como machine learning e deep learning permite identificar padrões suspeitos antes que um ataque seja efetivado. Ferramentas de orquestração e automação (SOAR) integradas à IA aceleram a resposta a incidentes, como isolar máquinas infectadas ou revogar acessos de forma instantânea, algo crítico em setores como o bancário.

3. Governança de dados e IA explicável (XAI)
A transparência dos algoritmos é essencial para evitar riscos legais e danos à reputação. A chamada IA explicável (XAI) garante que analistas e reguladores entendam como e por que uma decisão automatizada foi tomada. “A curadoria dos dados de treinamento e a visibilidade sobre a lógica algorítmica são fundamentais em ambientes regulados como o financeiro”, aponta o executivo.

4. Arquitetura de segurança e gestão contínua dos riscos da IA
A estrutura de proteção deve incorporar os princípios de Zero Trust e “Security by Design”. Isso inclui validações técnicas regulares, auditorias de modelos e treinamento contínuo das equipes envolvidas com IA. “A IA precisa de limites e validações permanentes. Caso contrário, vira uma metralhadora sem controle”, alerta Fontes.

A adoção responsável da inteligência artificial exige uma abordagem integrada entre tecnologia, compliance e cultura organizacional. “A IA pode ser um divisor de águas na cibersegurança, desde que usada com propósito, supervisão e clareza sobre seus impactos. A liderança precisa tomar as rédeas desse processo”, finaliza Fontes.

Você também vai gostar

Leia também!