As ameaças cibernéticas estão crescendo em um ritmo alarmante e muitas vezes passam despercebidas. Essas ameaças invisíveis, frequentemente ofuscadas por perigos físicos, tornam-se ainda mais insidiosas. Impulsionadas pela complacência e pela tendência a manter rotinas familiares, essas ameaças se tornam mais perigosas a cada dia.
Apesar de várias violações de segurança de alto perfil no último ano, muitas organizações ainda tratam a cibersegurança como uma exigência de conformidade, em vez de uma necessidade operacional. Essa abordagem pode ser custosa. Globalmente, o custo médio de uma única violação de dados é de aproximadamente R$ 4,44 milhões. Nos Estados Unidos, os ciberataques custaram às empresas mais de R$ 10 milhões entre março de 2024 e fevereiro de 2025.
Além disso, muitas empresas priorizam a eficiência e a conveniência para seus funcionários em detrimento das melhores práticas de cibersegurança. Por exemplo, não o suficiente insistem na autenticação multifatorial para o acesso a computadores da empresa, sendo a autenticação em um dispositivo separado uma das exigências. O uso de biometria como parte dos logins pode acelerar esse processo e melhorar a segurança, mas isso requer um investimento em implementação de tecnologia e treinamento.
As empresas não estão sendo proativas o suficiente ao priorizar a conveniência dos funcionários. Elas devem adotar uma postura ofensiva contra o aumento dos ataques de hackers. À medida que a IA avança, as empresas que não tratam a cibersegurança com a mesma urgência da segurança física correm o risco de se tornarem vulneráveis de maneira sem precedentes.
Os riscos cibernéticos devem aumentar no futuro próximo, em grande parte devido à IA, que provavelmente acelerará o ritmo dos ataques cibernéticos e mudará a natureza da cibersegurança de maneiras que ainda não compreendemos. Por exemplo, os deepfakes se tornarão mais avançados e prevalentes ao longo do tempo. No ano passado, em Hong Kong, um funcionário foi enganado e enviou R$ 25 milhões a fraudadores que usaram recriações deepfake do CFO da empresa e de outros colegas para convencê-lo de sua autenticidade.
Embora o pedido fosse incomum, o funcionário seguiu o que parecia ser as instruções de um executivo de alto escalão. Treinamentos adequados e protocolos de verificação poderiam ter evitado a fraude, mas sem a conscientização sobre como essas ferramentas se tornaram avançadas, os funcionários estão em desvantagem.
Em novembro, o mundo testemunhou a primeira campanha de ciberespionagem orquestrada por IA, quando a Anthropic revelou que atacantes patrocinados pelo estado haviam contornado os controles de segurança do modelo Claude Code e o usaram para escanear redes de forma autônoma, explorar vulnerabilidades, roubar credenciais e exfiltrar dados, com a IA realizando de 80% a 90% do trabalho. Este evento abalou o mundo da cibersegurança e destacou uma verdade maior: ainda não compreendemos totalmente as capacidades emergentes dos sistemas de IA avançados.
Ao mesmo tempo, novas formas de uso indevido da IA estão surgindo. Um exemplo é a “vibe coding”, em que indivíduos usam IA para gerar código funcional a partir de instruções simples, sem depender de expertise técnica. Ao reduzir a barreira de entrada, essa capacidade facilita que atores menos habilidosos realizem operações cibernéticas cada vez mais sofisticadas.
Diferentemente das ameaças tradicionais, que dependem fortemente de hackers humanos, a IA permite operações autônomas, adaptativas e em larga escala. Modelos podem escanear grandes conjuntos de dados, identificar fraquezas em tempo real, personalizar ataques instantaneamente e evadir detecções. Isso dá aos hackers a capacidade de realizar campanhas de espionagem coordenadas e discretas em várias organizações simultaneamente, expandindo dramaticamente a ameaça global.
Para as equipes de cibersegurança, a mensagem é clara: a IA deve se tornar uma parte central da estratégia defensiva. Controles mais rigorosos sobre o acesso a modelos de IA, prevenção de jailbreak mais apertada e sistemas de detecção em tempo real capazes de identificar comportamentos impulsionados por máquinas são agora essenciais. Os atacantes já adotaram a IA; se os defensores não evoluírem com a mesma rapidez, estarão lutando contra as ameaças de amanhã com as ferramentas de ontem.
Além disso, é fundamental uma colaboração mais estreita entre a indústria privada, agências governamentais e parceiros internacionais. Ao lidar com tecnologias que não compreendemos totalmente, a inteligência compartilhada e estratégias coordenadas são críticas. Neste novo ambiente, a combinação do julgamento humano experiente e da velocidade analítica da IA será nossa defesa mais eficaz contra um cenário de ameaças cada vez mais autônomo e sofisticado.
Embora o aumento dos ataques impulsionados por IA possa parecer esmagador, é importante lembrar que as organizações não estão impotentes. Muitas das melhores defesas já estão ao alcance; elas simplesmente precisam ser fortalecidas e aplicadas de forma consistente. O primeiro passo para os líderes corporativos é tirar a cabeça da areia.


