A OpenAI divulgou nesta semana o relatório “Disrupting Malicious Uses of AI”, detalhando casos recentes de uso indevido de seus modelos de IA por atores associados a operações estrangeiras, incluindo contas vinculadas a atividades ligadas à China. O documento descreve como ferramentas generativas foram utilizadas como apoio em campanhas de influência e atividades cibernéticas.
Para especialistas em segurança digital, o episódio reforça uma tendência que vem se consolidando nos últimos dois anos: a integração da inteligência artificial ao fluxo operacional de ataques.
Segundo a Vultus, consultoria brasileira de cibersegurança, o ponto central não é a existência de IA em si, mas sua capacidade de acelerar e escalar etapas do processo ofensivo, como pesquisa de alvos, produção de conteúdos de engenharia social, adaptação linguística e automação de campanhas.

“A inteligência artificial está reduzindo o esforço necessário para estruturar ataques convincentes e personalizados. O que antes demandava mais tempo e especialização técnica pode ser executado com maior velocidade e escala”, afirma César Baracat, CRO da Vultus.
De acordo com ele, o relatório evidencia que a IA já não é uma possibilidade futura no contexto de ameaças, mas um elemento incorporado a operações reais. “A IA funciona como multiplicador de capacidade dentro de um ecossistema ofensivo mais amplo. Ela se integra a redes sociais, sites falsos, engenharia social e exploração de vulnerabilidades conhecidas, aumentando eficiência e volume.”
O cenário aponta para um processo de industrialização dos ataques digitais. Com menor barreira de entrada e maior capacidade de teste e adaptação de campanhas, o risco tende a se ampliar tanto em escala quanto em sofisticação.
“Isso pressiona as organizações a irem além de uma postura reativa. A prioridade passa a ser a redução contínua da exposição e a atuação direta sobre os vetores que efetivamente aumentam a probabilidade de comprometimento”, completa Baracat.
Especialistas avaliam que relatórios como o divulgado pela OpenAI indicam uma mudança estrutural no ambiente de risco cibernético global, em que defender exige monitoramento constante, priorização executiva e disciplina operacional.
Imagem: divulgação.