FBI alerta que criminosos usam inteligência artificial para ampliar a escala de fraudes digitais
O FBI alertou, em 3 de dezembro de 2024, que criminosos utilizam inteligência artificial generativa para intensificar fraudes digitais. A ferramenta permite a produção de deepfakes e clonagem vocal para viabilizar extorsões e golpes financeiros. As orientações de segurança incluem a autenticação em duas etapas e a confirmação de dados por múltiplos meios
O Federal Bureau of Investigation (FBI), por meio do Internet Crime Complaint Center (IC3), emitiu um alerta em 3 de dezembro de 2024 sobre a utilização de inteligência artificial generativa por criminosos para ampliar a escala e a credibilidade de fraudes digitais. A tecnologia permite a criação de textos convincentes, perfis falsos em massa, imagens sintéticas, documentos de identificação fraudulentos e vídeos para chamadas em tempo real. Essas ferramentas são aplicadas em esquemas de engenharia social, spear phishing, fraudes financeiras, golpes românticos, extorsão e manipulação de identidade.
A IA reduz o tempo e o esforço necessários para enganar as vítimas, eliminando erros que anteriormente serviam como sinais de alerta. O impacto operacional é significativo, pois permite que criminosos atuem com maior velocidade, menor custo e taxas de sucesso mais elevadas, simulando com precisão rostos, vozes e comportamentos.
Uma das técnicas centrais é o *vocal cloning*, que utiliza modelos treinados para replicar padrões de fala, entonação, ritmo e emoções a partir de pequenas amostras de áudio. Menos de um minuto de gravação, obtida de redes sociais, mensagens de voz, entrevistas ou ligações, é suficiente para gerar vozes sintéticas. Esse recurso é utilizado principalmente em golpes de urgência, nos quais a vítima recebe pedidos imediatos de transferência de dinheiro ou envio de dados sensíveis, simulando familiares, colegas de trabalho ou executivos. A familiaridade da voz reduz a desconfiança e a capacidade crítica da vítima, explorando a confiança e a emoção.
Além do áudio, a criação de *deepfakes* permite vídeos altamente realistas que simulam rostos e expressões. Tais conteúdos são empregados em fraudes corporativas e tentativas de extorsão, incluindo a simulação de reuniões virtuais com executivos falsos para autorizar transferências bancárias ou acessar sistemas internos. A evolução dessas ferramentas tornou a criação de conteúdos falsos acessível a grupos criminosos com poucos recursos, não sendo mais exclusividade de especialistas.
A automação proporcionada pela IA possibilita que um único grupo atinja milhares de vítimas simultaneamente. As mensagens são personalizadas com base em dados disponíveis online, como nome, profissão, localização e histórico digital, transformando a fraude em uma operação de alto rendimento. A natureza transnacional dessas atividades, apoiada por servidores distribuídos e o uso de criptomoedas para ocultar rastros financeiros, dificulta as investigações e a responsabilização dos envolvidos.
O cenário gera riscos amplificados para diferentes setores. Empresas enfrentam a "fraude de CEO", bancos lidam com identidades falsas para acesso a contas e usuários comuns são alvos de manipulações emocionais. Além do prejuízo financeiro, há um impacto psicológico relevante e o abalo da confiança em sistemas de comércio eletrônico e comunicações digitais.
O FBI ressalta que a confiança em sinais sensoriais, como ver um rosto familiar ou ouvir uma voz conhecida, não é mais suficiente para garantir a autenticidade de uma interação. Para enfrentar essa vulnerabilidade estrutural da percepção humana, a recomendação é a adoção de medidas de segurança robustas, como a autenticação em duas etapas, a confirmação de informações por múltiplos canais e a educação digital. Embora existam investimentos em ferramentas para identificar conteúdos sintéticos, a eficácia dessas soluções ainda está em desenvolvimento, exigindo a atualização constante das estratégias de defesa.