Uma pesquisa com líderes de segurança cibernética realizada pelo Gartner revelou que 62% das empresas reportaram ataques contra seus funcionários usando inteligência artificial no último ano. Os ataques envolveram tanto injeções de prompt quanto a criação de áudios e vídeos falsos gerados por IA para enganar sistemas e pessoas.

O vetor de ataque mais comum foi o uso de deepfakes de áudio em chamadas telefônicas, com 44% das empresas reportando pelo menos uma ocorrência. Desses casos, 6% resultaram em interrupção de negócios, perdas financeiras ou roubo de propriedade intelectual. Quando serviços de triagem de áudio são utilizados, as taxas de perda caem para 2%. Os deepfakes de vídeo foram ligeiramente menos frequentes, atingindo 36% das empresas, mas ainda assim causaram problemas sérios em 5% dos casos.

Especialistas alertam que o áudio deepfake está se tornando cada vez mais convincente e barato de produzir. Segundo Chester Wisniewski, diretor de segurança da Sophos, já é possível gerar essas chamadas em tempo real. Embora um cônjuge possa identificar a fraude, um colega de trabalho com quem se conversa ocasionalmente dificilmente perceberia a diferença. Já os deepfakes de vídeo em tempo real de pessoas específicas ainda são extremamente caros, custando milhões de dólares. No entanto, golpistas têm usado a técnica de forma mais limitada, como iniciar uma chamada no WhatsApp com um vídeo falso de um CEO ou CFO, alegando problemas de conectividade e mudando para comunicação por texto para continuar o ataque de engenharia social. Casos genéricos de vídeos falsos também são comuns, especialmente por trabalhadores norte-coreanos que usam IA para ocultar suas identidades ao prestar serviços para empresas ocidentais.

O outro tipo de ataque em ascensão são os ataques de injeção de prompt, nos quais invasores incorporam instruções maliciosas em conteúdo processado por sistemas de IA, enganando-os para revelar informações sensíveis ou usar ferramentas conectadas de forma inadequada. De acordo com a pesquisa da Gartner, 32% dos entrevistados relataram ataques de injeção de prompt contra suas aplicações. Casos já foram documentados envolvendo chatbots como o Gemini do Google, que foi explorado para acessar e-mails de usuários e sistemas domésticos inteligentes, o Claude da Anthropic, que apresentou vulnerabilidades similares, e o ChatGPT, que foi manipulado por pesquisadores para resolver CAPTCHAs destinados a distinguir máquinas de humanos ou gerar tráfego similar a ataques de negação de serviço contra sites.

Diante desse cenário crescente de ameaças, e de uma realidade cada vez mais complexa, a BrownPipe presta serviços de treinamentos em cybersegurança que ajudam a mitigar os efeitos desse tipo de ataque. Com os treinamentos é possível capacitar as equipes a identificar e responder adequadamente a tentativas de fraude baseadas em inteligência artificial. Além disso, também é possível testar a reação de sua equipe por meio da simulação de campanhas de phishing, por meio de mensagens customizadas e contextualizadas para que os ataques sejam tão convincentes quanto uma comunicação legítima.

Este post foi traduzido e resumido a partir de sua versão original com o uso de IA, com revisão humana.

Com informações de The Register