Una encuesta con líderes de ciberseguridad realizada por Gartner reveló que el 62% de las empresas reportaron ataques contra sus empleados utilizando inteligencia artificial en el último año. Los ataques involucraron tanto inyecciones de prompt como la creación de audios y videos falsos generados por IA para engañar sistemas y personas.
El vector de ataque más común fue el uso de deepfakes de audio en llamadas telefónicas, con el 44% de las empresas reportando al menos una ocurrencia. De esos casos, el 6% resultó en interrupción de negocios, pérdidas financieras o robo de propiedad intelectual. Cuando se utilizan servicios de filtrado de audio, las tasas de pérdida caen al 2%. Los deepfakes de video fueron ligeramente menos frecuentes, alcanzando al 36% de las empresas, pero aún así causaron problemas serios en el 5% de los casos.
Los especialistas advierten que el audio deepfake se está volviendo cada vez más convincente y barato de producir. Según Chester Wisniewski, director de seguridad de Sophos, ya es posible generar estas llamadas en tiempo real. Aunque un cónyuge podría identificar el fraude, un colega de trabajo con quien se conversa ocasionalmente difícilmente percibiría la diferencia. Los deepfakes de video en tiempo real de personas específicas aún son extremadamente costosos, con costos de millones de dólares. Sin embargo, los estafadores han utilizado la técnica de forma más limitada, como iniciar una llamada de WhatsApp con un video falso de un CEO o CFO, alegando problemas de conectividad y cambiando a comunicación por texto para continuar el ataque de ingeniería social. Los casos genéricos de videos falsos también son comunes, especialmente por trabajadores norcoreanos que usan IA para ocultar sus identidades al prestar servicios para empresas occidentales.
El otro tipo de ataque en ascenso son los ataques de inyección de prompt, en los cuales los invasores incorporan instrucciones maliciosas en contenido procesado por sistemas de IA, engañándolos para revelar información sensible o usar herramientas conectadas de forma inadecuada. De acuerdo con la encuesta de Gartner, el 32% de los entrevistados reportaron ataques de inyección de prompt contra sus aplicaciones. Ya se han documentado casos involucrando chatbots como Gemini de Google, que fue explotado para acceder a correos electrónicos de usuarios y sistemas domésticos inteligentes, Claude de Anthropic, que presentó vulnerabilidades similares, y ChatGPT, que fue manipulado por investigadores para resolver CAPTCHAs destinados a distinguir máquinas de humanos o generar tráfico similar a ataques de denegación de servicio contra sitios web.
Ante este creciente escenario de amenazas y una realidad cada vez más compleja, BrownPipe presta servicios de capacitación en ciberseguridad que ayudan a mitigar los efectos de este tipo de ataques. Con las capacitaciones es posible preparar a los equipos para identificar y responder adecuadamente a intentos de fraude basados en inteligencia artificial. Además, también es posible poner a prueba la reacción de su equipo mediante la simulación de campañas de phishing, con mensajes personalizados y contextualizados para que los ataques sean tan convincentes como una comunicación legítima.
Este post fue traducido y resumido a partir de su versión original con el uso de IA, con revisión humana.
Con información de The Register