La confianza en la inteligencia artificial (IA) para manejar correos electrónicos, un espacio donde residen detalles íntimos de nuestra vida personal y profesional, suscita preocupaciones significativas. Aunque delegar tareas de gestión de correos a un agente de IA puede parecer una solución eficiente para ahorrar tiempo, esta comodidad podría tener graves consecuencias de seguridad. Un informe de Radware Cybersecurity ilustra cómo un correo electrónicamente modificado logró eludir las protecciones de seguridad de ChatGPT de OpenAI, permitiendo el robo de información sensible sin que el usuario se diera cuenta.
La simplicidad del ataque es alarmante: no se requiere que el usuario haga clic en enlaces sospechosos o descargue archivos. Si el asistente de IA procesa un correo manipulado, puede terminar exfiltrando datos personales hacia un servidor bajo el control de un atacante. Estos ataques explotan técnicas de ingeniería social, como la afirmación falsa de autoridad, el camuflaje de URLs maliciosas, y la creación de un sentido de urgencia para engañar a la IA.
El correo malicioso contiene instrucciones ocultas en HTML o metadatos, que el agente de IA procesa sin distinguir entre texto visible e instrucciones encubiertas. Esto resulta en llamadas a URLs externas, facilitando la extracción de información del buzón del usuario sin detección.
Este incidente revela la vulnerabilidad de sistemas basados en IA a vectores de ataque diseñados para manipularlos a través de lenguaje natural. Aunque OpenAI respondió rápidamente para corregir esta vulnerabilidad específica, el episodio subraya un problema más amplio con la seguridad de los sistemas de IA y la necesidad de reconsiderar nuestra confianza en ellos. Destaca la importancia de anticipar y comprender los riesgos asociados para proteger nuestra privacidad y datos personales frente a técnicas sofisticadas de ciberataque.
