ChatGPT ha ganado fama por su capacidad para asistir en diversas tareas cotidianas, desde preparación para entrevistas hasta resumir reuniones. Sin embargo, surgen inquietudes sobre la privacidad de las conversaciones mantenidas con esta herramienta de inteligencia artificial. OpenAI, la organización detrás de ChatGPT, ha admitido que emplea el contenido de los chats para afinar sus modelos de IA, aunque es posible limitar esta práctica desactivando el historial de chats o optando por ChatGPT Enterprise, una versión con foco en la privacidad.
La política de OpenAI permite a algunos empleados acceder a los diálogos por motivos técnicos o de seguridad, lo cual ha llevado a empresas como Samsung a prohibir el uso de ChatGPT entre sus trabajadores para evitar filtraciones de información sensible. Además, un estudio de la Universidad Ben-Gurion en Israel explica cómo un ciberatacante puede comprometer la seguridad de las conversaciones en ChatGPT mediante un ataque de intermediario (Man-in-the-Middle), especialmente si el usuario está conectado a una red Wi-Fi pública.
El ataque descrito se basa en interceptar el tráfico de datos, filtrar los paquetes para identificar aquellos relacionados con ChatGPT, y luego, mediante la revelación de la longitud de los tokens y el uso de un modelo de lenguaje de largo alcance (LLM), inferir las respuestas del chatbot. Este método ha demostrado ser efectivo, logrando una alta precisión en la adivinación de respuestas.
A pesar de la complejidad del ataque, este ejemplo destaca el riesgo potencial de exponer datos sensibles a través de interacciones con bots de inteligencia artificial como ChatGPT, subrayando la importancia de tomar precauciones adicionales, especialmente al utilizar la herramienta en redes inseguras. El estudio también menciona que bots similares que envían tokens secuencialmente son susceptibles a este tipo de ataques, mientras que modelos con arquitecturas distintas, como Gemini de Google, podrían ser inmunes.
