En la actualidad, es común que las personas interactúen con la inteligencia artificial (IA) de manera similar a como lo harían con otro ser humano, compartiendo frecuentemente información personal. Habitualmente, las conversaciones con IA se usan para mejorar y entrenar futuros modelos, a menos que el usuario se oponga explícitamente. Anthropic, con su IA Claude, se había distinguido por no emplear las interacciones de usuarios individuales con este propósito, hasta ahora. La compañía ha decidido cambiar su política, argumentando que los datos son cruciales para el desarrollo de la IA.
Anthropic ha actualizado sus términos de servicio y política de privacidad para los usuarios de Claude, permitiéndoles decidir si sus conversaciones pueden ser usadas para entrenar futuros modelos. Esta modificación aplica a varios de sus planes y será obligatorio establecer una preferencia antes del 28 de septiembre de 2025 para seguir utilizando la plataforma. Sin embargo, esta actualización no afecta a todos los servicios de Anthropic igualmente; algunos servicios comerciales y de educación, así como el acceso a través de ciertas plataformas, quedan fuera.
Esta decisión surge en un contexto donde los modelos de lenguaje requieren grandes volúmenes de datos para su mejora continua, y la información disponible públicamente comienza a escasear. Además, las interacciones de los usuarios son vistas como valiosas para perfeccionar capacidades específicas de la IA. Aunque Anthropic enfatiza la seguridad y la intención de mejorar Claude, la necesidad de competir con gigantes como OpenAI y Google por la innovación en IA también juega un papel importante en este cambio.
Frente a la posibilidad de usar datos de usuario para el entrenamiento, Anthropic ha extendido el tiempo de retención de estos datos a cinco años si se acepta participar, en lugar de los 30 días habituales en caso contrario. La empresa asegura que toma medidas para proteger la privacidad de los usuarios, incluyendo la exclusión de chats eliminados de futuros entrenamientos y el uso de herramientas para filtrar o despersonalizar información sensible.
