Anthropic ha publicado los ‘prompts’ del sistema que guían el comportamiento de Claude. Es un ejemplo de transparencia

Anthropic, la compañía detrás de los modelos de inteligencia artificial generativa Claude, ha tomado un paso sin precedentes al hacer públicos los ‘prompts’ o instrucciones básicas de su sistema, según informa TechCrunch. Este movimiento es significativo pues coloca a Anthropic en una posición de mayor apertura y transparencia dentro de la industria de la IA, la cual es a menudo criticada por su secretismo. Los ‘system prompts’ publicados guían a los modelos más avanzados de la empresa, como Claude 3.5 Opus, Claude 3.5 Sonnet y Claude Haiku. Estas instrucciones están diseñadas para moderar el tono de las respuestas de los chatbots y evitar la generación de contenido tóxico, sesgado o controvertido.

Las instrucciones para el modelo más grande alcanzan las 1.000 palabras, mientras que para los otros modelos son más concisas. Anthropic ha expresado su deseo de hacer de esta publicación una práctica habitual, actualizando los ‘system prompts’ cada vez que lance un nuevo modelo o realice una actualización significativa. Estas directrices prohíben a los modelos abrir URLs o vídeos y son particularmente estrictas respecto al reconocimiento facial, ordenando a los modelos ser «ciegos» a los rostros para evitar identificar o mencionar a personas específicas en imágenes. Además, se les insta a manejar temas controvertidos con imparcialidad, ofreciendo «pensamientos cuidadosos» e «información clara».

La medida tomada por Anthropic podría ejercer presión sobre competidores, como OpenAI, para que adopten niveles similares de transparencia con sus propios ‘system prompts’. Aunque la efectividad de esta presión es incierta. Al revelar estos elementos de su sistema, Anthropic se proyecta como una entidad más confiable y transparente dentro de la industria de la IA, al tiempo que subraya la importancia de la guía humana para el funcionamiento ético y efectivo de estos modelos avanzados.