La película «Her» nos introdujo a un futuro con asistentes de inteligencia artificial capaces de «ver» el entorno a través de la cámara, un concepto que parecía lejano hace más de una década. Ahora, OpenAI está convirtiendo esta visión en realidad con la introducción de capacidades visuales para ChatGPT. Esta nueva funcionalidad, utilizando el avanzado modelo multimodal GPT-4o, permite al chatbot procesar imágenes en tiempo real, lo que abre nuevas posibilidades de interacción entre usuarios y asistentes de IA.
Para acceder a esta característica, los usuarios solo necesitan activar el modo de voz avanzado en la aplicación ChatGPT y luego habilitar el acceso a la cámara del dispositivo. Esto habilita al chatbot para ver y analizar el entorno inmediato del usuario, ya sea a través de la cámara delantera o trasera de un smartphone o compartiendo la pantalla del dispositivo. Esta capacidad de procesamiento visual en tiempo real puede ser de gran ayuda para realizar tareas cotidianas con instrucciones paso a paso, como fue demostrado en una presentación donde ChatGPT guió a un usuario en la preparación de café, reconociendo objetos en tiempo real con latencia insignificante.
OpenAI ha explorado diversos escenarios de uso para esta tecnología, desde ayudar en tareas educativas hasta proporcionar descripciones detalladas del entorno para mejorar la accesibilidad. Sin embargo, la compañía también advierte que, como cualquier modelo de IA, ChatGPT podría cometer errores, lo que subraya la importancia de la vigilancia y la mejora continua en el desarrollo de estas tecnologías.
La disponibilidad de esta innovadora función será inicialmente para los suscriptores de ChatGPT Plus y ChatGPT Pro en la mayoría de los países, con planes de expansión a la Unión Europea sujeta a regulaciones. Este avance marca un paso significativo hacia la fusión de las capacidades cognitivas y perceptivas de la IA, acercándonos a la visión futurista presentada por «Her» y demostrando el compromiso de OpenAI con el avance de la inteligencia artificial.
