Apple publica sus nuevos y diminutos modelos LLM. Son una pista clara de que el iPhone tendrá su «AppleGPT»

Apple, que parecía rezagada en el avance hacia la inteligencia artificial (IA), ha empezado a recuperar el tiempo perdido. En un esfuerzo por demostrar su compromiso y progreso en el campo de la IA, ha lanzado una serie de avances significativos. Uno de los más recientes y notables es el desarrollo de OpenELM (Open-source Efficient Language Models), una selección de cuatro modelos de lenguaje que, a pesar de su tamaño reducido en comparación con gigantes como los que potencian ChatGPT o Gemini, representa un paso significativo para la empresa.

Estos modelos, que varían en tamaño desde los 270 millones hasta los 3 mil millones de parámetros, destacan por su diseño eficiente, permitiendo una implementación efectiva sin un consumo excesivo de recursos. Esta eficiencia apunta hacia el uso potencial en dispositivos móviles, lo que sugiere la posibilidad de un «AppleGPT» que podría funcionar en iPhone de manera local, liberándose de la dependencia de la nube para su operación.

Aunque estos modelos son más pequeños y, por ende, pueden ser más generalistas y menos capaces de generar respuestas tan ricas o precisas como modelos más grandes como GPT-4, representan un equilibrio entre eficacia y recursos necesarios, que es crítico para la operación en dispositivos móviles. La versión de 450 millones de parámetros se destacó en pruebas sintéticas, aunque fue calificada como sólida pero limitada en creatividad y formal en sus respuestas.

Apple ha admitido que estos modelos, aunque prometedores, no están exentos de errores y pueden generar resultados inexactos o sesgados. Esto subraya la naturaleza experimental y en desarrollo de la incursión de Apple en la IA, enfocándose en equilibrar innovación, eficiencia y practicidad, con miras a integrar capacidades avanzadas de IA directamente en el ecosistema de sus dispositivos.