Las unidades de procesamiento neuronal (NPU) se han convertido en componentes clave de los sistemas en chip (SoC) y las unidades de procesamiento acelerado (APU), marcando una era dominada por la inteligencia artificial (IA). Estas unidades están específicamente diseñadas para manejar de manera eficiente algoritmos de IA, incluida la IA generativa. Grandes compañías tecnológicas como Qualcomm, Intel, AMD, Apple, Samsung y Huawei ya incorporan NPU en sus chips, adaptándose a una modalidad de procesamiento conocida como computación heterogénea. Esta arquitectura combina CPU, GPU y NPU para maximizar el rendimiento y la eficiencia energética al distribuir tareas específicas entre estas unidades según sus capacidades.
La importancia de la computación heterogénea radica en su capacidad para dirigir procesos de IA de manera más eficaz, asignando cada tarea a la unidad más apropiada. Mientras que la GPU sobresale en la paralelización masiva, lo que es ideal para procesos gráficos e algunos tipos de algoritmos de IA, consume más energía. Por otro lado, la CPU, con un enfoque más general, puede manejar IA pero de manera menos eficiente. La NPU, aunque no supera en rendimiento a la GPU en tareas exigentes, se especializa en procesar IA con el mayor ahorro energético posible.
Intel y AMD, aunque más lentos en adoptar NPU en sus diseños, ahora incluyen estas unidades en sus últimas generaciones de procesadores, como los Intel Core Ultra con microarquitectura Meteor Lake y los Ryzen 7040 y 8040 de AMD con arquitectura XDNA. Estos avances no solo delinean el presente de la computación tanto de consumo como profesional, sino que también vislumbran su futuro, en un escenario donde CPU, GPU y NPU deben coexistir y funcionar de manera complementaria para satisfacer las crecientes demandas de procesamiento inteligente, beneficiando al final a los usuarios.
