ha encontrado la forma de disparar la competitividad de China en IA frente a EEUU

Huawei ha presentado recientemente un avance tecnológico destinado a disminuir la dependencia de China de los chips de memoria HBM extranjeros, esencialmente los fabricados por Samsung, SK Hynix y Micron Technology. Las memorias HBM son cruciales para el rendimiento de las GPU utilizadas en inteligencia artificial (IA), debido a su capacidad para trabajar en conjunto y aportar altos anchos de banda. Sin embargo, los fabricantes chinos hasta ahora han estado rezagados en la producción de memorias HBM competitivas.

En lugar de anunciar una tecnología de empaquetado comparable a la de sus competidores internacionales, Huawei reveló el desarrollo de un algoritmo innovador llamado UCM (Unified Cache Manager). Este algoritmo tiene el potencial de mejorar significativamente la inferencia en modelos de IA, proceso esencial para generar respuestas a partir de datos ingresados. La estrategia detrás del UCM consiste en determinar el tipo de memoria más adecuada para almacenar cada dato, basándose en los requisitos de latencia, actuando efectivamente como una caché ampliada que optimiza el rendimiento y reduce la latencia.

Una particularidad notable del algoritmo UCM es su capacidad para disminuir la latencia de inferencia en un 90%, lo cual es un avance significativo en el campo de la inteligencia artificial. Además, Huawei planea hacer de este algoritmo una tecnología de código abierto, lo que podría facilitar su adopción y adaptación por parte de la comunidad de desarrolladores global.

Este movimiento por parte de Huawei no solo marca un paso importante hacia la autosuficiencia tecnológica de China, sino que también destaca el enfoque innovador de la compañía en la resolución de problemas complejos de ingeniería, potencialmente alterando el panorama competitivo en la fabricación de memorias y el desarrollo de la IA.