
Micron apilará módulos GDDR para IA al estilo HBM por primera vez
Micron estaría explorando una tecnología nunca antes vista en el segmento de consumo: apilar módulos GDDR de forma vertical, tal como se hace con la memoria HBM, con el objetivo de atender la creciente demanda de inteligencia artificial.
La IA obliga a buscar alternativas al HBM tradicional
Según un reporte de ETNews, Micron planea crear una solución apilada a base de módulos GDDR, un tipo de memoria que hasta ahora había estado prácticamente reservada para GPUs de gaming. El apilamiento inicial contemplaría alrededor de cuatro capas, y los primeros prototipos (samples) podrían llegar al mercado tan pronto como el próximo año. La idea es ofrecer capacidades mucho mayores que las soluciones actuales, apuntando especialmente a las cargas de trabajo de inference en IA.
El reporte aclara que esta solución apilada no alcanzaría el rendimiento del HBM convencional, pero compensaría con mayor capacidad, un atributo clave para los modelos de inferencia modernos. Todo apunta a que Micron cuenta con capacidad de producción GDDR disponible y prefiere orientarla hacia la demanda empresarial en lugar de aliviar la escasez en el mercado de consumo.
Un camino técnico lleno de desafíos
Apilar GDDR no es tarea sencilla. A diferencia del LPDDR5X, que Micron ya apila hasta 16 capas en su módulo SOCAMM2 logrando hasta 256 GB por módulo, el GDDR genera más calor y presenta mayores retos de integridad de señal, especialmente si se mantiene el wire bonding como método de interconexión. Habrá que ver si la compañía sacrifica velocidades de clock para resolver estos problemas térmicos, aunque el reporte deja claro que la innovación está en marcha.
Contexto: Micron busca terreno ganado en la carrera de la memoria para IA
El contexto no es menor: Micron enfrentó contratiempos con la certificación de su HBM4 por parte de NVIDIA, y aunque provee módulos para la plataforma Vera Rubin, su cuota de suministro ha caído frente a competidores como Samsung. Una solución GDDR apilada a menor costo que el HBM podría ser una carta interesante para recuperar posición en el mercado de memoria para IA. Para los gamers, en cambio, la noticia no es tan alentadora: más módulos GDDR derivados hacia el sector empresarial probablemente se traduzca en más presión sobre la oferta disponible para GPUs de consumo.
Fuente: WCCFTech
