Kioxia quiere que los SSD sean una pieza central de las fábricas de IA

La carrera por la Inteligencia Artificial no solo se libra en las GPU. También se decide en una capa más silenciosa, pero cada vez más importante: el almacenamiento. A medida que los modelos crecen, los agentes de IA ganan autonomía y las empresas empiezan a construir infraestructuras pensadas para producir y consumir tokens de forma continua, los centros de datos necesitan mover, consultar y conservar cantidades enormes de información sin disparar el coste energético ni dejar ociosos los aceleradores.

Kioxia está intentando posicionarse justo en ese punto. La compañía japonesa, heredera del negocio de memorias de Toshiba, ha presentado en los últimos meses una cartera de tecnologías que combina SSD de muy alta capacidad, memoria flash de baja latencia, software para búsquedas vectoriales y nuevas aproximaciones para conectar almacenamiento y GPU. La idea de fondo es clara: la NAND ya no debe verse solo como una capa barata para guardar datos, sino como una parte activa de la arquitectura de IA.

La propuesta llega en un momento delicado para el diseño de centros de datos. La memoria HBM es esencial para exprimir el rendimiento de las GPU, pero es cara, consume mucha energía y tiene límites físicos de capacidad. La DRAM del sistema ofrece más espacio, aunque tampoco escala al ritmo que exige la IA generativa. En ese hueco, los SSD empresariales empiezan a ganar valor como extensión de memoria, caché cercana al cómputo y soporte para bases vectoriales, RAG, inferencia y entrenamiento.

SSD de 245 TB para data lakes y bases vectoriales

Uno de los productos más llamativos de Kioxia es la serie LC9, un SSD NVMe empresarial que alcanza 245,76 TB de capacidad. La compañía lo presentó como el primer SSD NVMe de esa capacidad, con formato de 2,5 pulgadas y EDSFF E3.L, interfaz PCIe 5.0 y memoria BiCS FLASH QLC 3D con apilado de 32 dies.

El objetivo de una unidad así no es el PC de consumo ni siquiera el servidor convencional. Está pensada para data lakes, repositorios de entrenamiento, bibliotecas de contenido, sistemas de búsqueda y bases de datos vectoriales que deben almacenar cantidades masivas de información cerca de la infraestructura de cómputo. En entornos de IA generativa, la capacidad no basta: el dato debe estar accesible con suficiente rendimiento para que las GPU no pierdan tiempo esperando.

El salto frente al disco duro tradicional no se limita a la velocidad. También afecta a la densidad por rack, al consumo por terabyte y a la complejidad operativa. Menos unidades físicas implican menos bandejas, menos puntos de fallo y una gestión más sencilla, aunque el coste inicial por terabyte siga siendo un factor decisivo en muchas arquitecturas. Por eso los SSD de muy alta capacidad no eliminan de golpe a los HDD, pero sí cambian la conversación en cargas donde la latencia y el rendimiento por vatio pesan tanto como el precio.

Kioxia sitúa la LC9 dentro de una tendencia más amplia: convertir el almacenamiento flash en una pieza más cercana al procesamiento de datos. En lugar de mover constantemente información desde un gran repositorio remoto hasta el sistema de cómputo, parte de los datos puede mantenerse en SSD cercanos a las GPU. Esa proximidad ayuda a reducir accesos de red, mejora la disponibilidad de datos y permite diseñar infraestructuras más equilibradas.

XL-FLASH y SSD de altísimas IOPS para alimentar a las GPU

La segunda línea de trabajo mira menos a la capacidad y más a la latencia. Kioxia ha mostrado soluciones basadas en XL-FLASH, una memoria de tipo Storage Class Memory que busca situarse entre la DRAM y la NAND convencional. No compite por ser la opción más densa, sino por ofrecer acceso más rápido y muchas más operaciones de entrada/salida por segundo.

Durante GTC 2026, Kioxia presentó desarrollos orientados a lo que denomina almacenamiento preparado para IA, incluyendo un emulador de SSD capaz de superar los 100 millones de IOPS y soluciones pensadas para trabajar cerca de las GPU. La compañía también ha colaborado con NVIDIA en diseños que apuntan a reducir el cuello de botella entre almacenamiento y aceleradores, una cuestión cada vez más visible en inferencia a gran escala y en sistemas que consultan modelos o bases de datos de enormes dimensiones.

El punto técnico más interesante está en el tipo de acceso. Muchas cargas de IA no necesitan únicamente grandes transferencias secuenciales. También realizan lecturas pequeñas, frecuentes y aleatorias: parámetros, vectores, fragmentos de contexto o datos recuperados para sistemas RAG. En ese escenario, medir solo gigabytes por segundo se queda corto. Las IOPS, la latencia y la capacidad de servir peticiones concurrentes pasan a ser igual de importantes.

Kioxia no está sola en esta búsqueda. Todo el sector está explorando fórmulas para acercar almacenamiento y cómputo: acceso directo desde GPU, DPUs, CXL, memorias persistentes, cachés especializadas y empaquetado más avanzado. La compañía japonesa apuesta por una combinación de flash de baja latencia, nuevos controladores y arquitecturas que permitan a la GPU acceder a datos con menos intervención de la CPU.

AiSAQ: buscar en el SSD sin cargar todo en DRAM

La parte de software también gana peso. Kioxia ha liberado AiSAQ, una tecnología open source para búsquedas aproximadas de vecinos más cercanos, optimizada para SSD. Su objetivo es reducir la presión sobre la DRAM en sistemas RAG, donde las bases vectoriales suelen requerir grandes índices cargados en memoria para ofrecer respuestas rápidas.

La idea de AiSAQ es permitir que parte de esos índices se busquen directamente en el SSD, sin tener que moverlo todo a DRAM. Esto puede ayudar a escalar bases vectoriales más grandes con menor coste de memoria, aunque el rendimiento final dependerá de la unidad utilizada, del tamaño del índice, de la precisión requerida y del diseño de la aplicación.

El planteamiento encaja con una realidad incómoda para muchas empresas: desplegar RAG en producción no consiste solo en conectar un modelo de lenguaje a documentos corporativos. Requiere almacenar, actualizar, versionar y buscar millones o miles de millones de vectores. Si todo el rendimiento depende de llenar servidores con DRAM, el coste puede crecer muy rápido. Usar SSD como parte activa de la búsqueda abre una vía intermedia entre capacidad y velocidad.

Kioxia también avanza en la base de memoria que sostiene estos productos. Su estrategia de BiCS FLASH combina dos caminos: una novena generación centrada en eficiencia de producción y rendimiento mediante tecnología CBA, y una décima generación que aumenta el número de capas hasta 332 para mejorar densidad, rendimiento y eficiencia energética. Junto a Sandisk, la compañía ha detallado una tecnología 3D flash con velocidad de interfaz de 4,8 Gb/s, mejora de densidad de bits y reducción del consumo en operaciones de entrada y salida.

La lectura industrial es amplia. Durante años, los centros de datos se diseñaron en torno a CPU, memoria y almacenamiento con una jerarquía bastante clara. La IA está difuminando esas fronteras. La HBM seguirá siendo imprescindible junto a las GPU, pero no puede absorber por sí sola todo el crecimiento de datos. La DRAM seguirá siendo crítica, pero es cara y limitada. La NAND, gracias a su estructura 3D y a su capacidad para seguir aumentando densidad, tiene margen para asumir un papel más sofisticado.

Kioxia intenta aprovechar ese espacio con una cartera que cubre tres necesidades distintas: capacidad masiva con LC9, rendimiento extremo con XL-FLASH y reducción de dependencia de DRAM con AiSAQ. No todas estas piezas tendrán el mismo grado de madurez comercial ni servirán para cualquier carga, pero juntas dibujan una dirección clara: el almacenamiento deja de ser un elemento pasivo en la IA y empieza a formar parte del diseño del sistema.

Para los operadores de centros de datos, la pregunta ya no será solo cuántos petabytes pueden instalar. También deberán decidir dónde se colocan esos datos, cómo se conectan a las GPU, qué parte debe estar en HBM, qué parte en DRAM, qué parte en SSD de baja latencia y qué parte puede permanecer en almacenamiento masivo. En las llamadas fábricas de IA, esa arquitectura puede marcar la diferencia entre tener aceleradores saturados de trabajo o hardware muy caro esperando datos.

Preguntas frecuentes

¿Qué propone Kioxia para el almacenamiento de IA?
Kioxia combina SSD de muy alta capacidad, memoria XL-FLASH de baja latencia, software para búsquedas vectoriales y tecnologías orientadas a acercar el almacenamiento a las GPU.

¿Qué capacidad tiene el SSD Kioxia LC9?
La serie Kioxia LC9 alcanza 245,76 TB en formato de 2,5 pulgadas y EDSFF E3.L, con interfaz PCIe 5.0 y memoria BiCS FLASH QLC 3D.

¿Qué es AiSAQ y para qué sirve?
AiSAQ es un software open source de Kioxia para búsquedas vectoriales en SSD. Busca reducir la necesidad de cargar todos los índices en DRAM en sistemas RAG.

¿Por qué los SSD son importantes para la Inteligencia Artificial?
Porque las cargas de IA necesitan almacenar, recuperar y procesar grandes cantidades de datos con baja latencia. Si el almacenamiento no acompaña, las GPU pueden quedar infrautilizadas.

vía: en.eeworld

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×