NVIDIA quiere que el “recuerdo” de los agentes de IA viva fuera de la GPU: así es su nueva plataforma de almacenamiento con BlueField-4
En plena carrera por escalar la IA agéntica (modelos capaces de encadenar tareas, razonar durante más tiempo y mantener conversaciones con contexto), NVIDIA ha puesto el foco en un problema muy concreto: la memoria de contexto. En CES, la compañía anunció que su BlueField-4 (un procesador de datos/DPU) será la pieza que impulse la NVIDIA Inference Context Memory Storage Platform, una propuesta de “almacenamiento nativo para IA” diseñada para inferencia a gran escala y para compartir contexto de forma rápida entre nodos. El cuello de botella: el KV cache, la “memoria” que no cabe para siempre en la GPU A medida que los modelos aumentan tamaño y, sobre todo, alargan el contexto (más turnos, más documentos, más pasos de razonamiento),