Rackspace Technology y AMD han firmado un memorando de entendimiento para crear una infraestructura de Inteligencia Artificial empresarial orientada a cargas críticas, sectores regulados y entornos donde la seguridad, la soberanía y la responsabilidad operativa no pueden quedar como una capa añadida al final del proyecto. El acuerdo plantea una Enterprise AI Cloud gestionada sobre GPUs AMD Instinct y procesadores AMD EPYC, con Rackspace como operador responsable del stack completo, desde el hardware hasta la inferencia y los agentes en producción.
El anuncio llega en un momento en el que muchas empresas han pasado de experimentar con modelos de lenguaje a preguntarse cómo llevar la Inteligencia Artificial a producción sin perder control sobre datos, costes, cumplimiento normativo y disponibilidad. Durante los dos últimos años, buena parte del mercado se ha movido alrededor de la idea de alquilar capacidad GPU por horas. Rackspace y AMD proponen otro enfoque: infraestructura dedicada, operada y gobernada, con un proveedor que asume más responsabilidad sobre la integración y la operación diaria.
La letra pequeña también importa. No se trata todavía de un contrato definitivo para desplegar una plataforma concreta en todos sus términos, sino de un MOU, un marco de colaboración potencial entre ambas compañías. Rackspace advierte en su propio comunicado de que no hay acuerdos definitivos cerrados y de que no puede garantizarse que todos los beneficios previstos lleguen a materializarse. Ese matiz no rebaja el interés del movimiento, pero sí obliga a leerlo como una apuesta estratégica en desarrollo, no como un producto plenamente consolidado desde el primer día.
Del alquiler de GPUs a una IA empresarial con responsable único
La tesis de Rackspace es clara: el modelo dominante obliga a las empresas a alquilar capacidad GPU y cargar con la complejidad de integración, seguridad, gobernanza, escalado y responsabilidad. Para compañías con cargas sensibles, ese planteamiento puede quedarse corto. No basta con disponer de aceleradores; hay que integrarlos en un marco operativo que permita saber dónde están los datos, quién accede, cómo se auditan los procesos, qué nivel de servicio se garantiza y qué ocurre cuando una carga falla.
El acuerdo con AMD intenta cubrir ese espacio mediante cuatro capacidades. La primera es Enterprise AI Cloud, una nube privada e híbrida gestionada sobre AMD Instinct y AMD EPYC, pensada para empresas que necesitan soberanía, cumplimiento y control operativo. La segunda es Enterprise Inference Engine, un runtime de inferencia con contexto empresarial, historial de sesión y conocimiento de dominio para que modelos y agentes funcionen con más consistencia en entornos productivos.
La tercera pieza es Inference as a Service, una oferta de GPUs AMD Instinct dedicadas y gestionadas con herramientas para inferencia y ajuste fino, planteada como alternativa gobernada al alquiler genérico de GPU. La cuarta es Bare Metal AMD Instinct, orientada a clientes que necesitan aislamiento físico, rendimiento determinista y acceso directo al hardware para cargas de entrenamiento o inferencia muy personalizadas.
La diferencia frente a un proveedor cloud estándar no está solo en el hardware. Está en la promesa de operación. Rackspace quiere situarse como responsable único de la plataforma, con acuerdos de nivel de servicio, soporte de hardware, gobierno y control de costes. Para industrias como finanzas, salud, administración pública, telecomunicaciones o manufactura avanzada, ese tipo de propuesta puede resultar más atractiva que mover datos sensibles a servicios de IA genéricos sin una arquitectura clara de responsabilidad.
AMD busca más espacio frente al dominio de NVIDIA
Para AMD, el acuerdo refuerza su ofensiva en infraestructura de IA empresarial. NVIDIA sigue teniendo una posición dominante en aceleradores, software, ecosistema y adopción entre hiperescalares, pero AMD está intentando ganar terreno con Instinct, EPYC y ROCm. El mensaje de AMD en los últimos meses ha sido constante: ofrecer una alternativa abierta, eficiente y preparada para empresas que quieren desplegar IA en sus propios centros de datos o en nubes privadas.
Las GPUs AMD Instinct MI300X ya están orientadas a cargas de Inteligencia Artificial generativa y HPC, con gran capacidad de memoria y alto ancho de banda. Más recientemente, AMD ha presentado la serie MI350, incluida la MI350P PCIe, pensada para desplegar IA generativa y agéntica dentro de infraestructura existente, sin exigir necesariamente rediseñar por completo el centro de datos. Ese enfoque encaja con empresas que no quieren depender únicamente de grandes clusters cerrados ni esperar a ciclos largos de renovación de hardware.
El papel de EPYC también es relevante. En muchas arquitecturas de IA, la conversación se concentra en la GPU, pero el rendimiento real depende del sistema completo: CPU, memoria, red, almacenamiento, virtualización, seguridad, orquestación, observabilidad y software. Rackspace y AMD quieren vender esa combinación como una plataforma operada, no como una lista de componentes.
La otra pieza es ROCm, el stack de software abierto de AMD para aceleración. El gran reto de AMD frente a NVIDIA no es solo el silicio, sino la madurez del ecosistema. CUDA lleva años siendo el estándar de facto para desarrolladores, frameworks y equipos de investigación. Para que una Enterprise AI Cloud basada en AMD sea atractiva, Rackspace tendrá que hacer buena parte del trabajo difícil: integración, validación de modelos, compatibilidad de herramientas, optimización de inferencia, soporte y operación continuada.
Gobernanza, soberanía y agentes en producción
El uso de la palabra “gobernada” no es casual. Las empresas ya no preguntan solo si un modelo responde bien, sino si el sistema puede integrarse en políticas de seguridad, auditoría, permisos, trazabilidad y cumplimiento. Esto se vuelve más delicado con agentes de IA, porque ya no hablamos únicamente de una consulta a un modelo, sino de sistemas capaces de ejecutar pasos, llamar herramientas, consultar datos internos y automatizar tareas.
Rackspace plantea que su Enterprise Inference Engine pueda conservar contexto de dominio, historial de sesión y datos específicos de la empresa entre consultas. Eso puede mejorar la utilidad de agentes y modelos en producción, pero también eleva las exigencias de seguridad. Si un sistema retiene memoria institucional, debe hacerlo con controles sólidos: segregación de clientes, cifrado, auditoría, límites de acceso, retención de datos, políticas de borrado y supervisión humana en procesos críticos.
El enfoque puede ser especialmente relevante para cargas soberanas. En Europa, muchas organizaciones están revisando dónde ejecutan sus sistemas de IA, quién opera la infraestructura, qué legislación aplica y cómo se protegen los datos frente a accesos no deseados. Un proveedor estadounidense como Rackspace no resuelve por sí solo todos los debates de soberanía digital, pero la idea de nube privada, híbrida y gobernada responde a una demanda real: la IA empresarial no puede depender siempre de servicios públicos genéricos si los datos o procesos son sensibles.
También hay una lectura de mercado. Muchos clientes no quieren convertirse en operadores de infraestructura de IA. Quieren usar modelos, agentes y datos propios con garantías. Esto abre espacio para proveedores gestionados que no compiten solo por precio por hora de GPU, sino por asumir complejidad operativa. Rackspace intenta reposicionarse ahí: no como simple compañía de hosting o managed cloud, sino como operador de IA empresarial de extremo a extremo.
El acuerdo con AMD tiene sentido dentro de esa estrategia, pero su éxito dependerá de la ejecución. Las empresas reguladas no compran promesas: exigen referencias, certificaciones, rendimiento medible, soporte, costes previsibles y capacidad para integrarse con sus sistemas existentes. Si Rackspace consigue convertir el MOU en ofertas maduras, con despliegues reales y SLAs creíbles, podría ocupar un espacio interesante entre el cloud público de los hiperescalares y la infraestructura privada autogestionada.
La conclusión es que la carrera de la Inteligencia Artificial empresarial está entrando en una fase más sobria. Ya no basta con tener acceso a GPUs. La pregunta empieza a ser quién gobierna la infraestructura, quién responde cuando falla, cómo se audita el uso de datos y qué proveedor puede llevar modelos y agentes a producción sin convertir cada despliegue en un proyecto artesanal. Rackspace y AMD han leído esa necesidad. Ahora tendrán que demostrar que pueden convertirla en una plataforma real.
Preguntas frecuentes
¿Qué han anunciado Rackspace y AMD?
Han firmado un memorando de entendimiento para crear una infraestructura de Inteligencia Artificial empresarial gobernada, basada en GPUs AMD Instinct, procesadores AMD EPYC y operación gestionada por Rackspace.
¿Es ya un acuerdo comercial definitivo?
No completamente. El comunicado habla de un MOU, un marco de colaboración potencial. Rackspace advierte de que no hay acuerdos definitivos cerrados y de que las conversaciones siguen siendo preliminares.
¿Qué diferencia hay frente a alquilar GPUs por horas?
La propuesta busca ofrecer infraestructura dedicada, gestionada y gobernada, con Rackspace como operador responsable del stack, en lugar de dejar al cliente toda la integración, seguridad, escalado y operación.
¿A qué tipo de empresas va dirigido?
A organizaciones con cargas críticas o reguladas, como banca, salud, administración pública, industria, telecomunicaciones o compañías que necesitan soberanía, cumplimiento, aislamiento físico y control de costes.