Etiqueta: CNMC

Amazon no abandona la IA, pero endurece controles tras sus últimos fallos

Amazon no ha dado un portazo a la Inteligencia Artificial, pero sí ha tenido que corregir el rumbo. Tras varios incidentes recientes en su negocio minorista, incluida una caída de varias horas de su web y su aplicación de compras en Estados Unidos, la compañía ha reconocido que una de esas incidencias estuvo relacionada con el uso de herramientas de IA asistiendo a un ingeniero. Aun así, el grupo ha querido frenar la idea de que su plataforma esté sufriendo una cadena de apagones provocados por “código escrito por IA”. Su mensaje oficial es más matizado: el problema no fue una autonomía total de la herramienta, sino una recomendación incorrecta inferida a partir de documentación interna desactualizada, unida a controles

NVIDIA Groq 3 LPX: el nuevo motor para la inferencia de baja latencia

La gran pelea de la IA ya no está solo en entrenar modelos más grandes. Cada vez más, el cuello de botella real aparece en la inferencia: cuánto tarda un sistema en empezar a responder, cuánta latencia acumula cuando varios agentes interactúan entre sí y cuánto cuesta mantener esa velocidad a escala. En ese contexto, NVIDIA ha presentado Groq 3 LPX, un nuevo acelerador rack-scale para la plataforma Vera Rubin pensado específicamente para cargas de inferencia de baja latencia y contextos muy largos, dos ingredientes cada vez más importantes en la llamada IA agéntica. La compañía lo plantea como una pieza complementaria de Vera Rubin NVL72, no como un sustituto de sus GPUs generalistas. La idea es repartir el trabajo:

ASUS se lanza a la IA líquida con Vera Rubin y agentes autónomos locales

ASUS ha aprovechado la GTC 2026 para enseñar una de sus apuestas más ambiciosas en infraestructura de inteligencia artificial: una gama completa de sistemas que va desde factorías de IA a escala de rack hasta equipos de escritorio, edge y soluciones empresariales, todo ello articulado alrededor de la plataforma NVIDIA Vera Rubin. El mensaje de la compañía taiwanesa es claro: la siguiente oleada de IA no se jugará solo en grandes centros de datos, sino en una combinación de alto rendimiento, refrigeración avanzada, flexibilidad de despliegue y control local de los datos. La novedad más visible es su infraestructura totalmente refrigerada por líquido, con la que ASUS quiere responder a una realidad cada vez más evidente: los nuevos clústeres de

Dell lleva los agentes autónomos al escritorio con GB300 y OpenShell

Dell Technologies quiere llevar la siguiente fase de la IA empresarial fuera del centro de datos y acercarla al puesto de trabajo del desarrollador. La compañía ha anunciado soporte para NVIDIA NemoClaw y NVIDIA OpenShell dentro de sus equipos Dell Pro Max con GB10 y GB300, una combinación pensada para construir y ejecutar agentes autónomos de larga duración en local, con más control sobre privacidad, permisos y seguridad. Dell afirma además ser el primer OEM en comercializar un sobremesa con NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, una máquina que sitúa en la mesa prestaciones que hasta hace poco se asociaban más a infraestructura de laboratorio o clúster. El movimiento refleja bastante bien hacia dónde se está desplazando el mercado.

Vultr se apoya en NVIDIA y NetApp para acelerar la inferencia de IA

La carrera de la inteligencia artificial empresarial ya no gira solo alrededor de entrenar modelos cada vez más grandes. El verdadero cuello de botella empieza a estar en otra parte: cómo desplegarlos, alimentarlos con datos útiles, mantenerlos escalables y contener el coste de la inferencia cuando pasan del piloto a producción. Ahí es donde Vultr ha querido mover ficha con un nuevo anuncio junto a NVIDIA y NetApp, centrado en una pila optimizada para inferencia de IA orientada a empresas. La compañía ha comunicado que adoptará la plataforma NVIDIA Vera Rubin, el framework NVIDIA Dynamo y la familia de modelos NVIDIA Nemotron para reforzar su propuesta de infraestructura de IA. El mensaje es claro: ofrecer a las empresas una base

AWS lleva los agentes al canal: así quiere cambiar la relación con sus partners

Amazon Web Services ha decidido llevar la automatización con agentes a uno de los frentes más sensibles de su negocio: la gestión de partners. La compañía ha presentado AWS Partner Central agents, una nueva experiencia integrada en AWS Partner Central y construida sobre Amazon Bedrock AgentCore, con la que busca reducir tareas administrativas, acelerar la venta conjunta y facilitar el acceso a programas de financiación dentro del ecosistema de socios de AWS. El anuncio, publicado por AWS en su blog oficial para partners, sitúa esta nueva capa de agentes como una herramienta pensada para ayudar a los equipos comerciales y de alianzas a trabajar con más contexto y menos fricción. Según explica Nicole Schreiber, Partner Experience Lead de AWS, el

Amazon no abandona la IA, pero endurece controles tras sus últimos fallos

Amazon no ha dado un portazo a la Inteligencia Artificial, pero sí ha tenido que corregir el rumbo. Tras varios incidentes recientes en su negocio minorista, incluida una caída de varias horas de su web y su aplicación de compras en Estados Unidos, la compañía ha reconocido que una de esas incidencias estuvo relacionada con el uso de herramientas de IA asistiendo a un ingeniero. Aun así, el grupo ha querido frenar la idea de que su plataforma esté sufriendo una cadena de apagones provocados por “código escrito por IA”. Su mensaje oficial es más matizado: el problema no fue una autonomía total de la herramienta, sino una recomendación incorrecta inferida a partir de documentación interna desactualizada, unida a controles

NVIDIA Groq 3 LPX: el nuevo motor para la inferencia de baja latencia

La gran pelea de la IA ya no está solo en entrenar modelos más grandes. Cada vez más, el cuello de botella real aparece en la inferencia: cuánto tarda un sistema en empezar a responder, cuánta latencia acumula cuando varios agentes interactúan entre sí y cuánto cuesta mantener esa velocidad a escala. En ese contexto, NVIDIA ha presentado Groq 3 LPX, un nuevo acelerador rack-scale para la plataforma Vera Rubin pensado específicamente para cargas de inferencia de baja latencia y contextos muy largos, dos ingredientes cada vez más importantes en la llamada IA agéntica. La compañía lo plantea como una pieza complementaria de Vera Rubin NVL72, no como un sustituto de sus GPUs generalistas. La idea es repartir el trabajo:

ASUS se lanza a la IA líquida con Vera Rubin y agentes autónomos locales

ASUS ha aprovechado la GTC 2026 para enseñar una de sus apuestas más ambiciosas en infraestructura de inteligencia artificial: una gama completa de sistemas que va desde factorías de IA a escala de rack hasta equipos de escritorio, edge y soluciones empresariales, todo ello articulado alrededor de la plataforma NVIDIA Vera Rubin. El mensaje de la compañía taiwanesa es claro: la siguiente oleada de IA no se jugará solo en grandes centros de datos, sino en una combinación de alto rendimiento, refrigeración avanzada, flexibilidad de despliegue y control local de los datos. La novedad más visible es su infraestructura totalmente refrigerada por líquido, con la que ASUS quiere responder a una realidad cada vez más evidente: los nuevos clústeres de

Dell lleva los agentes autónomos al escritorio con GB300 y OpenShell

Dell Technologies quiere llevar la siguiente fase de la IA empresarial fuera del centro de datos y acercarla al puesto de trabajo del desarrollador. La compañía ha anunciado soporte para NVIDIA NemoClaw y NVIDIA OpenShell dentro de sus equipos Dell Pro Max con GB10 y GB300, una combinación pensada para construir y ejecutar agentes autónomos de larga duración en local, con más control sobre privacidad, permisos y seguridad. Dell afirma además ser el primer OEM en comercializar un sobremesa con NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, una máquina que sitúa en la mesa prestaciones que hasta hace poco se asociaban más a infraestructura de laboratorio o clúster. El movimiento refleja bastante bien hacia dónde se está desplazando el mercado.

Vultr se apoya en NVIDIA y NetApp para acelerar la inferencia de IA

La carrera de la inteligencia artificial empresarial ya no gira solo alrededor de entrenar modelos cada vez más grandes. El verdadero cuello de botella empieza a estar en otra parte: cómo desplegarlos, alimentarlos con datos útiles, mantenerlos escalables y contener el coste de la inferencia cuando pasan del piloto a producción. Ahí es donde Vultr ha querido mover ficha con un nuevo anuncio junto a NVIDIA y NetApp, centrado en una pila optimizada para inferencia de IA orientada a empresas. La compañía ha comunicado que adoptará la plataforma NVIDIA Vera Rubin, el framework NVIDIA Dynamo y la familia de modelos NVIDIA Nemotron para reforzar su propuesta de infraestructura de IA. El mensaje es claro: ofrecer a las empresas una base

AWS lleva los agentes al canal: así quiere cambiar la relación con sus partners

Amazon Web Services ha decidido llevar la automatización con agentes a uno de los frentes más sensibles de su negocio: la gestión de partners. La compañía ha presentado AWS Partner Central agents, una nueva experiencia integrada en AWS Partner Central y construida sobre Amazon Bedrock AgentCore, con la que busca reducir tareas administrativas, acelerar la venta conjunta y facilitar el acceso a programas de financiación dentro del ecosistema de socios de AWS. El anuncio, publicado por AWS en su blog oficial para partners, sitúa esta nueva capa de agentes como una herramienta pensada para ayudar a los equipos comerciales y de alianzas a trabajar con más contexto y menos fricción. Según explica Nicole Schreiber, Partner Experience Lead de AWS, el

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×