Etiqueta: coste anual

La web empieza en un chatbot: los suscriptores de IA convierten a ChatGPT en su “nuevo buscador” y tensionan el modelo de suscripciones

La transición no se está produciendo con un gran anuncio, sino con un cambio de costumbre: para un número creciente de usuarios que pagan por herramientas de Inteligencia Artificial, la primera interacción del día con Internet ya no es un buscador tradicional, sino un asistente conversacional. Un análisis de Noticias.ai sobre el informe de Bango y 3Gem retrata esta inflexión como un fenómeno de “infraestructura personal”: la IA deja de ser una utilidad ocasional para convertirse en el punto de partida desde el que se consulta, se decide y se organiza la vida digital. El estudio se apoya en una encuesta realizada a 2.000 usuarios estadounidenses que pagan por al menos un servicio de IA (datos recogidos en octubre de

Bruselas lanza la Digital Networks Act: “pasaporte único” para telecos, fin del cobre y nuevas reglas para redes críticas en la UE

La Comisión Europea ha puesto sobre la mesa una de sus reformas más ambiciosas para el mercado de las telecomunicaciones desde la aprobación del Código Europeo de las Comunicaciones Electrónicas de 2018. La propuesta, presentada el 21 de enero de 2026, se llama Digital Networks Act (DNA) y busca “modernizar, simplificar y armonizar” las normas de conectividad en la Unión para facilitar que los operadores inviertan en fibra de nueva generación y redes móviles avanzadas, en un momento en el que la demanda de capacidad no deja de crecer por el auge del cloud y la Inteligencia Artificial. La iniciativa nace con un diagnóstico claro: el sector sigue operando, en la práctica, como 27 mercados nacionales, con barreras que frenan

Claude Code y la “muralla” de CUDA: un portado a ROCm en 30 minutos reabre el debate sobre el lock-in de NVIDIA

Un hilo en Reddit ha encendido una discusión que llevaba meses cociéndose en la comunidad de GPU: hasta qué punto la “muralla” de CUDA —la combinación de APIs, bibliotecas, tooling y experiencia acumulada alrededor de NVIDIA— sigue siendo una barrera real si las herramientas de programación asistida por agentes empiezan a automatizar el trabajo duro del portado. El origen del revuelo es una afirmación tan directa como polémica: un usuario asegura haber portado un backend CUDA completo a ROCm en unos 30 minutos utilizando Claude Code, el entorno de codificación agéntica de Anthropic, sin recurrir a capas de traducción “intermedias” tipo wrapper, y con un único escollo relevante: las diferencias de data layout. Por qué esto importa: ROCm no es

Samsung acelera su HBM “a medida” y entra en fase backend del base die de HBM4E

Samsung Electronics ha dado un paso relevante en su hoja de ruta de memoria de alto ancho de banda: la compañía ha entrado en la fase de diseño backend del base die de su HBM4E personalizada (7.ª generación), un hito que, en términos de desarrollo de silicio, suele interpretarse como haber superado la “mitad del camino” hacia el tape-out. El foco está en una pieza que cada vez pesa más en la competencia por suministrar memoria para IA: el base die, el “sustrato lógico” situado en la base del apilado HBM. En un mercado donde los clientes ya no piden únicamente capacidad y ancho de banda, sino funciones lógicas específicas integradas en la memoria, el base die se ha convertido

2026 apunta a ser el “año del ASIC” en la nube, pero la memoria puede frenar el despliegue

La carrera por abaratar y escalar la computación para Inteligencia Artificial está empujando a los grandes proveedores de nube —y a su ecosistema de socios— hacia una fase nueva: más racks con aceleradores a medida (ASIC) y menos dependencia exclusiva de hardware estándar. La tesis es clara: cuando los volúmenes de inferencia crecen, la eficiencia por euro y por vatio pasa a mandar; y ahí, los diseños específicos (TPU, chips internos, aceleradores personalizados) ganan atractivo frente a soluciones generalistas. En ese contexto, varias fuentes del sector apuntan a un fuerte repunte de envíos de ASIC para cloud en 2026, con Broadcom capturando proyectos de producción a gran escala con múltiples proveedores de servicios cloud (CSP) y, en paralelo, compañías taiwanesas

TrendForce alerta: la memoria se convierte en el nuevo cuello de botella de la era IA y apunta a un pico histórico en 2027

La narrativa dominante de la infraestructura para inteligencia artificial suele girar alrededor de GPUs, interconexiones y centros de datos. Sin embargo, un informe reciente de TrendForce pone el foco en un componente que, en silencio, está condicionando costes, rendimiento y planificación de capacidad: la memoria. Según sus proyecciones, la evolución de las arquitecturas de IA —cada vez más orientadas a inferencia sostenida, grandes volúmenes de datos y acceso aleatorio— está empujando al mercado combinado de DRAM y NAND flash hacia un máximo histórico en 2027, con ritmos de crecimiento que recuerdan a una “segunda ola” del boom de la IA, pero esta vez con la memoria como protagonista. Un salto de escala: de ciclo sectorial a “infraestructura base” de la

La web empieza en un chatbot: los suscriptores de IA convierten a ChatGPT en su “nuevo buscador” y tensionan el modelo de suscripciones

La transición no se está produciendo con un gran anuncio, sino con un cambio de costumbre: para un número creciente de usuarios que pagan por herramientas de Inteligencia Artificial, la primera interacción del día con Internet ya no es un buscador tradicional, sino un asistente conversacional. Un análisis de Noticias.ai sobre el informe de Bango y 3Gem retrata esta inflexión como un fenómeno de “infraestructura personal”: la IA deja de ser una utilidad ocasional para convertirse en el punto de partida desde el que se consulta, se decide y se organiza la vida digital. El estudio se apoya en una encuesta realizada a 2.000 usuarios estadounidenses que pagan por al menos un servicio de IA (datos recogidos en octubre de

Bruselas lanza la Digital Networks Act: “pasaporte único” para telecos, fin del cobre y nuevas reglas para redes críticas en la UE

La Comisión Europea ha puesto sobre la mesa una de sus reformas más ambiciosas para el mercado de las telecomunicaciones desde la aprobación del Código Europeo de las Comunicaciones Electrónicas de 2018. La propuesta, presentada el 21 de enero de 2026, se llama Digital Networks Act (DNA) y busca “modernizar, simplificar y armonizar” las normas de conectividad en la Unión para facilitar que los operadores inviertan en fibra de nueva generación y redes móviles avanzadas, en un momento en el que la demanda de capacidad no deja de crecer por el auge del cloud y la Inteligencia Artificial. La iniciativa nace con un diagnóstico claro: el sector sigue operando, en la práctica, como 27 mercados nacionales, con barreras que frenan

Claude Code y la “muralla” de CUDA: un portado a ROCm en 30 minutos reabre el debate sobre el lock-in de NVIDIA

Un hilo en Reddit ha encendido una discusión que llevaba meses cociéndose en la comunidad de GPU: hasta qué punto la “muralla” de CUDA —la combinación de APIs, bibliotecas, tooling y experiencia acumulada alrededor de NVIDIA— sigue siendo una barrera real si las herramientas de programación asistida por agentes empiezan a automatizar el trabajo duro del portado. El origen del revuelo es una afirmación tan directa como polémica: un usuario asegura haber portado un backend CUDA completo a ROCm en unos 30 minutos utilizando Claude Code, el entorno de codificación agéntica de Anthropic, sin recurrir a capas de traducción “intermedias” tipo wrapper, y con un único escollo relevante: las diferencias de data layout. Por qué esto importa: ROCm no es

Samsung acelera su HBM “a medida” y entra en fase backend del base die de HBM4E

Samsung Electronics ha dado un paso relevante en su hoja de ruta de memoria de alto ancho de banda: la compañía ha entrado en la fase de diseño backend del base die de su HBM4E personalizada (7.ª generación), un hito que, en términos de desarrollo de silicio, suele interpretarse como haber superado la “mitad del camino” hacia el tape-out. El foco está en una pieza que cada vez pesa más en la competencia por suministrar memoria para IA: el base die, el “sustrato lógico” situado en la base del apilado HBM. En un mercado donde los clientes ya no piden únicamente capacidad y ancho de banda, sino funciones lógicas específicas integradas en la memoria, el base die se ha convertido

2026 apunta a ser el “año del ASIC” en la nube, pero la memoria puede frenar el despliegue

La carrera por abaratar y escalar la computación para Inteligencia Artificial está empujando a los grandes proveedores de nube —y a su ecosistema de socios— hacia una fase nueva: más racks con aceleradores a medida (ASIC) y menos dependencia exclusiva de hardware estándar. La tesis es clara: cuando los volúmenes de inferencia crecen, la eficiencia por euro y por vatio pasa a mandar; y ahí, los diseños específicos (TPU, chips internos, aceleradores personalizados) ganan atractivo frente a soluciones generalistas. En ese contexto, varias fuentes del sector apuntan a un fuerte repunte de envíos de ASIC para cloud en 2026, con Broadcom capturando proyectos de producción a gran escala con múltiples proveedores de servicios cloud (CSP) y, en paralelo, compañías taiwanesas

TrendForce alerta: la memoria se convierte en el nuevo cuello de botella de la era IA y apunta a un pico histórico en 2027

La narrativa dominante de la infraestructura para inteligencia artificial suele girar alrededor de GPUs, interconexiones y centros de datos. Sin embargo, un informe reciente de TrendForce pone el foco en un componente que, en silencio, está condicionando costes, rendimiento y planificación de capacidad: la memoria. Según sus proyecciones, la evolución de las arquitecturas de IA —cada vez más orientadas a inferencia sostenida, grandes volúmenes de datos y acceso aleatorio— está empujando al mercado combinado de DRAM y NAND flash hacia un máximo histórico en 2027, con ritmos de crecimiento que recuerdan a una “segunda ola” del boom de la IA, pero esta vez con la memoria como protagonista. Un salto de escala: de ciclo sectorial a “infraestructura base” de la

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×