Etiqueta: Galileo

IA local en la empresa: así encajan Ollama y SoaxNG para combinar soberanía del dato y potencia cloud

La pregunta que más se repite en los comités de tecnología en 2025 ya no es “qué modelo usar”, sino “dónde ejecutar la IA”. Entre latencias, costes por token, cumplimiento normativo y fugas de datos, cada vez más organizaciones exploran ejecución local de modelos de lenguaje con un respaldo cloud elástico para picos y nuevos casos de uso. En ese punto intermedio se sitúa la propuesta de SoaxNG —la capa de orquestación de OASIX Cloud (Grupo Aire) basada en OpenStack— para desplegar Ollama con Open WebUI, combinando privacidad in situ y escalabilidad. El objetivo: ecosistemas híbridos donde los datos sensibles permanecen bajo control directo, mientras la infraestructura en la nube aporta capacidad y resiliencia cuando el negocio lo exige. Qué

TSMC acelera en EE. UU.: segunda parcela en Arizona y plan para fabricar chips de 2 nm (N2) y más allá

La taiwanesa TSMC ha dejado claro que su apuesta por Estados Unidos ya no es un ensayo, sino un proyecto a escala industrial. En la presentación de resultados del tercer trimestre, el consejero delegado C. C. Wei confirmó dos movimientos de calado: la adquisición de un segundo terreno junto a sus instalaciones de Arizona para ampliar capacidad y la actualización acelerada de la hoja de ruta tecnológica para traer el nodo N2 (2 nm) y procesos “más allá” al desierto de Sonora. El mensaje, en palabras del propio ejecutivo, responde a una “muy fuerte demanda multianual relacionada con IA” por parte de clientes estadounidenses. “Estamos haciendo progresos tangibles y ejecutando bien nuestro plan. Además, nos estamos preparando para actualizar nuestras

Samsung acelera con HBM4E para GPU de IA: objetivo 3,25 TB/s en 2027 y un golpe de timón para recuperar el liderazgo

La carrera por la memoria de alto ancho de banda (HBM) entra en una nueva fase. Samsung Electronics ha puesto fecha y cifra a su próxima jugada: HBM4E con un objetivo de 3,25 TB/s y producción en masa en 2027. La compañía lo detalló en el OCP Global Summit 2025 de San José, fijando una velocidad por pin de al menos 13 Gbps y 2.048 pines de E/S para alcanzar ese caudal, 2,5 veces por encima de la HBM3E vigente. El anuncio llega tras un año en el que SK hynix tomó la delantera con HBM3E y se postuló como la primera en llevar HBM4 a volumen, mientras Micron se posicionaba con muestras de 11 Gbps para su “cliente principal”

Memoria y almacenamiento, al límite: la ola de IA vacía el “granero” de DRAM, NAND, SSD y HDD y dispara los precios

La industria de la memoria vive una situación inédita: DRAM, NAND Flash, SSD y discos duros se han quedado simultáneamente en mínimos. Lo que durante meses se temió como un ciclo alcista sostenido ha desembocado en escasez generalizada que ya se nota en contratos y precios de contado, y que amenaza con trasladarse a lineales y presupuestos de hogares y pymes en las próximas semanas. La confirmación más contundente llega desde Adata, referente mundial en módulos de memoria. Su presidente, Simon Chen, resumió el momento con una imagen gráfica: el “granero” de los fabricantes está prácticamente vacío y los grandes proveedores de nube (CSP) —OpenAI, AWS, Google, Microsoft— han pasado a ser los competidores reales de los ensambladores y distribuidores

Intel anuncia «Crescent Island»: una nueva GPU para la era de la inferencia de IA con 160 GB de LPDDR5X y microarquitectura Xe3P

Intel ha puesto una nueva pieza sobre el tablero de la Inteligencia Artificial en centros de datos. En el OCP Global Summit 2025, la compañía anunció Crescent Island, el nombre en clave de su próxima GPU para centros de datos optimizada para inferencia, con un enfoque claro: más capacidad de memoria por vatio, refrigeración por aire en servidores empresariales y una pila de software abierta que facilite el despliegue a gran escala. En palabras del CTO de Intel, Sachin Katti, la IA se mueve de entrenamientos estáticos a inferencia en tiempo real y en todas partes, impulsada por la llamada IA agéntica. Y si el presente es inferir —no solo entrenar—, la infraestructura debe cambiar de marcha. Lejos del brillo

Tres de cada cuatro proyectos de IA agéntica suponen un riesgo grave de seguridad

Un reciente informe de Palo Alto Networks, empresa líder en ciberseguridad, advierte que el 75% de los proyectos de inteligencia artificial agéntica en desarrollo en Europa suponen un riesgo significativo para la seguridad de las organizaciones. El problema no radica en la tecnología en sí, sino en la falta de gobernanza, control y supervisión adecuados. El estudio, basado en más de 3.000 entrevistas con altos directivos (C-suite) de compañías europeas, evidencia que muchas iniciativas de IA se están implementando sin una estrategia clara, sin objetivos definidos y sin criterios de seguridad establecidos, lo que refleja una escasa implicación de los consejos de administración. Según la compañía, si no se toman medidas urgentes desde el liderazgo empresarial, la innovación actual podría

IA local en la empresa: así encajan Ollama y SoaxNG para combinar soberanía del dato y potencia cloud

La pregunta que más se repite en los comités de tecnología en 2025 ya no es “qué modelo usar”, sino “dónde ejecutar la IA”. Entre latencias, costes por token, cumplimiento normativo y fugas de datos, cada vez más organizaciones exploran ejecución local de modelos de lenguaje con un respaldo cloud elástico para picos y nuevos casos de uso. En ese punto intermedio se sitúa la propuesta de SoaxNG —la capa de orquestación de OASIX Cloud (Grupo Aire) basada en OpenStack— para desplegar Ollama con Open WebUI, combinando privacidad in situ y escalabilidad. El objetivo: ecosistemas híbridos donde los datos sensibles permanecen bajo control directo, mientras la infraestructura en la nube aporta capacidad y resiliencia cuando el negocio lo exige. Qué

TSMC acelera en EE. UU.: segunda parcela en Arizona y plan para fabricar chips de 2 nm (N2) y más allá

La taiwanesa TSMC ha dejado claro que su apuesta por Estados Unidos ya no es un ensayo, sino un proyecto a escala industrial. En la presentación de resultados del tercer trimestre, el consejero delegado C. C. Wei confirmó dos movimientos de calado: la adquisición de un segundo terreno junto a sus instalaciones de Arizona para ampliar capacidad y la actualización acelerada de la hoja de ruta tecnológica para traer el nodo N2 (2 nm) y procesos “más allá” al desierto de Sonora. El mensaje, en palabras del propio ejecutivo, responde a una “muy fuerte demanda multianual relacionada con IA” por parte de clientes estadounidenses. “Estamos haciendo progresos tangibles y ejecutando bien nuestro plan. Además, nos estamos preparando para actualizar nuestras

Samsung acelera con HBM4E para GPU de IA: objetivo 3,25 TB/s en 2027 y un golpe de timón para recuperar el liderazgo

La carrera por la memoria de alto ancho de banda (HBM) entra en una nueva fase. Samsung Electronics ha puesto fecha y cifra a su próxima jugada: HBM4E con un objetivo de 3,25 TB/s y producción en masa en 2027. La compañía lo detalló en el OCP Global Summit 2025 de San José, fijando una velocidad por pin de al menos 13 Gbps y 2.048 pines de E/S para alcanzar ese caudal, 2,5 veces por encima de la HBM3E vigente. El anuncio llega tras un año en el que SK hynix tomó la delantera con HBM3E y se postuló como la primera en llevar HBM4 a volumen, mientras Micron se posicionaba con muestras de 11 Gbps para su “cliente principal”

Memoria y almacenamiento, al límite: la ola de IA vacía el “granero” de DRAM, NAND, SSD y HDD y dispara los precios

La industria de la memoria vive una situación inédita: DRAM, NAND Flash, SSD y discos duros se han quedado simultáneamente en mínimos. Lo que durante meses se temió como un ciclo alcista sostenido ha desembocado en escasez generalizada que ya se nota en contratos y precios de contado, y que amenaza con trasladarse a lineales y presupuestos de hogares y pymes en las próximas semanas. La confirmación más contundente llega desde Adata, referente mundial en módulos de memoria. Su presidente, Simon Chen, resumió el momento con una imagen gráfica: el “granero” de los fabricantes está prácticamente vacío y los grandes proveedores de nube (CSP) —OpenAI, AWS, Google, Microsoft— han pasado a ser los competidores reales de los ensambladores y distribuidores

Intel anuncia «Crescent Island»: una nueva GPU para la era de la inferencia de IA con 160 GB de LPDDR5X y microarquitectura Xe3P

Intel ha puesto una nueva pieza sobre el tablero de la Inteligencia Artificial en centros de datos. En el OCP Global Summit 2025, la compañía anunció Crescent Island, el nombre en clave de su próxima GPU para centros de datos optimizada para inferencia, con un enfoque claro: más capacidad de memoria por vatio, refrigeración por aire en servidores empresariales y una pila de software abierta que facilite el despliegue a gran escala. En palabras del CTO de Intel, Sachin Katti, la IA se mueve de entrenamientos estáticos a inferencia en tiempo real y en todas partes, impulsada por la llamada IA agéntica. Y si el presente es inferir —no solo entrenar—, la infraestructura debe cambiar de marcha. Lejos del brillo

Tres de cada cuatro proyectos de IA agéntica suponen un riesgo grave de seguridad

Un reciente informe de Palo Alto Networks, empresa líder en ciberseguridad, advierte que el 75% de los proyectos de inteligencia artificial agéntica en desarrollo en Europa suponen un riesgo significativo para la seguridad de las organizaciones. El problema no radica en la tecnología en sí, sino en la falta de gobernanza, control y supervisión adecuados. El estudio, basado en más de 3.000 entrevistas con altos directivos (C-suite) de compañías europeas, evidencia que muchas iniciativas de IA se están implementando sin una estrategia clara, sin objetivos definidos y sin criterios de seguridad establecidos, lo que refleja una escasa implicación de los consejos de administración. Según la compañía, si no se toman medidas urgentes desde el liderazgo empresarial, la innovación actual podría

×