Autor: Antonio

Filtración de tecnología de 2 nm de TSMC: exempleados enfrentan hasta 14 años de cárcel en Taiwán

El mayor fabricante de semiconductores del mundo, TSMC (Taiwan Semiconductor Manufacturing Company), vuelve a estar en el centro de un escándalo de seguridad tecnológica. La Fiscalía taiwanesa ha solicitado penas de hasta 14 años de cárcel para tres exempleados de la compañía acusados de filtrar información clave sobre su proceso de fabricación de chips de 2 nanómetros (nm), uno de los más avanzados de la industria. La investigación revela que el caso no solo constituye un robo de secretos industriales, sino que también se enmarca dentro de la legislación de seguridad nacional de Taiwán, dada la importancia estratégica que TSMC representa para la economía y la defensa del país. El epicentro del escándalo: un extrabajador convertido en puente con Japón

Google presenta Ironwood: su TPU para liderar la inferencia de modelos de razonamiento en la era exaescala

Google cerró las ponencias de machine learning en la conferencia Hot Chips con un anuncio de peso: Ironwood, la nueva generación de sus TPU (Tensor Processing Units), diseñada específicamente para inferencia de modelos de lenguaje y razonamiento a gran escala. A diferencia de generaciones anteriores, centradas sobre todo en entrenamiento, Ironwood nace para ejecutar en producción LLMs, arquitecturas mixture-of-experts y modelos de razonamiento, donde la latencia y la fiabilidad son factores críticos. Escalabilidad masiva El avance más llamativo es la capacidad de escalar hasta 9.216 chips en un único nodo, lo que permite alcanzar los 42,5 exaflops de rendimiento (FP8). Todo ello acompañado de 1,77 PB de memoria HBM3e directamente direccionable, compartida mediante optical circuit switches (OCS), que duplican la

CoreWeave demuestra un salto de 6,5x en rendimiento de GPU con NVIDIA GB300 NVL72 frente a H100 en el modelo de razonamiento DeepSeek R1

La carrera por la Inteligencia Artificial de nueva generación no solo se libra en los modelos, sino en la infraestructura que los hace posibles. Con la llegada de los modelos de razonamiento —capaces de realizar tareas complejas en varios pasos, analizar datos y actuar como agentes autónomos— el cuello de botella ya no está en la precisión, sino en la latencia y el rendimiento de inferencia. CoreWeave ha anunciado que sus nuevas instancias aceleradas con NVIDIA GB300 NVL72, basadas en las GPUs Blackwell Ultra, han logrado un rendimiento 6,5 veces superior en inferencia sobre el modelo DeepSeek R1 en comparación con un clúster de GPUs H100. De los modelos generativos a los de razonamiento La transición de modelos generativos básicos

Más allá del RGPD: convertir la formación en seguridad en una oportunidad estratégica

Madrid, agosto de 2025. – Las empresas europeas invierten millones en cumplir con el Reglamento General de Protección de Datos (RGPD), pero gran parte de los incidentes de seguridad siguen teniendo un origen humano. Un dato lo ilustra: mientras que el 88 % de las organizaciones gasta más de 1 millón de euros en cumplimiento y un 40 % llega a invertir hasta 10 millones, el 80 % de sus empleados aún ignora prácticas básicas de contraseñas. El riesgo es doble. Por un lado, el formal, con sanciones que pueden alcanzar los 20 millones de euros o el 4 % de la facturación anual mundial. Por otro, el informal, que suele ser más dañino: pérdida de confianza, caída en la

Huawei presenta OceanDisk: los primeros SSD para una nueva era de la IA con hasta 245 TB de capacidad

Huawei ha dado un paso estratégico en la carrera mundial por el almacenamiento para inteligencia artificial con el lanzamiento de sus SSD Huawei OceanDisk, diseñados específicamente para entrenar e inferir modelos de gran escala. La compañía china busca así aliviar la llamada “pared de VRAM” que limita el crecimiento de la IA, especialmente en un contexto marcado por la escasez de GPUs de NVIDIA debido a las restricciones comerciales de Estados Unidos. Tres modelos para distintas necesidades de IA Huawei presentó tres variantes dentro de la familia OceanDisk 560, cada una orientada a un escenario distinto: DiskBooster: la apuesta por la memoria virtual Huawei también presentó DiskBooster, una tecnología de memoria virtual en “pool” que combina diferentes tipos de memoria

Europa activa el “botón rojo” de la IA: comienza la era de las sanciones mientras los españoles desconfían del control institucional

A partir del 2 de agosto de 2025, entra en vigor el régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA). Pese al hito regulatorio, la mayoría de la población sigue percibiendo una falta de control y transparencia en el uso de estas tecnologías. La Unión Europea inicia una nueva etapa en la gobernanza tecnológica con la entrada en vigor del régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA), un marco normativo pionero a nivel mundial. Desde el 2 de agosto, el incumplimiento de las normas establecidas por el RIA puede acarrear multas de hasta 35 millones de euros o el 7 % de la facturación global anual de la empresa infractora. El objetivo es claro: garantizar un uso seguro,

Filtración de tecnología de 2 nm de TSMC: exempleados enfrentan hasta 14 años de cárcel en Taiwán

El mayor fabricante de semiconductores del mundo, TSMC (Taiwan Semiconductor Manufacturing Company), vuelve a estar en el centro de un escándalo de seguridad tecnológica. La Fiscalía taiwanesa ha solicitado penas de hasta 14 años de cárcel para tres exempleados de la compañía acusados de filtrar información clave sobre su proceso de fabricación de chips de 2 nanómetros (nm), uno de los más avanzados de la industria. La investigación revela que el caso no solo constituye un robo de secretos industriales, sino que también se enmarca dentro de la legislación de seguridad nacional de Taiwán, dada la importancia estratégica que TSMC representa para la economía y la defensa del país. El epicentro del escándalo: un extrabajador convertido en puente con Japón

Google presenta Ironwood: su TPU para liderar la inferencia de modelos de razonamiento en la era exaescala

Google cerró las ponencias de machine learning en la conferencia Hot Chips con un anuncio de peso: Ironwood, la nueva generación de sus TPU (Tensor Processing Units), diseñada específicamente para inferencia de modelos de lenguaje y razonamiento a gran escala. A diferencia de generaciones anteriores, centradas sobre todo en entrenamiento, Ironwood nace para ejecutar en producción LLMs, arquitecturas mixture-of-experts y modelos de razonamiento, donde la latencia y la fiabilidad son factores críticos. Escalabilidad masiva El avance más llamativo es la capacidad de escalar hasta 9.216 chips en un único nodo, lo que permite alcanzar los 42,5 exaflops de rendimiento (FP8). Todo ello acompañado de 1,77 PB de memoria HBM3e directamente direccionable, compartida mediante optical circuit switches (OCS), que duplican la

CoreWeave demuestra un salto de 6,5x en rendimiento de GPU con NVIDIA GB300 NVL72 frente a H100 en el modelo de razonamiento DeepSeek R1

La carrera por la Inteligencia Artificial de nueva generación no solo se libra en los modelos, sino en la infraestructura que los hace posibles. Con la llegada de los modelos de razonamiento —capaces de realizar tareas complejas en varios pasos, analizar datos y actuar como agentes autónomos— el cuello de botella ya no está en la precisión, sino en la latencia y el rendimiento de inferencia. CoreWeave ha anunciado que sus nuevas instancias aceleradas con NVIDIA GB300 NVL72, basadas en las GPUs Blackwell Ultra, han logrado un rendimiento 6,5 veces superior en inferencia sobre el modelo DeepSeek R1 en comparación con un clúster de GPUs H100. De los modelos generativos a los de razonamiento La transición de modelos generativos básicos

Más allá del RGPD: convertir la formación en seguridad en una oportunidad estratégica

Madrid, agosto de 2025. – Las empresas europeas invierten millones en cumplir con el Reglamento General de Protección de Datos (RGPD), pero gran parte de los incidentes de seguridad siguen teniendo un origen humano. Un dato lo ilustra: mientras que el 88 % de las organizaciones gasta más de 1 millón de euros en cumplimiento y un 40 % llega a invertir hasta 10 millones, el 80 % de sus empleados aún ignora prácticas básicas de contraseñas. El riesgo es doble. Por un lado, el formal, con sanciones que pueden alcanzar los 20 millones de euros o el 4 % de la facturación anual mundial. Por otro, el informal, que suele ser más dañino: pérdida de confianza, caída en la

Huawei presenta OceanDisk: los primeros SSD para una nueva era de la IA con hasta 245 TB de capacidad

Huawei ha dado un paso estratégico en la carrera mundial por el almacenamiento para inteligencia artificial con el lanzamiento de sus SSD Huawei OceanDisk, diseñados específicamente para entrenar e inferir modelos de gran escala. La compañía china busca así aliviar la llamada “pared de VRAM” que limita el crecimiento de la IA, especialmente en un contexto marcado por la escasez de GPUs de NVIDIA debido a las restricciones comerciales de Estados Unidos. Tres modelos para distintas necesidades de IA Huawei presentó tres variantes dentro de la familia OceanDisk 560, cada una orientada a un escenario distinto: DiskBooster: la apuesta por la memoria virtual Huawei también presentó DiskBooster, una tecnología de memoria virtual en “pool” que combina diferentes tipos de memoria

Europa activa el “botón rojo” de la IA: comienza la era de las sanciones mientras los españoles desconfían del control institucional

A partir del 2 de agosto de 2025, entra en vigor el régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA). Pese al hito regulatorio, la mayoría de la población sigue percibiendo una falta de control y transparencia en el uso de estas tecnologías. La Unión Europea inicia una nueva etapa en la gobernanza tecnológica con la entrada en vigor del régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA), un marco normativo pionero a nivel mundial. Desde el 2 de agosto, el incumplimiento de las normas establecidas por el RIA puede acarrear multas de hasta 35 millones de euros o el 7 % de la facturación global anual de la empresa infractora. El objetivo es claro: garantizar un uso seguro,

×