A100, H100 y H200: la guerra silenciosa de las GPUs que sostienen la IA (y por qué “más rápida” no siempre significa “mejor”)
La conversación pública sobre Inteligencia Artificial suele quedarse en lo visible: modelos que escriben, crean imágenes o programan. Pero debajo, en la sala de máquinas, la discusión real es otra: qué GPU se compra, se alquila o se despliega para que todo eso funcione sin que los costes se disparen, sin que la latencia se vuelva insoportable y sin que el rendimiento quede “capado” por un cuello de botella inesperado. En esa liga, tres nombres se repiten en prácticamente cualquier proyecto serio: NVIDIA A100, NVIDIA H100 y NVIDIA H200. A simple vista, parecen una escalera lógica de potencia. En la práctica, la elección es más incómoda: no siempre gana la GPU “más nueva”, porque lo que manda no es el