Microsoft presenta Maia 200: el acelerador de inferencia con el que quiere abaratar la “economía del token”
Microsoft ha desvelado Maia 200, su nuevo acelerador de inferencia (generación de tokens) diseñado para mejorar de forma notable el coste y la eficiencia de ejecutar modelos de IA a gran escala en centros de datos. La compañía lo enmarca como una pieza central de su infraestructura heterogénea para servir múltiples modelos —incluyendo los GPT-5.2 de OpenAI— dentro de Microsoft Foundry y Microsoft 365 Copilot. El anuncio llega en un momento en el que la industria está dejando de medir el liderazgo solo por “FLOPS brutos” y empieza a priorizar la relación rendimiento/€, la capacidad de memoria, la eficiencia energética y el movimiento de datos. En ese tablero, Microsoft busca dos ventajas: reducir el coste de inferencia (donde se dispara