Qualcomm presenta AI200 y AI250: aceleradores “rack-scale” para inferencia generativa con más memoria, menor TCO y un salto de ancho de banda efectivo
Qualcomm ha dado un golpe sobre la mesa en la carrera por la inferencia de IA en centros de datos. La compañía ha anunciado AI200 y AI250, dos soluciones de aceleración que se venden como tarjetas y racks completos y que prometen rendimiento a escala de rack, capacidad de memoria superior y un coste total de propiedad (TCO) líder del sector para desplegar modelos generativos (LLM y LMM) con eficiencia por euro/vatio sin renunciar a seguridad ni flexibilidad. El enfoque, más allá de la potencia bruta, se centra en lo que la industria demanda ahora mismo: servir modelos ya entrenados al menor coste, con alta utilización del hardware, latencias bajas y una pila de software pensada para operacionalizar IA. “Con