
OpenAI mira a Cerebras para reforzar su músculo de inferencia y reducir su dependencia de otros proveedores
OpenAI podría estar preparando uno de los movimientos de infraestructura más ambiciosos vistos hasta ahora en la carrera por la Inteligencia Artificial. Según una información publicada por The Information y recogida posteriormente por otros medios financieros, la compañía habría acordado destinar más de 20.000 millones de dólares en tres años a servidores basados en chips de Cerebras, en una operación que además incluiría warrants o participación accionarial y apoyo adicional para centros de datos adaptados a este hardware. Ni OpenAI ni Cerebras han confirmado públicamente esos detalles por ahora. Lo que sí está confirmado es que ambas empresas ya anunciaron en enero una alianza plurianual para desplegar 750 MW de cómputo de inferencia de muy baja latencia con sistemas wafer-scale
