Mientras muchos gigantes tecnológicos siguen obsesionados con entrenar modelos cada vez más grandes, hay una nueva carrera silenciosa pero igual de estratégica: la de ejecutar esos modelos de forma rápida, eficiente y sostenible. En ese terreno, la startup estadounidense Groq está ganando terreno. Esta semana, ha inaugurado su primer centro de datos en Europa, ubicado en Helsinki (Finlandia), en colaboración con Equinix. Y lo ha hecho con una propuesta clara: dominar el mercado de la inferencia de IA, donde realmente se produce el contacto con el usuario.
Entrenar es caro, usar también
En el ciclo de vida de la inteligencia artificial generativa existen dos etapas: el entrenamiento —cuando se enseña al modelo a predecir palabras, imágenes o tokens— y la inferencia —cuando responde a una petición del usuario, como un prompt en ChatGPT o una instrucción en Copilot—. Hasta ahora, NVIDIA ha reinado con sus potentes GPUs, imprescindibles para el entrenamiento. Pero la inferencia necesita otro tipo de músculo: rapidez, estabilidad, baja latencia y eficiencia energética.
Es ahí donde entra en juego Groq con sus LPUs (Language Processing Units), chips diseñados desde cero para responder en tiempo récord sin necesidad de un despliegue de hardware masivo. Su propuesta no es competir en el laboratorio, sino hacerlo en el día a día de millones de usuarios. Y Europa es su siguiente gran escenario.
Inferencia en el norte
¿Por qué Finlandia? Porque ofrece energía limpia, clima favorable para refrigeración y, sobre todo, una posición estratégica para dar servicio a empresas y administraciones de toda Europa que necesitan velocidad y cumplimiento normativo. En palabras de la propia compañía, el centro de datos de Helsinki estará operativo con «latencia ultra baja, eficiencia energética y cumplimiento de soberanía digital», todo ello desde una infraestructura ya existente, sin necesidad de levantar un nuevo campus desde cero.
Según Groq, su despliegue en Helsinki se realizó en cuestión de semanas y con capacidad para escalar rápidamente. “Hemos construido una red global que ya procesa más de 20 millones de tokens por segundo y esta expansión nos permite acercarnos a clientes europeos sin comprometer la velocidad”, aseguró en un comunicado oficial.
Una nueva fase de la IA
Este movimiento de Groq no es aislado. McKinsey estima que el mercado del hardware para inferencia será dos veces más grande que el del entrenamiento en centros de datos en los próximos años. Barclays va más allá y augura que en solo dos años los grandes jugadores del sector gastarán más en chips de inferencia que en entrenamiento. ¿La consecuencia? NVIDIA podría ver cómo se le escapan hasta 200.000 millones de dólares de cuota de mercado.
Groq, por su parte, no quiere competir construyendo los modelos más grandes. Su apuesta es que, cuando la inteligencia artificial se integre en todos los dispositivos y procesos, lo importante será que funcione al instante y con un coste energético asumible. Y ahí, su chip LPU —basado en procesamiento determinista y sin necesidad de HBM— tiene una ventaja diferencial.
El dato que lo cambia todo
En un momento donde las empresas empiezan a preguntarse no solo “qué puede hacer la IA”, sino “cuánto me cuesta usarla a escala”, Groq se posiciona como la alternativa realista a un modelo cada vez más voraz en consumo energético y computacional.
Además, al no depender de GPUs tradicionales, puede sortear cuellos de botella en la cadena de suministro, reducir costes y desplegar en regiones con normativas estrictas, como la Unión Europea. Y eso convierte a su llegada a Europa en algo más que una simple expansión: es una declaración de intenciones.
¿David contra Goliat?
Puede que Groq aún no tenga el reconocimiento de NVIDIA, pero ya se perfila como un actor disruptivo en el terreno de la IA práctica. Su estrategia es clara: no reemplazar todo, sino especializarse en lo que está por venir. Y si el uso cotidiano de la inteligencia artificial crece al ritmo esperado, no es descabellado pensar que dentro de unos años, cuando alguien pida una respuesta instantánea a un modelo de IA, esa respuesta no venga de una GPU de NVIDIA… sino de una LPU de Groq.