
Samsung y TSMC se disputan el nuevo mapa de chips de inferencia de Nvidia
La carrera por la inteligencia artificial ya no se juega solo en el entrenamiento de grandes modelos. La inferencia —la fase en la que esos modelos responden, razonan, ejecutan tareas y alimentan agentes de IA— se ha convertido en el nuevo frente estratégico para fabricantes de chips, fundiciones y proveedores de memoria. En ese tablero, Samsung intenta aprovechar una oportunidad poco habitual: volver a ganar peso en la cadena de suministro de Nvidia. El detonante es la tecnología LPU de Groq, especializada en inferencia de baja latencia. Aunque algunos análisis del sector hablan de una adquisición encubierta o estratégica, el acuerdo anunciado oficialmente por Groq se presentó como una licencia no exclusiva de su tecnología de inferencia para Nvidia, acompañada




