Neurophos y su “OPU” fotónica: la promesa de romper el muro energético de la IA

Una nueva startup estadounidense quiere colocar la fotónica —la computación con luz— en el centro del debate sobre el futuro del hardware para Inteligencia Artificial. Neurophos, con sede en Austin (Texas), ha anunciado una ronda Serie A de 110 millones de dólares (118 millones contando financiación previa) para acelerar el desarrollo de sus Optical Processing Units (OPU), una familia de aceleradores orientados a inferencia de IA que, según la compañía, aspiran a ofrecer saltos de rendimiento y eficiencia imposibles de sostener con silicio convencional.

La tesis que sostiene la apuesta es clara: la industria se está topando con límites físicos y operativos. El “muro de potencia” ya no es una metáfora; es un freno real en centros de datos, tanto por disponibilidad eléctrica como por refrigeración y coste total. En ese contexto, no sorprende que gigantes y startups exploren rutas alternativas, desde silicon photonics para interconexión hasta nuevos paradigmas de cómputo. Reuters, por ejemplo, viene siguiendo cómo la fotónica gana peso en redes y empaquetado avanzado para infraestructuras de IA, precisamente por su potencial de eficiencia en el movimiento de datos.

Qué es una OPU y por qué importa en IA

A diferencia de una GPU tradicional, donde cada operación implica conmutación eléctrica, una OPU busca ejecutar operaciones críticas para IA (sobre todo multiplicaciones de matrices) aprovechando propiedades físicas de la luz. En términos prácticos, Neurophos afirma que su arquitectura integra más de un millón de elementos de procesamiento óptico en un solo chip y que su avance clave reside en moduladores ópticos micrométricos basados en metamateriales, con una miniaturización que permitiría escalar matrices fotónicas a densidades viables para producto.

La promesa es atractiva por un motivo operativo: en muchos enfoques fotónicos, el “cálculo” puede ser relativamente barato energéticamente una vez la señal está en el dominio óptico. El coste duro se desplaza a la conversión electro-óptica y de vuelta, además de la integración con memoria y control digital. Ese reparto de costes es precisamente lo que determina si la fotónica se queda en laboratorio o salta al rack.

Las cifras que Neurophos pone sobre la mesa

En su documentación pública, Neurophos presenta configuraciones Tulkas con dos niveles: el módulo OPU y el sistema servidor. En concreto, la compañía publica especificaciones para T100 OPU y T100 Server, orientadas a operaciones densas en baja precisión (FP4/INT4) y una capa adicional para FP16/INT16.

Tulkas T100 OPU (módulo):

  • 0,47 EXAOPS en MAC/GEMM densas FP4/INT4
  • 235 TOPS/W (eficiencia declarada)
  • 2 kW pico / 1 kW promedio
  • 768 GB HBM con 20 TB/s de ancho de banda
  • 200 MB de caché L2
  • Soporte software citado: Triton y JAX

Tulkas T100 Server (sistema):

  • 2 EXAOPS en MAC/GEMM densas FP4/INT4
  • 10 kW pico / 5 kW promedio
  • 3,07 TB HBM con 80 TB/s
  • 800 MB de caché L2
  • Software citado: Triton y JAX

Algunas publicaciones tecnológicas han amplificado el impacto de estas cifras con lecturas más agresivas —incluyendo referencias a un supuesto “Tulkas T110” y velocidades internas de decenas de GHz—, aunque esa nomenclatura no es la que aparece de forma principal en los materiales corporativos consultados.

El matiz clave: EXAOPS no es lo mismo que “petaFLOPS”

Aquí conviene separar marketing de ingeniería. Cuando se habla de EXAOPS (exa-operaciones por segundo) en FP4/INT4, se está midiendo un tipo de operación muy concreto (habitualmente MAC/GEMM) y en precisiones extremadamente bajas, que hoy son relevantes para inferencia y ciertas técnicas de cuantización. No es directamente comparable con FLOPS clásicos (FP32/FP64) ni con resultados de benchmarks independientes. Dicho de otro modo: las magnitudes son enormes, pero el valor real depende de qué cargas, qué precisión efectiva, qué latencias, qué memoria y qué herramientas estén disponibles para que un cliente lo use sin reescribir su stack.

Neurophos sostiene, además, que su objetivo es un reemplazo “drop-in” en centros de datos, y que su tecnología podría ofrecer “hasta 100×” en rendimiento y eficiencia frente a chips líderes actuales. Es una afirmación de alto voltaje que, por ahora, queda en el terreno de la declaración corporativa y deberá validarse con comparativas reproducibles.

El elemento geopolítico y de industria: no es solo “más rendimiento”

Hay dos capas adicionales que explican por qué el anuncio ha generado tracción:

  1. Dinámica de capital y alianzas: la ronda está liderada por Gates Frontier, con participación de M12 (fondo de Microsoft), además de firmas vinculadas a energía y sostenibilidad. Es una señal de que el problema “computación-por-vatio” ya se percibe como cuello de botella estratégico, no como optimización marginal.
  2. El ecosistema se mueve hacia fotónica: incluso cuando la fotónica se usa primero para interconectar (no para computar), el vector es el mismo: mover más datos con menos energía y menos calor. Y ese debate está íntimamente ligado a empaquetado avanzado y arquitectura a nivel de sistema.

La pregunta decisiva: ¿laboratorio o plataforma?

Para que una OPU sea un producto de infraestructura, hay tres pruebas de fuego:

  • Software y adopción real: prometer Triton/JAX es un buen titular, pero el mercado exige compatibilidad práctica con flujos de PyTorch, TensorRT-like, kernels optimizados, observabilidad y tooling de producción.
  • Fiabilidad y control: la fotónica y el cómputo analógico (o “físico”) suelen requerir calibración, compensación de variaciones y gestión de ruido. La ingeniería del “día 2” (operación) pesa tanto como el rendimiento.
  • Integración con memoria y red: el rendimiento de inferencia rara vez es solo cómputo; es movimiento de datos. Las cifras de HBM y TB/s son, por tanto, tan importantes como la métrica de operaciones.

Neurophos afirma estar acelerando hacia hardware para desarrolladores y despliegues tempranos. Si el proyecto cristaliza, no sería extraño que el futuro inmediato se parezca más a un “mix” (GPU + aceleradores especializados + fotónica) que a una sustitución instantánea de un actor dominante.


Preguntas frecuentes

¿Qué es una OPU (Optical Processing Unit) y en qué se diferencia de una GPU?
Una OPU busca ejecutar operaciones clave (como multiplicaciones de matrices) usando luz en circuitos fotónicos integrados, mientras que una GPU las ejecuta mediante conmutación eléctrica en transistores. La diferencia práctica suele estar en eficiencia energética potencial y en cómo se gestionan memoria, conversión de señales y control.

¿Por qué FP4 e INT4 son tan importantes en la inferencia de IA?
Porque muchas cargas de inferencia toleran baja precisión gracias a técnicas de cuantización. Reducir precisión aumenta el rendimiento efectivo y reduce consumo, siempre que el modelo mantenga calidad y el sistema tenga memoria y ancho de banda suficientes.

¿Una OPU serviría para entrenar modelos, o está pensada solo para inferencia?
Por lo que Neurophos comunica, su foco principal es inferencia y operaciones densas (MAC/GEMM) en precisiones bajas. El entrenamiento exige otros equilibrios (precisión, estabilidad numérica, comunicaciones, escalado), por lo que no se puede asumir automáticamente.

¿Qué obstáculos suelen frenar a la computación fotónica para IA?
Integración con el stack software, conversión electro-óptica (coste/latencia), calibración y control del sistema, fiabilidad operativa, y validación independiente con workloads reales.

Vía: Neurophos whitepaper

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×