Datavault AI e IBM llevan la Inteligencia Artificial al “micro edge” en Nueva York y Filadelfia con la plataforma SanQtum AI

La promesa de la Inteligencia Artificial (IA) empresarial suele chocar con una realidad incómoda: cuanto más cerca está el dato del lugar donde se genera, más difícil es procesarlo con baja latencia y con garantías de seguridad. En ese contexto, Datavault AI Inc. (Nasdaq: DVLT) ha anunciado una ampliación de su colaboración con IBM para desplegar capacidades de IA en el borde de la red (edge) en Nueva York y Filadelfia, apoyándose en SanQtum AI, una plataforma operada por Available Infrastructure basada en una flota de micro centros de datos edge sincronizados.

El objetivo declarado es ambicioso: habilitar almacenamiento y cómputo ciberseguros, puntuación de datos en tiempo real, tokenización y procesamiento ultrabaja latencia en dos áreas metropolitanas que las compañías describen como especialmente densas en generación de datos. La infraestructura ejecutará el portfolio de productos de IBM watsonx dentro de una red zero trust, en una propuesta que busca reducir la dependencia de canalizaciones centralizadas en la nube pública para determinados casos de uso sensibles.

Del “cloud-first” al “edge-first” en cargas críticas

En los últimos años, la mayoría de organizaciones ha llevado sus pipelines de datos y analítica hacia arquitecturas centralizadas, normalmente en nube pública. Sin embargo, esa fórmula no siempre encaja cuando hay requisitos estrictos de latencia, soberanía del dato, confidencialidad o integridad. El enfoque anunciado por Datavault AI se sitúa justo ahí: procesar y “poner en valor” el dato en el momento en que nace, evitando trasladarlo primero a una plataforma externa.

Según el comunicado, Datavault AI desplegará sus agentes Information Data Exchange (IDE) y DataScore, construidos con watsonx, dentro del entorno zero trust de SanQtum AI. La idea es que el dato se procese, se puntúe y se tokenice en el edge, de forma que pase de “entrada cruda” a propiedad digital autenticada casi de manera instantánea. La compañía sostiene que este mecanismo abre la puerta a modelos de comercio de datos de alta seguridad y a escenarios donde la trazabilidad y la resistencia a manipulaciones son un requisito, no un extra.

Tokenización y “propiedad digital” en tiempo real

La palabra “tokenización” se ha usado con demasiada ligereza en la industria, pero aquí se presenta con un sentido práctico: representar datos como activos digitales autenticados, listos para ser verificados, valorados y compartidos bajo reglas de acceso y control definidas. El anuncio subraya cuatro metas concretas del despliegue:

  • Reducir la dependencia de pipelines centralizados en la nube.
  • Eliminar el retraso entre la creación del dato y su monetización o explotación.
  • Evitar manipulaciones manteniendo el dato dentro de una red local zero trust.
  • Permitir que las empresas traten el dato como propiedad digital negociable en tiempo real.

En la narrativa corporativa, ese “instantáneo” no es un matiz: es el núcleo. Nathaniel Bradley, CEO de Datavault AI, vincula la propuesta a un cambio de economía del dato, al combinar la “inteligencia” de watsonx con la “velocidad” de SanQtum AI. Por su parte, Available Infrastructure defiende que su plataforma unifica rapidez, resiliencia y protección en un único bloque tecnológico.

¿Qué aporta IBM watsonx en esta ecuación?

IBM aparece como la capa de IA empresarial: modelos, herramientas y productos watsonx que se ejecutan sobre esta infraestructura distribuida. El comunicado incluye además una lectura estratégica: el despliegue se enmarca en el “enfoque de ecosistema” de IBM para llevar IA escalable a empresas con necesidades complejas.

En paralelo, IBM ya había anunciado que Datavault AI utiliza watsonx.ai para construir agentes como DataScore, un componente orientado a puntuar calidad y riesgo del dato, con referencias a cumplimiento de marcos regulatorios (como GDPR o CCPA) en materiales previos de la propia IBM. Ese tipo de capacidades encajan con el mensaje central del proyecto: no se trata solo de inferir, sino de convertir datos en activos con contexto, controles y verificabilidad.

Micro edge data centers: una tendencia que se acelera

SanQtum AI se define como una plataforma de IA cibersegura basada en instancias desplegadas en centros de datos distribuidos de ultrabaja latencia en torno a grandes áreas urbanas. Available Infrastructure afirma que su entorno incorpora un modelo de malla privada zero trust y cifrado resistente a ataques cuánticos, elementos que apuntan a un posicionamiento claro: cargas sensibles, infraestructuras críticas y datos que no quieren “salir” a entornos abiertos.

En la práctica, esta aproximación responde a una presión creciente: la IA en producción exige proximidad al dato, sobre todo cuando hablamos de scoring en tiempo real, analítica de medios, verificación de identidad, credenciales o automatización de procesos que no toleran retardos.

Calendario: del 1.º trimestre al despliegue completo

El comunicado sitúa la capacidad de operar a escala en Nueva York y Filadelfia en el 1.º trimestre de 2026, con planes de expansión a otras áreas metropolitanas. No obstante, Datavault AI también ha difundido otros anuncios corporativos en esa misma ventana temporal en los que habla de hitos posteriores de finalización del despliegue en el 2.º trimestre de 2026, dentro de una estrategia de ampliación más amplia. En cualquier caso, el mensaje es consistente: consolidar un corredor urbano de IA en el edge y replicarlo en nuevas ciudades.

Una apuesta por el edge “de verdad”, no por el edge de marketing

La industria lleva años hablando del edge, pero muchas iniciativas se han quedado en pruebas piloto o en arquitecturas híbridas a medio camino. La diferencia aquí está en el encaje de tres piezas: micro centros de datos (para latencia), zero trust (para seguridad) y watsonx (para IA empresarial), con una propuesta aplicada a monetización y verificación del dato.

Si logra aterrizarse con éxito, el proyecto podría convertirse en un ejemplo práctico de cómo algunas compañías están replanteando el mapa de la IA: menos dependencia de macro regiones cloud, más cómputo cerca del dato, y más control sobre cómo se autentica, valora y explota la información en tiempo real.


Preguntas frecuentes (FAQ)

¿Qué significa desplegar Inteligencia Artificial “en el edge” con ultrabaja latencia?
Implica ejecutar modelos y servicios de IA cerca de donde se generan los datos (por ejemplo, en micro centros de datos urbanos), reduciendo retardos y mejorando tiempos de respuesta en casos de uso en tiempo real.

¿Qué es una red zero trust y por qué es relevante en IA empresarial?
Zero trust es un enfoque de seguridad que no da confianza implícita a ningún usuario, dispositivo o segmento de red. En IA, cobra importancia cuando los datos son sensibles y se quiere minimizar exposición, movimientos laterales y riesgo de manipulación.

¿En qué consiste la tokenización de datos empresariales que plantea Datavault AI?
Según la compañía, busca transformar datos en propiedad digital autenticada en tiempo real, facilitando verificación, valoración y control de acceso sin depender de pipelines centralizados que añadan latencia.

¿Puede este enfoque sustituir a la nube pública en proyectos de IA?
No necesariamente. Está orientado a cargas donde la latencia y la seguridad mandan. En muchos entornos, convivirá con la nube pública en un modelo híbrido: edge para tiempo real y datos sensibles, nube para escalado y analítica menos crítica.

vía: newsroom.ibm

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×