Desde la nube hasta el borde, nuevas soluciones buscan blindar los sistemas de IA frente a filtraciones, alucinaciones y fraudes digitales
En un contexto donde las tecnologías basadas en inteligencia artificial avanzan con velocidad vertiginosa, una amenaza silenciosa se ha colado en las organizaciones: la Shadow AI. Este fenómeno describe el uso no autorizado o no supervisado de modelos públicos de lenguaje, como ChatGPT o Claude, por parte de empleados que buscan aumentar su productividad sin respaldo del área de TI. El problema: buenas intenciones, pero altos riesgos de seguridad, privacidad y cumplimiento normativo.
Frente a este nuevo desafío, un grupo de startups emergentes del programa Intel® Liftoff está desarrollando soluciones avanzadas para garantizar la seguridad y la gobernanza de la IA, desde el procesamiento en la nube hasta los dispositivos más periféricos. Estas empresas demuestran que es posible construir una IA confiable, escalable y segura, incluso en un entorno plagado de malas prácticas.
IA generativa sin alucinaciones ni fugas
Los modelos de lenguaje de gran escala (LLM) tienen un poder transformador, pero también son impredecibles. Pueden generar respuestas falsas (alucinaciones), ser manipulados con “prompt injection” o almacenar datos sensibles de manera no segura.
Para abordar estos problemas, Prediction Guard, miembro del programa Intel Liftoff Catalyst Track, ha desarrollado una plataforma que filtra tanto entradas maliciosas como salidas peligrosas en un entorno privado, usando infraestructura basada en Intel® Tiber AI Cloud y aceleradores Intel® Gaudi® 2. Esto permite ofrecer IA segura en contextos críticos como salud o finanzas.
Por su parte, Raidu ha ido un paso más allá con una plataforma de gobernanza integral que incluye enmascaramiento de datos, gestión de riesgos, control de accesos y trazabilidad, cumpliendo con normativas como SOC 2, GDPR y HIPAA.
Mientras tanto, Co-mind ha construido una alternativa corporativa para entornos donde el personal sube documentos confidenciales a LLM públicos. Su plataforma ofrece capacidades generativas similares, pero dentro de una infraestructura privada controlada por la empresa.
IA confidencial y cifrada desde el hardware
La computación confidencial se perfila como uno de los pilares de la IA segura. Esta técnica protege los datos mientras están siendo procesados, alojándolos dentro de enclaves seguros que incluso el proveedor de nube no puede ver.
En este terreno destaca Roseman Labs, que permite el análisis conjunto de datos entre organizaciones sin compartir los datos crudos, gracias a su sistema de cómputo multipartito cifrado. Con procesadores Intel® Xeon® de 6.ª generación, han conseguido multiplicar por cinco el rendimiento en operaciones complejas.
Otra apuesta fuerte es la de Tinfoil, que ofrece una plataforma de IA en la nube completamente verificable, con enclaves seguros y cifrado directo hacia el entorno donde se ejecuta el modelo. El uso de Intel® Trust Domain Extensions (TDX) garantiza la integridad del código y el aislamiento de los datos, incluso en entornos compartidos.
Identidad digital, biometría y defensa contra deepfakes
El auge de los fraudes digitales y los bots automatizados también ha impulsado nuevas formas de verificación.
Erasys ha creado Trustmark, una solución de identidad basada en biometría comportamental —como patrones de escritura o perfiles de dispositivo— que reemplaza los CAPTCHAs tradicionales. El resultado: una experiencia fluida para el usuario y una barrera más eficaz contra bots.
En paralelo, Neural Defend combate los deepfakes en tiempo real mediante IA multimodal, protegiendo a gobiernos y bancos de fraudes sintéticos. Su reciente ronda de financiación pre-semilla demuestra la confianza del mercado en su propuesta.
Por su parte, la canadiense Findora combina privacidad y confianza en un motor de búsqueda que clasifica los resultados por credibilidad y detecta contenidos manipulados, cumpliendo con normativas de privacidad como la canadiense PIPEDA.
IA segura también en el borde
A medida que la IA llega a dispositivos periféricos —drones, wearables, sensores IoT—, el reto es ofrecer seguridad y eficiencia energética.
La startup Falcons.AI ha desarrollado modelos de reconocimiento de imágenes comprimidos a solo 4 MB, inspirados en la arquitectura neuronal del cerebro humano. Estos modelos, entrenados con Intel Data Center GPUs, pueden funcionar durante meses con una sola batería.
En el entorno empresarial, MindFront ofrece SynthGrid, una plataforma que permite que agentes de IA trabajen con sistemas como Microsoft Graph, CRM o ERP, sin brechas de seguridad ni necesidad de migraciones complejas. La clave está en integrar autenticación, VPN y gestión de permisos de forma nativa.
Un nuevo estándar para la IA empresarial
La aparición de la Shadow AI no solo ha encendido las alarmas en el sector tecnológico, sino que ha acelerado la adopción de soluciones proactivas para asegurar la inteligencia artificial. Desde el filtrado de prompts hasta el cifrado extremo, desde la detección de deepfakes hasta la IA en el borde, el ecosistema Intel® Liftoff demuestra que es posible construir una IA robusta, ética y alineada con los objetivos del negocio.
Como dijo Eugenie Wirz, coautora del informe original: «La inteligencia artificial solo puede transformar los negocios si su base de seguridad es sólida.»
Y esa base empieza hoy, con tecnología diseñada para anticiparse a los riesgos… incluso los que se ocultan en las sombras.
vía: community.intel.com