Sabi acaba de salir del modo sigiloso con una promesa que, sobre el papel, suena a ciencia ficción: convertir habla interna en texto sin cirugía, sin micrófono y sin teclado. La startup de Palo Alto quiere hacerlo con un wearable no invasivo en forma de gorro o gorra, basado en EEG de altísima densidad, custom ASICs y un modelo fundacional entrenado con datos neuronales. La idea no es menor: si funciona, el ordenador dejaría de depender solo del clic, la voz o el tacto y sumaría una nueva capa de entrada, directamente ligada al pensamiento verbal.
Lo que hace interesante a Sabi no es solo el titular, sino el contraste con el resto del mercado BCI. Mientras Neuralink, Synchron, Precision Neuroscience y Paradromics avanzan sobre todo con interfaces implantables o mínimamente invasivas para personas con parálisis o graves limitaciones motoras, Sabi quiere jugar en otro terreno: el de una interfaz potencialmente masiva, cotidiana y ponible, más cercana a unos auriculares o a una gorra que a un quirófano. Esa ambición cambia por completo la conversación sobre escalabilidad.
La apuesta de Sabi: menos precisión por sensor, más densidad y más IA
Según Wired, Sabi afirma que su gorro integrará entre 70.000 y 100.000 sensores miniaturizados, una cifra muy superior a la de la mayoría de EEG convencionales, que suelen moverse entre una docena y unos pocos cientos de sensores. El objetivo inicial de la compañía es alcanzar unas 30 palabras por minuto, apoyándose en un “brain foundation model” entrenado con 100.000 horas de datos cerebrales recogidos de 100 voluntarios. En su propia web, la empresa habla de sensores de neuroimagen impulsados por ASICs personalizados y de un modelo fundacional diseñado para mapear señales cerebrales a pensamientos.
La tesis técnica tiene lógica. El gran problema del EEG no invasivo es que la señal llega atenuada y difuminada al atravesar cuero cabelludo y cráneo. La literatura reciente sigue describiendo esa pérdida de señal, la baja relación señal-ruido y la elevada variabilidad entre usuarios como algunos de los principales cuellos de botella para las BCI no invasivas y, en especial, para la decodificación de habla imaginada. En otras palabras: el reto no es solo “leer” el cerebro, sino hacerlo con suficiente resolución, repetibilidad y robustez como para que una persona pueda usar el sistema de forma natural.
Ahí es donde Sabi intenta desmarcarse. En lugar de competir con Neuralink en señal pura, busca compensar la debilidad de un wearable externo con más densidad de captura y con una capa de IA entrenada a gran escala. Es una estrategia muy distinta a la del implante intracortical clásico: menos fidelidad por canal, pero más superficie, más datos y, en teoría, una fricción de adopción muchísimo menor. Eso explica también por qué Vinod Khosla, inversor de la compañía, plantea que una BCI pensada para miles de millones de personas no puede depender de cirugía.
Cómo queda el mapa BCI en 2026
No todas las compañías del sector compiten exactamente por el mismo caso de uso, pero juntas dibujan bastante bien el estado real del mercado BCI en 2026:
| Empresa | Tipo de interfaz | Invasividad | Enfoque principal | Estado actual | Fuente |
|---|---|---|---|---|---|
| Sabi | EEG wearable en gorro/gorra | No invasiva | Habla interna a texto; entrada cotidiana al ordenador | Salida de stealth en abril de 2026; primer producto prometido para finales de 2026; objetivo inicial de ~30 palabras por minuto | |
| Neuralink | N1 Implant intracortical | Invasiva | Control de ordenador y restauración del habla en pacientes con parálisis o pérdida severa del habla | Ensayos clínicos abiertos; implante con 1.024 electrodos en 64 hilos y colocación mediante robot quirúrgico | |
| Synchron | Stentrode endovascular | Mínimamente invasiva | Control digital para personas con pérdida motora sin cirugía abierta de cráneo | Plataforma clínica en marcha; la interfaz se implanta desde vasos sanguíneos y evita cirugía cerebral abierta | |
| Precision Neuroscience | Layer 7 cortical surface array | Implantable, pero reversible y menos agresiva que un intracortical profundo | Captura de alta resolución sobre la superficie cortical para futuras BCI clínicas | Dispositivo en investigación; arrays de 1.024 electrodos y arquitectura modular de miles de canales | |
| Paradromics | Connexus BCI implantable | Invasiva | Restauración del habla y control de ordenador en pacientes con deterioro motor severo | Aprobación IDE de la FDA desde noviembre de 2025 para estudio de viabilidad temprana en humanos | |
| Neurable | EEG en auriculares MW75 Neuro | No invasiva | Monitorización de foco, fatiga y estado cognitivo, no pensamiento a texto | Producto comercial con 12 canales EEG y sensores textiles; orientado a productividad y bienestar |
La tabla deja clara una idea: hoy el mercado está partido en dos. Por un lado están las BCI clínicas, que persiguen el mayor ancho de banda posible a costa de entrar en el cuerpo. Por otro, los wearables no invasivos, que son mucho más escalables pero suelen moverse todavía en funciones modestas como medir foco, fatiga o intención motora simple. Sabi intenta ocupar un espacio intermedio muy ambicioso: no entrar en el cráneo, pero sí aspirar a una función de alto valor, como escribir solo pensando.
Lo que de verdad separa a Sabi de Neuralink
La comparación con Neuralink es inevitable, pero no conviene simplificarla demasiado. Neuralink sigue orientada primero a casos clínicos de alta necesidad. Su N1 está pensado para registrar actividad neuronal con mucha mayor fidelidad y traducirla en control de dispositivos para personas con tetraplejia o con pérdida grave de la capacidad de hablar. Esa aproximación tiene una ventaja clara: la señal intracortical es mucho más rica y directa que la que puede recoger un gorro EEG desde fuera.
Sabi, en cambio, no parte del hospital, sino del wearable. Ese matiz es enorme. Si Neuralink representa la vía “máxima señal, máxima complejidad clínica”, Sabi representa la vía “menor fidelidad por sensor, pero mayor aceptabilidad social y potencial de consumo”. El propio reportaje de Wired lo plantea así: si se busca una interfaz cotidiana para el ordenador, el reto no es solo leer bien el cerebro, sino conseguir que el dispositivo se use sin fricción, sin calibraciones eternas y sin convertir al usuario en paciente.
La gran incógnita: pasar de la demo al producto real
Ese salto sigue siendo el gran examen. Sabi ha salido al mercado con cifras muy llamativas, pero todavía no ha mostrado en público una validación independiente al nivel que exigiría una revolución de la informática personal. La historia de las BCI está llena de prototipos impresionantes que luego chocan con la realidad: ruido, fatiga del usuario, calibración, latencia, coste, privacidad y, sobre todo, dificultad para repetir resultados fuera de entornos muy controlados. La investigación reciente sobre habla imaginada con EEG sigue insistiendo en que el campo avanza, pero también en que la generalización robusta entre sujetos continúa siendo uno de los grandes problemas abiertos.
Aun así, sería un error infravalorar el movimiento. Aunque Sabi no acabe siendo “el Neuralink no invasivo” que muchos titulares ya sugieren, sí ha colocado una idea poderosa sobre la mesa: la próxima gran interfaz no tiene por qué parecerse a un smartphone, ni a un implante médico, ni a un teclado. Puede parecerse a una prenda. Y si logra traducir pensamiento verbal con una utilidad razonable, el impacto no se limitaría al mercado clínico. Afectaría a productividad, accesibilidad, agentes de IA y, en última instancia, a la propia definición de qué significa “usar” un ordenador.
Preguntas frecuentes
¿Sabi compite directamente con Neuralink?
No del todo. Neuralink está centrada en implantes clínicos para personas con parálisis o pérdida severa del habla, mientras que Sabi quiere una BCI no invasiva y potencialmente mucho más masiva para interactuar con ordenadores mediante habla interna convertida en texto.
¿Qué hace técnicamente distinta a Sabi frente a otros EEG?
Su apuesta declarada es combinar entre 70.000 y 100.000 sensores miniaturizados con ASICs personalizados y un modelo fundacional entrenado con 100.000 horas de datos neuronales. La mayoría de EEG convencionales operan con una docena o unos pocos cientos de sensores.
¿Existe ya alguna BCI no invasiva de uso comercial?
Sí, pero con objetivos mucho más modestos. Neurable vende auriculares con 12 canales EEG para medir foco y fatiga, y Emotiv comercializa headsets EEG de 14 canales orientados a investigación y desarrollo. Ninguna de esas soluciones se presenta hoy como un sistema generalista de pensamiento a texto comparable a lo que promete Sabi.
¿Cuál es hoy el mayor obstáculo para una BCI no invasiva de habla interna?
La señal EEG llega atenuada y con mucho ruido al medir desde fuera del cráneo, y además existe una fuerte variabilidad entre usuarios y sesiones. Por eso la decodificación robusta de habla imaginada sigue siendo uno de los retos técnicos más difíciles del sector.