Slack abre su plataforma a la “IA con contexto”: nueva API de búsqueda en tiempo real y servidor MCP para que los agentes trabajen con tus conversaciones (sin romper la gobernanza)

Slack, el sistema de mensajería corporativa de Salesforce, quiere convertirse en la capa de trabajo donde vivan —y sean realmente útiles— los agentes de IA. La compañía ha presentado dos piezas técnicas con esa ambición: una API de búsqueda en tiempo real (RTS) y un servidor del Model Context Protocol (MCP). Juntas, prometen algo que hasta ahora resultaba escurridizo: que las aplicaciones de IA accedan, con permisos finos y sin copiar datos, al contexto que ya está en Slack —mensajes, canales, archivos— y lo usen para responder, decidir y actuar dentro del propio flujo de trabajo.

El movimiento no es menor. En la economía de los agentes, los datos conversacionales son el oro: reuniones, decisiones, acuerdos, dudas, “cosas por hacer”… casi todo nace o muere en un hilo. Pero ese corpus suele estar desestructurado y encerrado. Slack quiere abrirlo de forma controlada para que la IA deje de contestar “en general” y empiece a responder con precisión a “lo que dijo mi equipo ayer a las 11:03 en #ventas-emea”.

Además de las dos piezas estrella, la plataforma suma Slack Work Objects (un modo estándar de pintar datos de terceras apps dentro de la conversación) y nuevas herramientas para desarrolladores: buenas prácticas de IA, Block Kit Tables preconstruidas, un CLI actualizado para apps Bolt, y mejoras de ciclo de vida de desarrollo. Todo esto se apoya en una promesa clave: seguridad de grado empresarial y respeto total de permisos a nivel de usuario y canal.


Por qué ahora: demasiadas apps, poco uso y un 40 % de productividad que se pierde entre pestañas

Slack enmarca el anuncio en un diagnóstico conocido pero tozudo: fragmentación. Según sus datos, hay más de 200.000 compañías SaaS en el mundo y una gran empresa usa más de 1.000 aplicaciones. El resultado es saltos constantes entre herramientas, copiar y pegar, y cambio de contexto que, afirma, puede drenar la productividad hasta en un 40 %. Casi la mitad de las licencias SaaS terminan como shelfware.

La apuesta de Slack es traer la IA y los datos a la conversación —donde ya están los empleados—, no empujar a los empleados a otra pestaña. El discurso lo resume Denise Dresser, CEO de Slack: “El futuro del trabajo es agentic y el éxito de la IA depende de su integración fluida en los flujos humanos”. Si el 2 % del presupuesto de TI es Slack, el objetivo es que ese 2 % maximice el rendimiento del 98 % restante, dice la compañía.


RTS API: la conversación como base de conocimiento, sin “aspirar” datos

La Real-Time Search API es el conducto. Permite que una app o agente pregunte a Slack por mensajes, archivos y canales relevantes en el momento y según los permisos del usuario que invoca la acción. En vez de copiar datos a otro servicio o hacer bulk download, el agente pide lo justo (“tráeme los últimos cinco mensajes donde se habló de ‘Presupuesto Q4 Europa’ en canales a los que tengo acceso”), recibe solo lo necesario y actúa dentro de Slack.

La promesa de valor:

  • Contexto fresco: respuestas basadas en la conversación real más reciente, y no en un espejo desactualizado.
  • Menos alucinaciones: el agente ancla sus respuestas en mensajes/archivos reales, lo que reduce el “me lo invento porque suena bien”.
  • Gobernanza: la RTS respeta permisos y límites; no “abre” DMs o canales privados a quien no deba verlos.
slack nuevas opciones

Slack asegura que los clientes que explotan su conocimiento conversacional pueden ahorrar de media 97 minutos por semana y acelerar la toma de decisiones en un 37 %, además de responder un 36 % más rápido a clientes. Son cifras de la casa, pero sirven como brújula de la propuesta.


MCP server: un idioma común para que los LLM descubran contexto y ejecuten tareas

El Model Context Protocol (MCP) es la otra mitad. Piense en él como un bus entre LLMs, apps y Slack: un protocolo unificado que estandariza cómo un modelo descubre información contextual y ejecuta tareas en nombre del usuario, sin que el desarrollador tenga que integrar cada servicio a medida o describir todas las acciones posibles de antemano.

Con MCP, una app define qué datos puede exponer y qué acciones admite (“crea ticket”, “marca tarea como completada”, “adjunta este archivo”), y el LLM las descubre con un esquema consistente. Se acabó el zoco de webhooks y endpoints distintos por proveedor: una ruta única, respetando permisos.


Work Objects y herramientas de dev: datos de terceros que “se ven y se tocan” en el hilo

Los Slack Work Objects añaden una capa visual y de interacción. Un desarrollador puede conectar datos de su app —descripciones, imágenes, estado, documentos— a la conversación con avances enriquecidos. La idea es que el usuario vea la pieza de trabajo (el ticket de Asana, el caso de CRM, el plan de marketing) y actúe (p. ej., marcar como completado) sin salir de Slack.

Para el día a día del desarrollador, Slack estrena mesas (Block Kit Tables) listas para usar, guías de mejores prácticas de IA y un CLI de Bolt con recursos actualizados. Promesa: menos tiempo en infraestructura y más en experiencia final.


Quién se sube al carro: Anthropic, Google, Perplexity, Writer, Dropbox, Notion…

Slack asegura que grandes nombres ya están usando la RTS y/o MCP:

  • Claude (Anthropic): el asistente entra en Slack vía DM, panel o @mención. Con la RTS, busca en canales, mensajes y archivos (con permisos) y devuelve respuestas ancladas en el trabajo real del equipo.
  • Google Agentspace: plataforma para crear y gestionar agentes a escala. Con la RTS, inyecta contexto de Slack en Agentspace y viceversa: insights de Agentspace dentro de Slack.
  • Perplexity Enterprise: combina la web y las conversaciones del equipo para dar respuestas contextuales, ya sea desde Slack o desde Perplexity.
  • Dropbox Dash: usa la RTS para ofrecer acceso en tiempo real a contenido de Slack y Dropbox, respetando permisos.
  • Notion AI: permite preguntar por hilos o conversaciones perdidas; la RTS facilita buscar en canales públicos, privados y, con permisos, DMs, para que Notion “refleje” lo que pasa en Slack.

El resto del ecosistema —Writer, Cognition Labs, Vercel, Cursor— pisa la misma senda: traer inteligencia al flujo de trabajo sin romper seguridad ni copiar datos fuera.


Seguridad, cumplimiento y marketplace: lo que tranquiliza a TI

Slack insiste en su “enfoque de seguridad de grado empresarial”: permisos granulares, privacidad y controles para terceros. El mensaje implícito: no es necesario “sacar” la conversación para que la IA la entienda; la IA llega a la conversación bajo las mismas reglas que un usuario.

Todas estas apps viven en el Slack Marketplace, que actúa como ventanilla única de distribución y control. No se trata solo de conectar herramientas: el objetivo es un ecosistema unificado de colaboración humano-IA donde descubrir, aprobar y administrar agentes sea más fácil.


Disponibilidad y hoja de ruta

  • RTS API y MCP server: beta cerrada; disponibilidad general prevista para principios de 2026.
  • Slack Work Objects: GA para todos los desarrolladores a finales de octubre.
  • Herramientas de desarrollo agentic: disponibles ya.
  • Agentes de terceros que usan estas capacidades: ya en Slack Marketplace.

Slack advierte que esta información no debe usarse para decisiones de compra; tiempos y características pueden cambiar a discreción de Salesforce.


Qué significa para empresas y desarrolladores (más allá del “hype”)

Para las empresas, la promesa es doble: menos fricción (la IA “vive” donde trabaja la gente) y más confianza (permisos respetados, sin bulk exports). Si el bot necesita ver algo, lo pide; si no, no lo ve. La governance no es una hoja de cálculo aparte: es el mismo modelo de Slack.

Para los desarrolladores, la puerta de entrada deja de ser un conector genérico y pasa a ser un agente contextual. Con RTS + MCP, un LLM descubre lo que puede hacer y pide justo la pieza de contexto que necesita. El agente se vuelve más preciso, estable y confiable. Y, lo que es clave, distribuible: el marketplace resuelve una de las barreras habituales —que los empleados usen las apps— al llevarlas a donde ya están trabajando.

¿Dónde están las preguntas abiertas? Tres frentes:

  1. Costes: llamados en tiempo real a datos conversacionales no son gratis; habrá que equilibrar latencia, costo por consulta y valor.
  2. Privacidad: aunque se respeten permisos, las organizaciones querrán políticas explícitas para DMs y canales sensibles.
  3. Evitar ruido: un agente contextual puede resultar intrusivo si interviene demasiado. La experiencia (y el “mute”) será tan importante como la precisión.

Un ejemplo concreto: del “busca en el Drive” al “cierra el caso #8412”

Imagine un agente de atención al cliente que, en #incidencias-SaaS, recibe: “¿Qué acordamos con el cliente Daylight sobre el SLA de soporte premium?”. Con RTS, el agente busca hilos recientes donde se discutió “Daylight” y “SLA”, extrae el mensaje donde un gestor fijó “respuesta en 2 horas, 24/7”, y devuelve una respuesta citando el mensaje. Con MCP, el agente además abre un Work Object del caso en el CRM y permite marcar como resuelto sin salir del hilo. Si hay que escuchar permisos, los respeta: si el usuario no puede ver DMs donde se discutió el tema, no los ve el agente en su nombre.

Ese es el tipo de productividad real —y gobernabilidad— que la empresa quiere ver.


Conclusión: del bot “pegamento” al agente con contexto

Durante una década, Slack fue el pegamento entre herramientas. Con la RTS y el MCP, quiere convertirse en el tejido nervioso donde la IA no solo conecta, sino que entiende el contexto y actúa con permisos. Si la promesa se cumple —y las fechas acompañan—, 2026 podría ser el año en que la conversación deje de ser caja negra para la IA y pase a ser el combustible que la hace realmente útil.

Hasta entonces, beta cerrada y un ecosistema (Anthropic, Google, Perplexity, Writer, Dropbox, Notion…) que ya enseña los primeros usos. El reto no es menor, pero el camino está trazado: IA con contexto, en el lugar donde ya trabajas.


Preguntas frecuentes

¿Qué es la RTS API de Slack y en qué se diferencia de una exportación de datos?
La RTS permite a una app o agente consultar mensajes, archivos y canales en tiempo real, solo lo relevante para una acción y respetando permisos. No implica descargar o replicar masivamente conversaciones fuera de Slack, lo que reduce riesgo y simplifica cumplimiento.

¿Para qué sirve el Model Context Protocol (MCP) en Slack?
El MCP es un protocolo unificado para que LLMs y apps descubran contexto y ejecuten tareas en Slack sin integraciones ad hoc. Estandariza cómo el modelo accede a datos y acciones bajo los permisos del usuario.

¿Cómo protege Slack la privacidad si los agentes pueden leer conversaciones?
Las llamadas de la RTS honran los permisos existentes (canales públicos/privados, DMs) y devuelven solo los fragmentos relevantes a la consulta. No hay descargas masivas ni duplicación de datos fuera de Slack, y los administradores mantienen controles granulares.

¿Cuándo estarán disponibles estas capacidades para todos?
La RTS API y el MCP están en beta cerrada con lanzamiento general previsto para principios de 2026. Work Objects llegará en octubre (GA) y las herramientas para desarrolladores ya están disponibles.

vía: salesforce

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×