En el marco de Adobe MAX 2025, Adobe y Google Cloud han anunciado una ampliación estratégica de su colaboración para integrar los modelos de IA de Google —Gemini, Veo e Imagen— directamente en las aplicaciones de Adobe. El objetivo es inaugurar una nueva etapa de creación asistida por IA, con más precisión, control y variedad de modelos al servicio de profesionales creativos, marcas y equipos de marketing.
La alianza se traduce en algo muy concreto para los usuarios: acceso a los modelos de Google desde Firefly, Photoshop, Adobe Express, Premiere y otras apps de Adobe, así como desde la plataforma GenStudio en el ámbito corporativo. En una fase posterior, las compañías prevén que los clientes empresariales puedan personalizar y desplegar modelos “de marca” mediante Adobe Firefly Foundry, entrenados con su propia IP y ejecutados sobre Vertex AI con los compromisos de datos de Google (sin reutilización de los datos del cliente para reentrenar modelos base).
Qué significa la alianza en la práctica
El anuncio va más allá de un acuerdo de marketing: unifica en un mismo entorno de trabajo los mejores modelos del sector con las herramientas de edición profesional que los creativos ya dominan.
- En las aplicaciones de Adobe (Firefly, Photoshop, Express, Premiere…): posibilidad de elegir el modelo más adecuado para cada tarea —por ejemplo, Imagen para generación fotorrealista, Veo para vídeo o Gemini para flujos multimodales—, y seguir editando con precisión “a nivel de píxel” dentro del software de siempre.
- En la empresa (GenStudio + Vertex AI): acceso a los modelos de Google con gobernanza y seguridad sobre datos corporativos, automatización de cadenas de contenido y, en el futuro, modelos personalizados vía Firefly Foundry para generar activos on-brand a escala.
- En go-to-market: Adobe y Google Cloud coordinan acciones comerciales y de adopción para acercar estas capacidades a clientes de todo el mundo, con foco en productividad creativa medible (menos tiempo a repetitivos, más consistencia y versionado controlado).
Para los equipos, el gran cambio es operativo: en lugar de saltar entre portales y modelos, las opciones de IA quedan dentro del flujo: se elige el modelo, se genera el contenido, se edita con las herramientas habituales y se publica o orquesta en los canales de siempre.
Por qué ahora (y por qué juntos)
Tanto Adobe como Google Cloud llegan con piezas probadas. Adobe ha evolucionado Firefly hacia un estudio integral de IA, ha “infusionado” Creative Cloud con funciones generativas (Generative Fill, Generative Upscale, Object Mask, Harmonize…) y ha llevado GenStudio al terreno de las cadenas de suministro de contenido. Google, por su parte, ha escalado Vertex AI con una oferta multimodelo (Gemini, Imagen, Veo) y compromisos de datos corporativos, además de una infraestructura planetaria optimizada para IA.
La suma persigue dos objetivos:
- Dar elección real de modelo sin romper el workflow creativo.
- Llevar la personalización segura (modelos de marca con Foundry) hasta producción, con trazabilidad y control de derechos.
La convergencia entre creatividad e IA exige precisamente eso: herramientas de precisión para el profesional —que no abdique del control— y sistemas gobernados para la empresa —que integren datos, procesos y políticas—.
Implicaciones para el día a día creativo
- Más calidad desde el primer borrador. Elegir Imagen o Gemini como motor bajo el capó de Generative Fill o en Firefly puede reducir iteraciones cuando se busca fotorealismo o coherencia de estilo.
- Vídeo con IA “de verdad”. Veo abre vías para text-to-video y image-to-video dentro de flujos conectados con Premiere, lo que acorta la distancia entre storyboard y montaje.
- Menos fricción para equipos pequeños. Quien trabaja “a contrarreloj” (social, e-commerce, editorial) gana velocidad con plantillas y modelos adecuados a cada encargo sin abandonar el entorno Adobe.
- Control a nivel de píxel. La IA no sustituye al criterio profesional: Photoshop, Premiere y Lightroom siguen aportando las herramientas finas para cerrar la pieza, con IA como asistente.
Lo que aporta a la empresa (marketing, contenido, marca)
- Modelos “de marca”: con Firefly Foundry, entrenados sobre IP propia y comercialmente seguros, orientados a generar series on-brand para campañas, retail media, performance y contenidos multiformato.
- Ejecución en Vertex AI con compromisos de datos: separación clara entre datos del cliente y modelos base, y opciones de customización sin fuga de know-how a terceros.
- Operativización del contenido: GenStudio integra planificación, producción, activación y medición; la IA deja de ser un “plugin” y pasa a ser un sistema productivo con KPIs de tiempo, coste y rendimiento.
Un ecosistema que se ensancha (y se conecta con YouTube)
La alianza con Google llega un día después de que Adobe anunciara con YouTube un espacio de creación para Shorts dentro de Premiere móvil (“Create for YouTube Shorts”), que permite editar y publicar directamente en la plataforma de Google. El encaje es evidente: modelos de Google en el workflow Adobe, edición y publicación sin salir del móvil, y canales con alcance masivo. Para el creador, menos fricción; para la marca, más control y consistencia en la ejecución.
Voces de la alianza
Shantanu Narayen, CEO de Adobe, resumió el espíritu del acuerdo: “Esta alianza une el ADN creativo de Adobe con los modelos de IA de Google para empoderar a creadores y marcas en Firefly, Creative Cloud y Firefly Foundry”. Para Thomas Kurian, CEO de Google Cloud, la clave es integrar los modelos de Google en el ecosistema Adobe para que creadores, profesionales y marcas dispongan de las herramientas y plataformas con las que acelerar la creación y hacer posible lo que antes era inviable.
Riesgos y cautelas
Ambas compañías recuerdan que hay declaraciones prospectivas: la disponibilidad regional, el catálogo inicial de modelos y la velocidad de despliegue pueden variar. En empresa, el éxito pasa por:
- Gobernanza de datos y roles en GenStudio/Vertex.
- Limpieza de la IP que se use para entrenar modelos de marca.
- Formación de equipos en prompting, buenas prácticas y control de calidad.
- Métricas de impacto (tiempo-a-contenido, coste por variante, lift de campañas).
Señal al mercado
La integración modelo-agnóstica dentro de Adobe —ahora con Gemini, Veo e Imagen— consolida una tendencia: el creador elige el modelo en función del trabajo, no al revés. Y en la empresa, la combinación GenStudio + Vertex AI + Foundry sugiere el paso de herramientas silo a plataformas orquestadas donde la IA está en el centro del flujo creativo-operativo.
Preguntas frecuentes
¿Podré elegir el modelo de Google dentro de Photoshop, Firefly o Premiere?
Sí. La alianza contempla acceso a los modelos de Google dentro de las apps de Adobe y de GenStudio, de modo que el creador seleccione el modelo que mejor encaja con su objetivo (imagen, vídeo, multimodal) y siga editando con herramientas de precisión.
¿Qué garantías hay sobre mis datos si personalizo modelos de marca?
Para clientes enterprise, los modelos de Google se ejecutan en Vertex AI con compromisos de datos (los datos del cliente no se usan para entrenar los modelos fundacionales de Google). La personalización de Firefly Foundry parte de IP propia y de modelos Firefly diseñados para uso comercial seguro.
¿Cuándo estará disponible y dónde?
Adobe y Google Cloud hablan de despliegue global con actividades conjuntas de go-to-market. La disponibilidad puede variar por región y producto, y algunas capacidades llegarán de forma gradual. Conviene seguir las notas de Adobe MAX y el Newsroom oficial.
¿Cómo encaja esto con el nuevo espacio de creación para YouTube Shorts?
La alianza con YouTube trae “Create for YouTube Shorts” a Premiere móvil (edición y publicación directa). Junto con los modelos de Google en Adobe, se reduce la fricción entre creación y publicación en el ecosistema Google.