Usar mensajes de texto a imagen en la aplicación Firefly de Adobe es tan simple como escribir un mensaje de una oración y presionar Enter. Crear imágenes que se alineen con precisión con su visión creativa es más desafiante. Para brindar a los creadores más control sobre los ajustes generados por IA, Adobe integra varios motores de IA de terceros en sus aplicaciones Creative Cloud.
Adobe ha introducido varias funciones diseñadas para ayudar a los usuarios a controlar la apariencia de las imágenes generadas por IA. Puede cargar una docena de fotografías en Firefly que muestren sus preferencias por elementos como el tema, el encuadre, la profundidad de campo, la paleta de colores y la distancia focal, y Firefly utiliza estas fotografías como referencias de composición y estilo. Adobe también le permite elegir qué modelo de imagen se utiliza para crear creaciones y ajustes generados por IA. Puede elegir entre varios modelos, incluidos Ideogram, Runway, Eleven Labs, OpenAI, Forest Labs, Flux, Luma Ray3, Ideogram 3.0, Gemini 2.5 y Nano Banana AI.
Hablé con Stephen Nielsen, director senior de gestión de productos de Adobe, sobre la importancia de integrar modelos de socios en varias aplicaciones de Adobe Creative Cloud. El resultado es «mucho más poderoso», según Stephen.
Una ventaja de tener una variedad de modelos de IA accesibles a través de una única plataforma es que no es necesario crear ni pagar varias cuentas. No es necesario que aprenda las complejidades de las diferentes plataformas. Si alguna vez ha utilizado una plataforma como Apple TV para acceder a servicios de transmisión de video como HBO Max, Netflix y Hulu, sabe lo frustrante que puede ser navegar por las diferentes formas en que cada plataforma maneja tareas básicas como seleccionar una película o activar subtítulos.
«Cada modelo parece tener su propia personalidad y sus puntos fuertes y débiles», afirmó Stephen.

Acceder a múltiples plataformas de IA a través de una única interfaz ofrece la mejor posibilidad de crear una imagen final que refleje su intención. En una demostración que me hicieron, Stephen comenzó con una fotografía de una motocicleta.

Seleccionó el motor Flux Kontext e ingresó el mensaje «agregue un donut a la rueda delantera». La imagen resultante mostraba una pequeña dona incrustada en ella.

A continuación, seleccionó el motor Nano Banana. La imagen resultante era notablemente diferente a la primera. Con el tiempo, aprenderá qué modelos probablemente producirán el resultado que desea. Cada iteración se agrega a la imagen como una nueva capa. Es posible combinar resultados de diferentes motores en una sola imagen.
Habiendo asistido a varias presentaciones de MAX en el pasado, las imágenes mostradas tienden a ser coloridas y caprichosas. He notado una inclinación similar hacia la positividad cuando uso un sitio de música libre de derechos para componer la música de un cortometraje. Es fácil encontrar música inspiradora, pero difícil encontrar un tema oscuro y melancólico para la entrada de un villano.
«Ese es un enfoque común cuando las empresas exhiben un producto. Quieren mantener una actitud positiva», dijo Stephen.

Le pregunté a Stephen si podía integrar el fuego en la imagen. Usó el motor Nano Banana para prender fuego a la rueda trasera, demostrando que puedes crear algo dramáticamente diferente de lo que podrías haber visto en las demostraciones de Adobe.
- Nikon lanza la primera actualización de firmware, versión 1.1, para Nikon ZR - enero 27, 2026
- Aperty tiene una nueva actualización y publica su hoja de ruta 2026 - enero 23, 2026
- Adobe presenta enmascaramiento mejorado en Premiere - enero 20, 2026