Tu biblioteca de assets, más inteligente
Las palabras clave detectadas por la IA alimentan la búsqueda para encontrar cualquier asset por contenido, y las styling notes quedan guardadas en él.

A medida que los equipos de moda trasladan más producción a la IA, la gestión de assets de moda se convierte en el cuello de botella. En pocas semanas, la misma carpeta que contenía una docena de flat-lays acaba con miles de inputs, outputs, referencias y generaciones anteriores. Dos fricciones aparecen en casi todos los workflows: volver a escribir la misma instrucción de styling cada vez que se reutiliza la misma prenda, y rastrear página por página un elemento concreto que alguien subió el mes pasado.
El State of Fashion: Technology Edition de McKinsey sitúa el tiempo de producción entre los tres principales cuellos de botella operativos para los equipos digitales de moda. La mayor parte de ese tiempo no es generación. Es organización y reutilización.
Hoy han aterrizado dos mejoras en la biblioteca de assets de On-Model. Tu biblioteca ahora recuerda, y se puede buscar por lo que hay realmente en tus imágenes: una búsqueda por imagen con IA que reconoce prendas, accesorios y atributos de la persona, más styling notes por asset que sobreviven a los jobs.
Notas que se quedan pegadas al asset
En abril lanzamos las styling notes por imagen dentro de los jobs Flat-to-Model: una anotación de texto corta sobre cualquier flat-lay que le dice a la IA exactamente cómo debe llevarse esa prenda. Metida, remangada, en capas, recoloreada. Funcionaba, pero cada job partía de cero. Si reutilizabas la misma camisa en un nuevo job, volvías a escribir la misma instrucción.
Hoy esas notas pasan de por-job a por-asset. Abre cualquier asset en la página Assets, haz clic en el lápiz junto a Styling note y escribe la instrucción una sola vez. La próxima vez que selecciones ese asset en un job, la nota ya está ahí.
Funciona tanto en Flat-to-Model como en Create-Packshot. Model Swap sigue tomando sus claves de styling de la identidad, así que intencionalmente no se ve afectado.
Edita una nota desde el picker de imágenes de un job y el cambio también se guarda en el asset de origen al enviar el job. Tanto si configuras las notas desde la biblioteca como desde el picker, el asset sigue siendo la única fuente de verdad.
Toda la interacción se reduce a dos comportamientos: las notas se guardan donde vive el asset, y aparecen donde se use el asset.
Encuentra cualquier asset por su contenido
La segunda mejora actúa más arriba: el reconocimiento de imágenes con IA ya está integrado en cada upload. Cada imagen que llega a tu biblioteca pasa por un análisis de contenido automático. El sistema reconoce ropa y accesorios (Shirt, Pants, Dress, Jacket, Sneakers, Hat, Sunglasses, Bag, etc.) y atributos de la persona (Adult, Child, Female, Male). Aparecen como una pequeña sección de solo lectura Detected by AI en el panel de detalle del asset, justo encima de la styling note.
También alimentan la barra de búsqueda en la parte superior de la página Assets. Hasta hoy, ese campo coincidía con nombres de archivo, tags e IDs de assets. A partir de hoy también coincide con el contenido detectado, convirtiendo el mismo input en una verdadera búsqueda por contenido de imagen. Escribe glasses y la biblioteca se reduce a los assets que contienen realmente unas gafas, sin importar cómo se llamaran los archivos al subirlos. Lo mismo para sneakers, dress, jacket o cualquier otro elemento que el sistema reconozca. Sin etiquetado manual, sin taxonomía que mantener.
La detección es automática. Nada que activar, nada que etiquetar a mano. Cualquier upload nuevo obtiene sus palabras clave detectadas en pocos segundos tras aterrizar en la biblioteca, y cualquier upload anterior sigue funcionando como antes hasta que su análisis se completa en segundo plano.
Por qué importa
La calidad de la biblioteca se acumula. Una vez que tus assets recuerdan su propio styling y responden a la búsqueda natural, el mismo picker, el mismo upload, el mismo submit se vuelven más rápidos. Algunos ejemplos vistos en cuentas de clientes:
- Un equipo que gestiona diez variantes PDP de la misma camisa pone una nota en el asset, y cada variante la hereda.
- Un production specialist que gestiona una biblioteca de 4.000 assets encuentra un blazer concreto en tres pulsaciones, en lugar de pasar páginas de la cuadrícula.
- Una responsable de localización extrae cada vestido de la biblioteca para una campaña regional escribiendo
dressy exportando la cuadrícula filtrada.
No son funcionalidades de generación. Son funcionalidades de workflow. Pero en una semana intensa, ahorran más tiempo que la mayoría de optimizaciones de renderizado.
Dónde encontrarlo
Abre la página Assets y haz clic en cualquier asset para ver el nuevo panel de detalle.
- Tags sigue donde estaba, con las cuatro categorías existentes: model, product, background, other.
- Detected by AI está justo debajo, listando los tokens de ropa y persona reconocidos automáticamente.
- Styling note está al final del panel, editable para los assets que posees.
La barra de búsqueda en la parte superior de la biblioteca recoge las nuevas coincidencias de contenido de forma transparente. Sin interruptor, sin filtro aparte; el mismo input hace más.
Disponible vía API
La API de Assets devuelve los nuevos campos en cada asset. Cada elemento ahora incluye:
{
"id": "...",
"filename": "green-button-down.jpg",
"tags": ["product"],
"styling_note": "tucked into pants",
"detected": {
"has_person": false,
"has_clothing": true,
"clothing_items": ["Shirt", "Long Sleeve"],
"person_attributes": [],
"categories": ["Apparel and Accessories"]
}
}
El parámetro search en GET /assets ya coincide con el contenido detectado, por lo que la misma llamada que usas para alimentar tu propia UI de búsqueda devolverá los mismos resultados. Hay un PATCH /assets/<id>/note dedicado para actualizar la styling note desde tus propias herramientas.
La referencia completa está en la documentación de la API de Assets.
Preguntas frecuentes
¿Qué es la búsqueda por imagen con IA en una biblioteca de assets de moda? Una búsqueda que mira el contenido real de cada imagen — prendas, accesorios, atributos de la persona — en vez de basarse en nombres de archivo o tags manuales. En On-Model, cada upload se analiza e indexa automáticamente, así escribir una palabra como blazer o sneakers devuelve cada asset que contenga uno.
¿Tengo que etiquetar mis assets manualmente? No. La detección es automática al subir. Puedes mantener los cuatro tags de alto nivel (model, product, background, other) para filtrar, pero los tags de contenido subyacentes los produce la IA y se mantienen sincronizados sin ningún trabajo manual.
¿Dónde se aplican las styling notes? Las styling notes por asset se pre-rellenan en Flat-to-Model y Create-Packshot cada vez que reutilizas el asset. Model Swap toma sus claves de styling de la identidad elegida y no se ve afectado.
¿Puedo usar estas funcionalidades vía API?
Sí. La API de Assets expone el nuevo objeto detected y el campo styling_note en cada asset, y el parámetro search existente ahora coincide con el contenido detectado. Mira la documentación de la API de Assets.
Pruébalo ahora
Abre la página Assets, elige un asset que hayas subido recientemente y busca las nuevas secciones Detected by AI y Styling note. Añade una nota, lanza un job que reutilice ese asset y observa cómo la nota se pre-rellena. Después escribe una palabra de ropa en la barra de búsqueda y mira cómo tu biblioteca se reduce.
¿Nuevo en On-Model? Empieza con la guía Flat-to-Model, la guía Create-Packshot o la guía Model-Swap.
Fuentes:
- McKinsey & Company. (2024). The State of Fashion: Technology Edition. mckinsey.com
- Baymard Institute. (2025). Product Page UX: How Users Interact with Product Images. baymard.com
Leer a continuación

Controla el estilo con Styling Notes
Agrega Styling Notes a tus fotos flat-lay y controla cómo la IA lleva cada prenda: metida, remangada, en capas o recoloreada.

Crea Presets de IA a Partir de Cualquier Foto de Moda
Sube una foto de moda de referencia y deja que la IA extraiga pose, fondo, iluminación y ajustes de cámara en un preset reutilizable — automatiza el estilo de tu fotografía de producto en segundos.

Presets de Flat-to-Model: Un Outfit, Todos los Estilos
Usa las categorías de presets de On-Model para generar imágenes PDP, lifestyle, editorial y social a partir del mismo plano — además de presets personalizados para tu marca.