La tua libreria di asset, ora più smart
Le parole chiave rilevate dall'AI alimentano la barra di ricerca per trovare ogni asset dal contenuto, e le styling notes restano salvate sull'asset.

Man mano che i team della moda spostano sempre più produzione sull'AI, la gestione degli asset moda diventa il collo di bottiglia. Nel giro di poche settimane, la stessa cartella che conteneva una dozzina di flat-lay si ritrova con migliaia di input, output, riferimenti e generazioni precedenti. Due frizioni si presentano in quasi ogni workflow: ridigitare la stessa istruzione di styling ogni volta che lo stesso capo viene riutilizzato, e cercare pagina dopo pagina un elemento specifico che qualcuno ha caricato il mese scorso.
Il State of Fashion: Technology Edition di McKinsey colloca il tempo di produzione tra i tre principali colli di bottiglia operativi per i team della moda digitale. La maggior parte di quel tempo non è generazione. È organizzazione e riutilizzo.
Oggi sono arrivate due migliorie nella libreria di asset di On-Model. La tua libreria ora ricorda, e può essere cercata in base a ciò che è davvero nelle immagini: una ricerca AI per immagine che riconosce capi, accessori e attributi della persona, più styling notes per asset che sopravvivono ai job.
Note che restano attaccate all'asset
Ad aprile abbiamo rilasciato le styling notes per immagine nei job di Flat-to-Model: una breve annotazione testuale su qualsiasi flat-lay che dice all'AI esattamente come quel capo deve essere indossato. Dentro, arrotolato, a strati, ricolorato. Funzionava, ma ogni job partiva da zero. Se riutilizzavi la stessa camicia in un nuovo job, ridigitavi la stessa istruzione.
Oggi quelle note passano da per-job a per-asset. Apri qualsiasi asset nella pagina Assets, clicca sulla matita accanto a Styling note e scrivi l'istruzione una sola volta. La prossima volta che selezioni quell'asset in un job, la nota è già lì.
Funziona sia in Flat-to-Model che in Create-Packshot. Model Swap continua a prendere i suoi spunti di styling dall'identità, quindi è intenzionalmente non interessato.
Modifica una nota dall'interno del picker di immagini di un job e la modifica viene anche salvata sull'asset di origine al submit. Che tu imposti le note dalla libreria o dal picker, l'asset resta l'unica fonte di verità.
L'intera interazione si riduce a due comportamenti: le note sono salvate dove vive l'asset, e appaiono ovunque l'asset venga usato.
Trovare qualsiasi asset dal suo contenuto
La seconda miglioria interviene più a monte: il riconoscimento di immagini AI è ora integrato in ogni upload. Ogni immagine che arriva nella tua libreria passa attraverso un'analisi automatica del contenuto. Il sistema riconosce abbigliamento e accessori (Shirt, Pants, Dress, Jacket, Sneakers, Hat, Sunglasses, Bag, e così via) e attributi della persona (Adult, Child, Female, Male). Compaiono come una piccola sezione di sola lettura Detected by AI nel pannello di dettaglio dell'asset, proprio sopra la styling note.
Alimentano anche la barra di ricerca in cima alla pagina Assets. Fino ad oggi, quel campo confrontava nomi file, tag e ID degli asset. Da oggi confronta anche i contenuti rilevati, trasformando lo stesso input in una vera ricerca per contenuto immagine. Digita glasses e la libreria si restringe agli asset che contengono davvero un paio di occhiali, indipendentemente da come i file siano stati nominati all'upload. Lo stesso vale per sneakers, dress, jacket o qualsiasi altro elemento il sistema riconosca. Niente tagging manuale, nessuna tassonomia da mantenere.
Il riconoscimento è automatico. Niente da abilitare, niente da etichettare a mano. Ogni nuovo upload riceve le sue parole chiave rilevate entro pochi secondi dall'arrivo in libreria, e ogni upload precedente continua a funzionare come prima finché l'analisi non si completa in background.
Perché conta
La qualità della libreria si compone. Una volta che i tuoi asset ricordano il proprio styling e rispondono alla ricerca naturale, lo stesso picker, lo stesso upload, lo stesso submit diventano più veloci. Alcuni esempi visti sugli account dei clienti:
- Un team che gestisce dieci varianti PDP della stessa camicia imposta una nota sull'asset, e ogni variante la eredita.
- Un production specialist che gestisce una libreria di 4.000 asset trova un blazer specifico in tre tasti, invece di sfogliare la griglia.
- Una responsabile della localizzazione tira fuori ogni vestito in libreria per una campagna regionale digitando
dressed esportando la griglia filtrata.
Non sono funzionalità di generazione. Sono funzionalità di workflow. Ma in una settimana intensa, fanno risparmiare più tempo della maggior parte delle ottimizzazioni di rendering.
Dove trovarlo
Apri la pagina Assets e clicca su un asset qualsiasi per vedere il nuovo pannello di dettaglio.
- Tags resta dov'era, con le quattro categorie esistenti: model, product, background, other.
- Detected by AI si trova subito sotto, elencando i token di abbigliamento e persona riconosciuti automaticamente.
- Styling note si trova in fondo al pannello, modificabile per gli asset che possiedi.
La barra di ricerca in cima alla libreria raccoglie i nuovi match di contenuto in modo trasparente. Nessun interruttore, nessun filtro separato; lo stesso input fa di più.
Disponibile via API
L'API Assets restituisce i nuovi campi su ogni asset. Ogni elemento ora include:
{
"id": "...",
"filename": "green-button-down.jpg",
"tags": ["product"],
"styling_note": "tucked into pants",
"detected": {
"has_person": false,
"has_clothing": true,
"clothing_items": ["Shirt", "Long Sleeve"],
"person_attributes": [],
"categories": ["Apparel and Accessories"]
}
}
Il parametro search su GET /assets confronta già il contenuto rilevato, quindi la stessa chiamata che usi per alimentare la tua UI di ricerca restituirà gli stessi risultati. C'è un PATCH /assets/<id>/note dedicato per aggiornare la styling note dai tuoi strumenti.
Il riferimento completo è nella documentazione dell'API Assets.
Domande frequenti
Cos'è la ricerca AI per immagine in una libreria di asset moda? Una ricerca che guarda il contenuto reale di ogni immagine — capi, accessori, attributi della persona — invece di affidarsi a nomi file o tag manuali. Su On-Model, ogni upload viene analizzato e indicizzato automaticamente, così digitare una parola come blazer o sneakers restituisce ogni asset che ne contiene uno.
Devo taggare i miei asset manualmente? No. Il riconoscimento è automatico all'upload. Puoi comunque mantenere i quattro tag di alto livello (model, product, background, other) per il filtraggio, ma i tag di contenuto sottostanti sono prodotti dall'AI e mantenuti sincronizzati senza alcun lavoro manuale.
Dove si applicano le styling notes? Le styling notes per-asset si pre-compilano in Flat-to-Model e Create-Packshot ogni volta che riutilizzi l'asset. Model Swap prende i suoi spunti di styling dall'identità scelta e non è interessato.
Posso usare queste funzionalità via API?
Sì. L'API Assets espone il nuovo oggetto detected e il campo styling_note su ogni asset, e il parametro search esistente ora confronta il contenuto rilevato. Vedi la documentazione dell'API Assets.
Provalo ora
Apri la pagina Assets, scegli un asset caricato di recente e cerca le nuove sezioni Detected by AI e Styling note. Aggiungi una nota, lancia un job che riutilizza quell'asset e guarda la nota pre-compilarsi. Poi digita una parola di abbigliamento nella barra di ricerca e osserva la tua libreria restringersi.
Nuovo su On-Model? Inizia dalla guida Flat-to-Model, dalla guida Create-Packshot o dalla guida Model-Swap.
Fonti:
- McKinsey & Company. (2024). The State of Fashion: Technology Edition. mckinsey.com
- Baymard Institute. (2025). Product Page UX: How Users Interact with Product Images. baymard.com
Leggi anche

Styling Notes per i capi flat-lay
Aggiungi styling notes alle foto flat-lay e controlla come l'AI indossa ogni capo: dentro i pantaloni, con risvolto, a strati o ricolorato.

Crea Preset IA da Qualsiasi Foto di Moda
Carica una foto di moda di riferimento e lascia che l'IA estragga posa, sfondo, illuminazione e impostazioni della fotocamera in un preset riutilizzabile — automatizza lo stile della tua fotografia di prodotto in pochi secondi.

I trend della moda si muovono veloci. Le tue immagini prodotto dovrebbero fare altrettanto.
Quando collaborazioni virali come Travis Scott x SpongeBob escono, i retailer hanno bisogno di immagini on-model in ore, non settimane. Ecco come l'IA colma il divario.