Product Updates··7 min de lecture

Votre bibliotheque d'assets, plus smart

Les mots-cles detectes par l'IA alimentent la recherche pour trouver tout asset par son contenu, et les styling notes restent attachees a l'asset.

By On-Model Team

Vetement plie entoure de tags IA bleus flottants sur une surface de studio sombre

A mesure que les equipes mode deplacent leur production vers l'IA, la gestion des assets mode devient le goulot d'etranglement. En quelques semaines, le meme dossier qui contenait une douzaine de flat-lays se retrouve avec des milliers d'inputs, d'outputs, de references et de generations precedentes. Deux frictions reviennent dans presque tous les workflows : retaper la meme instruction de styling a chaque reutilisation d'un vetement, et chercher page apres page un element specifique que quelqu'un a uploade le mois dernier.

Le State of Fashion: Technology Edition de McKinsey place le temps de production parmi les trois principaux goulots d'etranglement operationnels pour les equipes mode numeriques. La majeure partie de ce temps n'est pas la generation. C'est l'organisation et la reutilisation.

Deux ameliorations ont atterri aujourd'hui dans la bibliotheque d'assets On-Model. Votre bibliotheque se souvient maintenant, et elle peut etre recherchee par ce qui se trouve reellement dans vos images : une recherche IA par image qui reconnait vetements, accessoires et attributs de personne, plus des styling notes par asset qui survivent aux jobs.

Des notes qui restent collees a l'asset

En avril, nous avons lance les styling notes par image dans les jobs Flat-to-Model : une courte annotation textuelle sur un flat-lay qui dit a l'IA exactement comment ce vetement doit etre porte. Rentre, retrousse, superpose, recolore. Cela fonctionnait, mais chaque job partait d'une page blanche. Si vous reutilisiez la meme chemise dans un nouveau job, vous retapiez la meme instruction.

Aujourd'hui, ces notes passent de par-job a par-asset. Ouvrez n'importe quel asset sur la page Assets, cliquez sur le crayon a cote de Styling note et ecrivez l'instruction une seule fois. La prochaine fois que vous selectionnez cet asset dans un job, la note est deja la.

Cela fonctionne dans Flat-to-Model et dans Create-Packshot. Model Swap continue de prendre ses indices de styling depuis l'identite, il n'est donc volontairement pas affecte.

Modifiez une note depuis le picker d'images d'un job et le changement est aussi sauvegarde sur l'asset source au submit. Que vous reglez les notes depuis la bibliotheque ou depuis le picker, l'asset reste la seule source de verite.

Defini sur l'asset
Pre-rempli a la reutilisation

L'interaction entiere tient en deux comportements : les notes sont sauvegardees la ou vit l'asset, et elles apparaissent partout ou l'asset est utilise.

Trouver n'importe quel asset par son contenu

La deuxieme amelioration se situe plus en amont : la reconnaissance d'image par IA est desormais integree a chaque upload. Chaque image qui arrive dans votre bibliotheque passe par une analyse de contenu automatique. Le systeme reconnait les vetements et accessoires (Shirt, Pants, Dress, Jacket, Sneakers, Hat, Sunglasses, Bag, et ainsi de suite) et les attributs de personne (Adult, Child, Female, Male). Ils apparaissent dans une petite section en lecture seule Detected by AI sur le panneau de detail de l'asset, juste au-dessus de la styling note.

Ils alimentent aussi la barre de recherche en haut de la page Assets. Jusqu'a aujourd'hui, ce champ correspondait aux noms de fichiers, aux tags et aux IDs d'assets. A partir d'aujourd'hui, il correspond aussi au contenu detecte, transformant le meme input en veritable recherche par contenu d'image. Tapez glasses et la bibliotheque se reduit aux assets qui contiennent reellement une paire de lunettes, peu importe comment les fichiers ont ete nommes a l'upload. Pareil pour sneakers, dress, jacket ou tout autre element reconnu. Pas de tagging manuel, pas de taxonomie a maintenir.

Detected by AI
Recherche par contenu

La detection est automatique. Rien a activer, rien a etiqueter a la main. Tout nouvel upload obtient ses keywords detectes dans les secondes qui suivent son arrivee dans la bibliotheque, et tout upload anterieur continue de fonctionner comme avant jusqu'a ce que son analyse se termine en arriere-plan.

Pourquoi cela compte

La qualite de la bibliotheque se cumule. Une fois que vos assets se souviennent de leur propre styling et repondent a la recherche naturelle, le meme picker, le meme upload, le meme submit deviennent plus rapides. Quelques exemples deja observes sur des comptes clients :

  • Une equipe gerant dix variantes PDP de la meme chemise pose une note sur l'asset, et chaque variante en herite.
  • Une production specialist gerant une bibliotheque de 4 000 assets retrouve un blazer specifique en trois touches, au lieu de feuilleter la grille.
  • Une responsable localisation extrait toutes les robes de la bibliotheque pour une campagne regionale en tapant dress et en exportant la grille filtree.

Ce ne sont pas des fonctionnalites de generation. Ce sont des fonctionnalites de workflow. Mais sur une semaine chargee, elles font gagner plus de temps que la plupart des optimisations de rendu.

Ou le trouver

Ouvrez la page Assets et cliquez sur n'importe quel asset pour voir le nouveau panneau de detail.

  • Tags reste a sa place, avec les quatre categories existantes : model, product, background, other.
  • Detected by AI se trouve juste en dessous, listant les tokens vetements et personne reconnus automatiquement.
  • Styling note se trouve a la fin du panneau, editable pour les assets que vous possedez.

La barre de recherche en haut de la bibliotheque capte les nouveaux matches de contenu de maniere transparente. Pas de bascule, pas de filtre separe ; le meme input fait plus.

Disponible via l'API

L'API Assets renvoie les nouveaux champs sur chaque asset. Chaque element contient maintenant :

{
  "id": "...",
  "filename": "green-button-down.jpg",
  "tags": ["product"],
  "styling_note": "tucked into pants",
  "detected": {
    "has_person": false,
    "has_clothing": true,
    "clothing_items": ["Shirt", "Long Sleeve"],
    "person_attributes": [],
    "categories": ["Apparel and Accessories"]
  }
}

Le parametre search sur GET /assets correspond deja au contenu detecte, donc le meme appel que vous utilisez pour alimenter votre propre UI de recherche renverra les memes resultats. Il existe un PATCH /assets/<id>/note dedie pour mettre a jour la styling note depuis vos propres outils.

La reference complete se trouve dans la documentation de l'API Assets.

Questions frequentes

Qu'est-ce que la recherche IA par image pour une bibliotheque d'assets mode ? Une recherche qui regarde le contenu reel de chaque image — vetements, accessoires, attributs de personne — au lieu de s'appuyer sur les noms de fichiers ou les tags manuels. Sur On-Model, chaque upload est analyse et indexe automatiquement, donc taper un mot comme blazer ou sneakers renvoie chaque asset qui en contient un.

Dois-je tagger mes assets manuellement ? Non. La detection est automatique a l'upload. Vous pouvez toujours maintenir les quatre tags de haut niveau (model, product, background, other) pour le filtrage, mais les tags de contenu sous-jacents sont produits par l'IA et synchronises sans aucun travail manuel.

Ou s'appliquent les styling notes ? Les styling notes par asset se pre-remplissent dans Flat-to-Model et Create-Packshot chaque fois que vous reutilisez l'asset. Model Swap prend ses indices de styling depuis l'identite choisie et n'est pas affecte.

Puis-je utiliser ces fonctionnalites via l'API ? Oui. L'API Assets expose le nouvel objet detected et le champ styling_note sur chaque asset, et le parametre search existant correspond maintenant au contenu detecte. Voir la documentation de l'API Assets.

A essayer maintenant

Ouvrez la page Assets, choisissez un asset recemment uploade et reperez les nouvelles sections Detected by AI et Styling note. Ajoutez une note, lancez un job qui reutilise cet asset et observez la note se pre-remplir. Puis tapez un mot de vetement dans la barre de recherche et regardez votre bibliotheque se reduire.

Nouveau sur On-Model ? Commencez par le guide Flat-to-Model, le guide Create-Packshot ou le guide Model-Swap.


Sources :

  1. McKinsey & Company. (2024). The State of Fashion: Technology Edition. mckinsey.com
  2. Baymard Institute. (2025). Product Page UX: How Users Interact with Product Images. baymard.com
gestion-assetsrecherche-iastyling-notestagging-iareconnaissance-imagemode-ecommercegestion-assets-modeflat-to-modelcreate-packshotworkflowphotographie-produitproduct-updates