Product Updates··6 Min. Lesezeit

Deine Asset-Bibliothek, jetzt smarter

KI-erkannte Keywords machen die Suche smarter, und Styling Notes bleiben am Asset und erscheinen bei der Wiederverwendung automatisch.

By On-Model Team

Gefaltetes Kleidungsstueck umgeben von schwebenden blauen KI-Keyword-Tags auf dunkler Studio-Oberflaeche

Wenn Fashion-Teams mehr ihrer Produktion in KI verlagern, wird Fashion Asset Management schnell zum Engpass. Innerhalb weniger Wochen enthaelt derselbe Ordner, der frueher ein Dutzend Flat-Lays hatte, ploetzlich Tausende von Inputs, Outputs, Referenzaufnahmen und vorherigen Generationen. Zwei Reibungspunkte tauchen in fast jedem Workflow auf: das wiederholte Eintippen derselben Styling-Anweisung jedes Mal, wenn dasselbe Kleidungsstueck wiederverwendet wird, und das seitenweise Suchen nach einem bestimmten Element, das jemand letzten Monat hochgeladen hat.

Laut McKinseys State of Fashion: Technology Edition ist die Produktionszeit einer der drei groessten operativen Engpaesse fuer digitale Fashion-Teams. Der grosse Teil dieser Zeit ist nicht Generierung, sondern Organisation und Wiederverwendung.

Heute sind zwei Verbesserungen in der On-Model Asset-Bibliothek gelandet. Deine Bibliothek erinnert sich nun, und sie kann nach dem durchsucht werden, was tatsaechlich in deinen Bildern ist: eine KI-Bildsuche, die Kleidungsstuecke, Accessoires und Personenattribute erkennt, plus Per-Asset Styling Notes, die Jobs ueberdauern.

Notes, die am Asset haften

Im April haben wir pro-Bild Styling Notes innerhalb von Flat-to-Model Jobs gestartet: eine kurze Textanmerkung auf jedem Flat-Lay, die der KI sagt, wie genau das Kleidungsstueck getragen werden soll. Eingesteckt, gekrempelt, geschichtet, umgefaerbt. Es funktionierte, aber jeder Job begann bei null. Wer dasselbe Hemd in einem neuen Job wiederverwendete, musste dieselbe Anweisung wieder eintippen.

Heute werden diese Notes von per-Job zu per-Asset. Oeffne ein beliebiges Asset auf der Assets-Seite, klicke auf den Stift neben Styling note und schreibe die Anweisung einmal. Beim naechsten Mal, wenn du dieses Asset in einem Job auswaehlst, ist die Note bereits da.

Die Funktion arbeitet sowohl in Flat-to-Model als auch in Create-Packshot. Model Swap nimmt seine Styling-Hinweise weiterhin von der Identitaet, ist also bewusst nicht betroffen.

Bearbeitest du eine Note innerhalb des Bild-Pickers eines Jobs, wird die Aenderung beim Abschicken auch im Quell-Asset gespeichert. Ob du Notes aus der Bibliothek oder aus dem Picker setzt, das Asset ist die einzige Quelle der Wahrheit.

Am Asset gesetzt
Beim Wiederverwenden vorausgefuellt

Die gesamte Interaktion ist zwei Zeilen Verhalten: Notes werden dort gespeichert, wo das Asset lebt, und sie erscheinen ueberall dort, wo das Asset verwendet wird.

Jedes Asset nach seinem Inhalt finden

Die zweite Verbesserung greift weiter oben: KI-Bilderkennung ist nun in jeden Upload eingebaut. Jedes Bild, das in deiner Bibliothek landet, durchlaeuft eine automatische Inhaltsanalyse. Das System erkennt Kleidung und Accessoires (Shirt, Pants, Dress, Jacket, Sneakers, Hat, Sunglasses, Bag und so weiter) sowie Personenattribute (Adult, Child, Female, Male). Diese erscheinen als kleiner, schreibgeschuetzter Detected by AI Abschnitt im Asset-Detailpanel, direkt ueber der Styling Note.

Sie speisen auch die Suchleiste oben auf der Assets-Seite. Bis heute hat dieses Feld Dateinamen, Tags und Asset-IDs abgeglichen. Ab heute matcht es auch erkannte Inhalte und verwandelt denselben Input in eine echte Suche nach Bildinhalt. Tippe glasses und die Bibliothek reduziert sich auf Assets, die tatsaechlich eine Brille enthalten, ganz egal wie die Dateien beim Upload benannt wurden. Dasselbe gilt fuer sneakers, dress, jacket oder jedes andere Element, das das System erkennt. Kein manuelles Tagging, keine zu pflegende Taxonomie.

Detected by AI
Suche nach Inhalt

Erkennung ist automatisch. Es gibt nichts zu aktivieren, nichts manuell zu beschriften. Jeder neue Upload erhaelt seine erkannten Keywords innerhalb weniger Sekunden nach Landung in der Bibliothek, und jeder vorherige Upload funktioniert wie zuvor, bis die Analyse im Hintergrund abgeschlossen ist.

Warum es zaehlt

Bibliotheksqualitaet verstaerkt sich. Sobald deine Assets sich ihr eigenes Styling merken und auf natuerliche Suche reagieren, werden derselbe Picker, dieselbe Upload-Aktion und derselbe Job-Submit schneller. Ein paar Beispiele aus Kundenkonten:

  • Ein Team mit zehn PDP-Varianten desselben Hemds setzt eine Note auf das Asset, und jede Variante erbt sie.
  • Eine Production Specialist mit 4.000-Asset-Bibliothek findet einen bestimmten geschnittenen Blazer in drei Tastendruecken, statt die Grid durchzublaettern.
  • Eine Lokalisations-Verantwortliche zieht jedes Dress in der Bibliothek fuer eine Regionalkampagne, indem sie dress eintippt und das gefilterte Grid exportiert.

Das sind keine Generation-Features. Das sind Workflow-Features. Aber in einer geschaeftigen Woche sparen sie mehr Zeit als die meisten Rendering-Optimierungen.

Wo du es findest

Oeffne die Assets-Seite und klicke auf ein beliebiges Asset, um das neue Detailpanel zu sehen.

  • Tags bleibt, wo es war, mit den bestehenden vier Kategorien: model, product, background, other.
  • Detected by AI sitzt direkt darunter und listet die automatisch erkannten Kleidungs- und Personentokens.
  • Styling note sitzt am Ende des Panels, bearbeitbar fuer Assets, die du besitzt.

Die Suchleiste oben in der Bibliothek nimmt die neuen Inhalts-Matches transparent auf. Es gibt keinen Schalter, keinen separaten Filter; derselbe Input leistet mehr.

Ueber die API verfuegbar

Die Assets-API gibt die neuen Felder auf jedem Asset zurueck. Jedes Item enthaelt jetzt:

{
  "id": "...",
  "filename": "green-button-down.jpg",
  "tags": ["product"],
  "styling_note": "tucked into pants",
  "detected": {
    "has_person": false,
    "has_clothing": true,
    "clothing_items": ["Shirt", "Long Sleeve"],
    "person_attributes": [],
    "categories": ["Apparel and Accessories"]
  }
}

Der search-Query-Parameter auf GET /assets matcht bereits gegen die erkannten Inhalte, sodass derselbe Call, den du fuer deine eigene Such-UI verwendest, dieselben bibliotheksbewussten Ergebnisse zurueckgibt. Es gibt einen dedizierten PATCH /assets/<id>/note, um die Styling Note aus deinen eigenen Tools zu aktualisieren.

Die vollstaendige Referenz findest du in den Assets API Docs.

Haeufige Fragen

Was ist KI-Bildsuche fuer eine Fashion-Asset-Bibliothek? Eine Suche, die den tatsaechlichen Inhalt jedes Bildes betrachtet — Kleidungsstuecke, Accessoires, Personenattribute — statt sich auf Dateinamen oder manuelle Tags zu verlassen. Auf On-Model wird jeder Upload automatisch analysiert und indiziert, sodass die Eingabe eines Wortes wie blazer oder sneakers jedes Asset zurueckgibt, das eines enthaelt.

Muss ich meine Assets manuell taggen? Nein. Die Erkennung ist beim Upload automatisch. Du kannst die vier uebergeordneten Tags (model, product, background, other) zum Filtern beibehalten, aber die zugrunde liegenden Inhalts-Tags werden von der KI erzeugt und ohne manuelle Arbeit synchron gehalten.

Wo gelten Styling Notes? Per-Asset Styling Notes fuellen sich in Flat-to-Model und Create-Packshot automatisch aus, wann immer du das Asset wiederverwendest. Model Swap nimmt seine Styling-Hinweise von der gewaehlten Identitaet und ist nicht betroffen.

Kann ich diese Features ueber die API nutzen? Ja. Die Assets-API exponiert das neue detected-Objekt und das styling_note-Feld auf jedem Asset, und der bestehende search-Query-Parameter matcht jetzt erkannte Inhalte. Siehe die Assets API Docs.

Jetzt ausprobieren

Oeffne die Assets-Seite, waehle ein kuerzlich hochgeladenes Asset und schau nach den neuen Abschnitten Detected by AI und Styling note. Fuege eine Note hinzu, starte einen Job, der dieses Asset wiederverwendet, und sieh, wie die Note vorausgefuellt wird. Dann tippe ein Kleidungswort in die Suchleiste und sieh, wie sich deine Bibliothek selbst eingrenzt.

Neu bei On-Model? Starte mit dem Flat-to-Model Guide, dem Create-Packshot Guide oder dem Model-Swap Guide.


Quellen:

  1. McKinsey & Company. (2024). The State of Fashion: Technology Edition. mckinsey.com
  2. Baymard Institute. (2025). Product Page UX: How Users Interact with Product Images. baymard.com
asset-managementki-bildsuchestyling-noteski-taggingbilderkennungfashion-e-commercefashion-asset-managementflat-to-modelcreate-packshotworkflowproduktfotografieproduct-updates