Die neuesten Trends im Digital Asset Management (DAM)

16. Oktober

2024

Geschrieben von

Ralph Windsor

Dauer

x

min

Die neuesten Trends im Digital Asset Management (DAM)<br>
SCHNELL-LINKS
Dunkler Modus
Dunkler Modus
In den Lichtmodus wechseln
In den Dunkelmodus wechseln

Die Anzahl der vorgelagerten Quellen und nachgelagerten Kanäle für digitale Assets erreicht einen historischen Höchststand. Dadurch wird die Vorstellung, dass DAM-Systeme die Single Source of Truth darstellen zu einem immer komplexeren Konzept - sowohl für Benutzer:innen als auch für Anbieter:innen von Digital Asset Management-Lösungen

Damit DAM die Kontrolle über einen immer größeren Umfang an digitalen Assets behalten kann, muss seine Rolle als zentrales Repository, von dem alle Inhalte kommen, entsprechend erweitert werden. Es ist inzwischen fast allgemein bekannt, dass DAMs nicht einfach digitale Lager sind. In jüngster Zeit ist die Bereitschaft der DAM-Anbieter gestiegen, die Interoperabilität zwischen ehemals isolierten Systemen zu gewährleisten und eine neue Welle von aufkommenden Technologien in ihre Plattformen zu integrieren.

KI wird reifer

Einer der wichtigsten potenziellen Fortschritte im Bereich DAM ist die Einführung der künstlichen Intelligenz. Der Innovationsgrad und die Geschwindigkeit, mit der die Technologie voranschreitet, sind wirklich beeindruckend. In der Zwischenzeit bleibt die Implementierung von KI in die Kern-Workflows von DAMs recht einfach und oberflächlich. Scharen von Anbietern, die auf den KI-Zug aufspringen wollen, haben sich beeilt, Auto-Tagging einzubauen, doch die Ergebnisse waren wenig überzeugend, und nur sehr wenige DAM-Systeme sind über die einfachsten KI-Angebote hinausgekommen.

Im Zuge des technologischen Fortschritts gibt es jedoch inzwischen eine Reihe von verbesserten KI-gestützten DAM-Funktionen.

‍AutomatischesTagging über Objekt-, Szenen- und Gesichtserkennung

KI-gestützte Tagging-Systeme nutzen ein kontextbezogenes Verständnis, um die Genauigkeit der Tags zu verbessern. Wenn die KI zum Beispiel versteht, dass ein Bild von einem "Strand" oft auch "Sand", "Wasser" und "Sonne" enthält, kann sie umfassendere und relevantere Tags erzeugen.

Deep-Learning-Modelle, die auf umfangreichen Datensätzen mit beschrifteten Bildern und Videos trainiert wurden, können eine Vielzahl von Objekten, Szenen und Aktivitäten erkennen. Wenn ein Asset verarbeitet wird, identifiziert und beschriftet das Modell die darin enthaltenen Komponenten.

Die Frage der fachspezifischen Metadaten (die die Hauptstütze der meisten kommerziellen Implementierungen ist) wird weiterhin nicht optimal gehandhabt, aber es werden allmählich Fortschritte erzielt. Mit der richtigen kontextbezogenen Schulung, dem Zugang zu Metadaten über die gesamte Lieferkette digitaler Bestände und der Einführung wirksamer Metadatenverwaltungsstrategien durch die DAM-Benutzer könnte auch dieses seit langem bestehende Problem endlich gelöst werden.

Visuelle Suche

Mithilfe von generativer KI ermöglicht die visuelle Suche Benutzern, Assets auf Grundlage visueller Elemente zu finden, anstatt auf textbasierte Metadaten angewiesen zu sein. Eine wachsende Anzahl von DAM-Anbietern bietet nun visuelle Suchfunktionen an, die entweder selbst entwickelt wurden oder Technologien von Drittanbietern nutzen.

Smart-Cropping

Diese Funktion, die traditionell ein scharfsinniges menschliches Auge erfordert, nutzt KI, um Bilder automatisch zuzuschneiden und sich dabei auf Schlüsselelemente oder Motive zu konzentrieren, um die visuelle Relevanz zu erhalten. Dies ermöglicht eine automatische Bildbearbeitung für verschiedene Kanäle, Plattformen und Geräte.

Extraktion von Merkmalen und Gefühlen

KI-Algorithmen, insbesondere solche, die auf Deep Learning basieren, extrahieren Merkmale aus dem digitalen Bestand. Im Falle von Bildern und Videos kann dies die Identifizierung von Formen, Farben, Objekten und Szenen beinhalten. Bei Textdokumenten werden Techniken zur Verarbeitung natürlicher Sprache (NLP) verwendet, um Schlüsselsätze, Entitäten und Konzepte zu extrahieren.

Automatische Video-/Audio-Transkription

KI und Spracherkennung sind heute in der Lage, genaue Transkriptionen von Dialogen und Untertiteln in Video- und Audiodateien zu erstellen. Dieser beschreibende Text kann wiederum verwendet werden, um Metadaten bereitzustellen und so den Kontext und die Auffindbarkeit zu verbessern.

Multimodale Modelle und benutzerdefinierte LLMs

Mit dem Aufkommen multimodaler Large Language Models (LLM), die auf der Grundlage verschiedener Datentypen trainiert werden können, sind DAM-Systeme nun in der Lage, eine maßgeschneiderte Form der KI zu nutzen, die auf der Grundlage der vorhandenen digitalen Assets, Dokumente, Produkte, Analysedaten, Marketingressourcen und sogar Markenrichtlinien eines Unternehmens trainiert werden kann. Nicht nur die digitalen Assets sind potenzielle Trainingsquellen, sondern auch die Metadaten, die aus der vorgelagerten Lieferkette für digitale Assets generiert werden, wie Briefing-Dokumente, E-Mails und sogar Audiotranskripte von Besprechungen über Marketingkampagnen.

Ein solches umfassendes und dennoch maßgeschneidertes KI-Modell könnte nicht nur digitale Inhalte erkennen, katalogisieren, kennzeichnen und mit hochgradig beschreibenden Metadaten versehen, sondern auch Inhalte auf der Grundlage ihrer Bedeutung abrufen und völlig neue Inhalte auf der Grundlage natürlichsprachlicher Aufforderungen generieren, z. B. "Zeigen Sie mir Unternehmensbilder, auf denen das Firmengebäude zu sehen ist" oder "Erstellen Sie ein markenkonformes und familienfreundliches Marketingbanner für unser neuestes Produkt".

Verwaltung von Metadaten

Das Ausfüllen von Metadaten-Formularen kann ein langwieriger und mühsamer Prozess sein, der oft zu Fehlern und leeren Feldern führt, was letztlich zu unauffindbaren und nicht ausreichend genutzten digitalen Assets führt. Angesichts der verfügbaren Technologien mag es verlockend sein, die automatische Generierung von Metadaten in die Hände von KI zu legen.

Da jedoch genaue, präzise und relevante Metadaten für den effizienten Betrieb eines DAM von entscheidender Bedeutung sind, ist es ratsam, ein gewisses Maß an menschlicher Kontrolle und Steuerung einzubeziehen. Mit dem Aufkommen der KI und ihrer Tendenz, den Kontext zu vernachlässigen, sind von Menschen überprüfte Metadaten sogar noch wichtiger geworden.

Generative KI im DAM

Obwohl die Popularität von Plattformen für generative KI (GenAI) wie DALL-E, Midjourney und Stable Diffusion auf eine breite Akzeptanz schließen lässt, gibt es erstaunlich wenige DAM-Anbieter, die ihren Nutzer:innen die Möglichkeit bieten, visuelle Assets von Grund auf zu erstellen. Die Gründe für dieses Zögern können auf eine Reihe von unmittelbaren Hindernissen zurückzuführen sein: ethische und rechtliche Implikationen in Bezug auf Eigentum und Urheberrecht, technische Komplexität und das Risiko von Unterbrechungen sowie die zusätzlichen Kosten für die Bereitstellung ressourcenintensiver Dienste. Inzwischen gibt es jedoch Anbieter von Drittanbieter-Tools, die GenAI anbieten, die auf Quellen trainiert wurden, die keine Urheberrechte verletzen oder nicht autorisierte biometrische Quellen verwenden.

Eine weitere interessante Anwendung der GenAI-Technologie könnte die Anpassung bestehender Bilder an unterschiedliche Kontexte sein, z. B. an lokale Besonderheiten, wobei der visuelle Stil und die Komposition des ursprünglichen Bildmaterials beibehalten werden, so dass die generierte Ausgabe der Marke entspricht.

Produktbilder und Marketinggrafiken im Handumdrehen

Abgesehen von den oben genannten Herausforderungen ist die Aussicht, DAM-Nutzer:innen die Möglichkeit zu bieten, Markenbilder, Marketingmaterial oder Produktaufnahmen durch die bloße Eingabe von Textbeschreibungen on-the-fly zu erstellen oder zu ändern, natürlich sehr verlockend.

Mit dem Aufkommen dieser neuen digitalen Triebe steigt auch die Zahl der Unternehmen, die anbieten, sie mit maßgeschneiderten Trainingssets und großen Sprachmodellen zu befruchten, die geschäftsspezifisch, markengerecht und frei von urheberrechtlichen Einschränkungen sind.

Sobald diese Modelle trainiert sind, sind Zeit und Kosten für die sofortige Erstellung eines Produktbildes mit GenAI deutlich geringer als die Ressourcen, die für die Organisation eines Fotoshootings, die Anmietung von Foto- und Beleuchtungsausrüstung, die Organisation von Standorten, Logistik und Transport sowie die Zusammenarbeit mit zahlreichen Mitarbeitenden erforderlich sind.

Die Technologie zur Erstellung neuer fotorealistischer Bilder und Videos ist bereits vorhanden, ebenso wie die Möglichkeit, Hintergründe, Gesichter, Objekte, Beleuchtung, Schatten, Reflexionen und Kaustik zu ersetzen oder zu erzeugen. Viele DAMs sind bereits in der Lage, die Größe von Bildern zu ändern und sie für verschiedene Ausgabeziele neu zu formatieren, und damit ist das Toolkit fast vollständig. Die letzte Komponente ist vielleicht die wichtigste - sie bringt etwas Wärme in das kalte Herz unseres KI-Technologie-Stacks. Dafür brauchen wir ein paar Menschen.

Mit Nuance, Stil und Persönlichkeit den KI-"Schlamassel" umgehen

Damit GenAI in der Lage ist, die visuelle Persönlichkeit einer Marke genau wiederzugeben und nicht nur fade Imitationen zu produzieren, müssen Nutzer:innen die Kunst des Prompt-Engineering beherrschen - die Erstellung gezielter, relevanter und oft sehr präziser beschreibender Textanweisungen. Wirksame Prompts müssen das Modell durch eine Reihe detaillierter Pinselstriche in Form von Hinweisen zu Stimmung, Fotografie, Film- und Beleuchtungstechniken, Farbpaletten, Komposition und stilistischen Anforderungen anleiten.

Diese menschliche Note, kombiniert mit einem maßgeschneiderten LLM und einem multimodalen Modell, das auf den Daten des Unternehmens basiert, wird wahrscheinlich der nächste große Trend bei der Erstellung maßgeschneiderter digitaler Inhalte sein.

Prompt: "Ein verschnörkelter Parfümflakon aus grünem Glas vor Falten aus violetter Seide, dramatische Beleuchtung, 35 mm, Bokeh, geringe Schärfentiefe." Stabiles Diffusionsmodell: Absolute Reality Version 1.8.1.

KI für erweiterte, mehrsprachige Suche

Durch die Kombination von KI und Übersetzungs-APIs sind DAM-Systeme nun in der Lage, relevante, hochpräzise und mehrsprachige Metadaten, Schlüsselwörter und Beschreibungen zu generieren und zu suchen.

Einige der besten Übersetzungs-APIs, die sich für die DAM-Integration eignen, sind:

Google Cloud Translation API

Der Cloud-Übersetzungsdienst von Google unterstützt über 100 Sprachen und bietet Echtzeit-Spracherkennung, Übersetzung und Batch-Funktionen. Wie bei den meisten Integrationen von Drittanbieterdiensten erfolgt die Interaktion über deren API.

DeepL

Das 2017 gegründete deutsche Unternehmen DeepL gilt als eine der präzisesten Übersetzungsplattformen auf dem Markt und ist in der Forbes-Liste der 100 besten Cloud-Unternehmen aufgeführt. Mit KI-gestützten Übersetzungen in über 30 Sprachen, einer robusten API und zahlreichen Integrationsoptionen ist es eine flexible, sichere und skalierbare Lösung für Unternehmen.

Microsoft Übersetzer Text API

Die Übersetzungsplattform von Microsoft lässt sich nahtlos in Microsoft Azure integrieren, das bereits von einer Reihe von DAM-Anbietern für Speicherzwecke genutzt wird. Die Übersetzungsplattform unterstützt Funktionen der künstlichen Intelligenz und des maschinellen Lernens und bietet außerdem ein flexibles API-Nutzungsmodell.

Amazon Translate

Amazons Übersetzungsdienste bieten, ähnlich wie Microsoft, bereits eine enge Integration mit AWS (Amazon Web Services) - einer weiteren Plattform, die häufig von DAM-Anbietern zur Bereitstellung von Cloud-Speicher und Drittanbieterdiensten genutzt wird. Amazon Translate unterstützt über 55 Sprachen und bietet Echtzeitübersetzung, Stapelverarbeitung und benutzerdefinierte Taxonomien für branchenspezifische Übersetzungen.

3D

Mit dem Zusammentreffen von erschwinglichem 3D-Druck, generativer KI und Smartphone-Funktionen stellen 3D-Assets heute einen wachsenden Anteil an digitalen Inhalten dar. In Anbetracht der explosionsartigen Zunahme der Entwicklung von mobilen Spielen, Virtual Reality (VR) und Augmented Reality (AR) gibt es nur sehr wenige Anbieter, die der wachsenden Nachfrage nach einer effektiven Verwaltung digitaler 3D-Inhalte gerecht werden.

Wie andere relativ neue Technologien, z. B. GenAI, stellt auch die Unterstützung von 3D-Dateien innerhalb von DAM eine Reihe von Herausforderungen dar. Anbieter müssen entscheiden, welche Formate unterstützt werden sollen, und als absolutes Minimum erwarten Nutzer:innen, dass sie 3D-Objekte in Echtzeit hochladen, verwalten und in der Vorschau anzeigen können. Auch die CPU- und GPU-Ressourcen müssen berücksichtigt werden, ebenso wie die robuste und sichere Speicherung großer Dateien.

Lokalisierung

Heutzutage suchen die meisten Marken nicht nur nach einer Single Source of Truth für ihre Assets, sondern auch nach einem DAM-System, um die Lokalisierung ihrer Assets auf zwei verschiedenen Ebenen zu verwalten. Die erste besteht darin, das globale Design zu lokalisieren, das sich von Land zu Land unterscheidet. Benutzer:innen müssen möglicherweise Branding-Elemente anpassen, Assets ersetzen oder den Text für bestimmte Produktkampagnen anpassen. Auch das Format der Dokumente muss je nach Zielausgabekanal unterschiedlich sein, vom traditionellen Druck bis hin zu digitalen Bannern für soziale Medien und E-Commerce-Plattformen.

Zweitens ist das Übersetzungsmanagement ein wichtiger Meilenstein bei der Vermarktung von Produkten in verschiedenen Ländern, wobei jedes Gebiet seine eigenen Vorschriften und Herausforderungen hat, einschließlich Sprache, Layout und Textgröße. Einige DAM-Systeme sind in der Lage, diese Probleme über dynamische Vorlagen zu lösen, die editierbare Text- und Bildblöcke enthalten. Um die Automatisierung effektiv zu steuern, sollten die Beteiligten in der Lage sein, ein Master-Asset (z. B. InDesign oder Photoshop) zu bestimmen, das als adaptive Vorlage für die Lokalisierung in verschiedenen Ländern, Sprachen und Ausgabekanälen verwendet werden kann. Neue KI-Technologien könnten auch die direkte Übersetzung von Bannern ermöglichen, ohne sich mit den heterogenen Quelldateiformaten auseinandersetzen zu müssen.

Fazit

Die verschiedenen, aufkommenden KI-Technologien, werden allmählich ausgereifter und können in einer Produktionsumgebung eingesetzt werden. Die Investitionen, die zukunftsorientierte DAM-Technologieanbieter in die Integration mit Technologien von Drittanbietern und Digital Asset Supply Chains getätigt haben, werden es ihnen ermöglichen, viele ihrer Vorteile über KI zu nutzen.

DAM-Systeme werden zunehmend die Koordinatoren oder Vermittler von KI-gesteuerten Aktivitäten sein. Die klassischen Anwendungsfälle für DAM - Katalogisierung und Suche - werden bestehen bleiben, aber ihre Bedeutung wird abnehmen. Die Rolle von DAM-Produkten wird eher eine strategische Rolle als Orchestrator als ein Asset-Warehouse mit einer Suchfunktion sein.

Dies hat wichtige Auswirkungen sowohl für Anbieter als auch für die Endnutzer:innen von DAM-Technologien, die ihre Denkweise von einer dateizentrischen Perspektive hin zu einem ganzheitlichen Ansatz für die digitale Asset Supply Chain ändern müssen.

Artikel, die Sie auch interessieren könnten

Erhalten Sie weitere Marketing-Tipps & Neuigkeiten direkt in Ihr E-Mail-Postfach