Werden DAM-GPTs den Anbieter-Markt revolutionieren?
Jeder hat schon verschiedene KI-Tools ausprobiert und einige davon im persönlichen Alltag integriert. Auch im beruflichen Kontext ist KI nicht mehr wegzudenken. Und doch: Oft bleiben die Versuche, Mehrwerte durch KI zu generieren, im experimentellen Stadium stecken. Während die einen ein neues Zeitalter ausloben, treten andere auf die Euphorie-Bremse und mancherorts bricht gar Panik aus, will man doch keine der möglichen Innovationen verpassen.
Wir hatten im letzten Blogbeitrag zum Thema Digital Asset Management („Den Wandel annehmen – Warum sich Anbieter an die Veränderungen des DAM-Marktes anpassen müssen“) bereits informiert, dass es zahlreiche technologische Errungenschaften gibt, die Software-Anbieter zum Neudenken ihrer Lösungen zwingt. Was allerdings mit dem KI-Zug auf uns zurollt, ist eine besondere Hausnummer. Und ganz gleich, wie weit jeder einzelne die Erfahrungen schon in Mehrwerte ummünzen konnte: Das Thema erfordert unsere Aufmerksamkeit und eine grundlegende Analyse.
Erkenntnisse über den IST-Zustand
Die Anbieter, die sich auf die Fahne schreiben, ihre Produkte am Puls der Zeit zu entwickeln, arbeiten intensiv an der Integration von KI-Tools. Und sie mühen sich nach allen Regeln der Kunst, die Mehrwerte durch KI-Features ihren Kunden zu verdeutlichen. Doch ist das der richtige Weg, um sein Produkt langfristig marktgerecht zu positionieren? Bräuchte es nicht vielmehr einen Moment zum Nachdenken, vielleicht sogar Überlegungen zum kompletten Neuentwurf?
Zwei Trends sind unübersehbar – und es ist keine Umkehr dieser Entwicklungen erkennbar:
- User erledigen immer mehr Anwendungsfälle auf Mobile Devices
- User setzen verstärkt auf KI-Assistenten
Beide Trends kann man vor allem bei Konsumenten im privaten Kontext beobachten, aber die Anforderungen, die B2B-Systeme erfüllen müssen, gleichen sich mehr und mehr dem B2C-Markt an; die UX-Lehre predigt, dass Systeme und insbesondere eben Benutzer-Interfaces intuitiv nutzbar sein müssen. Doch was bedeuten diese Erkenntnisse für den Markt der DAM-Systeme?
Auswirkungen auf das Frontend
Die offensichtlichste Veränderung ist, dass sich das Interface für die Benutzer anpassen wird. Webbasierte Systeme wurden vor allem durch Suchmaschinen erfolgreich – einen Suchbegriff in ein Textfenster eintippen und danach „googlen“. Und ebenso hat man seit Anbeginn in DAM-Systemen ein Suchfeld, über das man schnell und effizient die gewünschten Assets finden kann. An diesem Grundfest wird gerüttelt, sobald man versucht, KI-basierte Textanalyse zu verwenden und Mechanismen des Natural Language Processings (NLP) anzuwenden, um den Kontext der Suchanfrage besser zu interpretieren.
Das Ganze ist weit von einem ChatGPT oder einem Perplexity entfernt, von denen die Anfragen über einen Dialog beantwortet und immer detaillierter Nachfragen gestellt oder Angebote gemacht werden, um das gewünschte Ergebnis zu verbessern – in der Art, wie man sich die Zusammenarbeit mit einer Assistenz wünscht.
Hat man eine Suche im DAM-System abgesetzt, erhält man das Suchergebniss im DAM-Systems in einer fast schon antiquierten Tabellen- oder Leuchttisch-Ansicht. Ja, die Methodik ermöglicht eine übersichtliche Darstellung zahlreicher Assets auf einen Blick, vielleicht sogar mit wesentlichen Metadaten. Dennoch entspricht das nicht der Best Practice, wie heutzutage Content angeboten wird. Jede Social Media Applikation stellt den Content als Content Feed dar – insbesondere bei Verwendung von Mobile Devices. Überall um uns herum ein einziges Swipen von Youtube-Shorts, TikTok-Reels und Insta-Posts.
Eigentlich ist es nur eine Frage der Zeit, bis man von einer Assistenz präzise bei der Asset-Suche im DAM unterstützt wird und das Ergebnis in entsprechender Feed-Form präsentiert bekommt – und sich so ein Tool daraus entwickelt, was man am ehesten als DAM-GPT bezeichnen würde.
Und es geht noch weiter: Wenn es sinnvolle Use Cases gibt und die Zuverlässigkeit bzw. die Reproduzierbarkeit der Ergebnisse sichergestellt ist, ist ebenso denkbar, nicht nur den eingepflegten Content (oder sollte man besser „antrainierten Content“ sagen?) abzufragen, sondern mit generativer KI zu kombinieren, um benötigten, aber noch nicht existenten Content, on demand zu kreieren.
Auswirkung auf das Backend
Mit den Entwicklungen im Frontend geht ein disruptives Neudenken der Datenverwaltung im Backend einher: Sicher werden relationale Datenbanken zum Speichern von Informationen in Digital Asset Management (DAM) Systemen zwar kurzfristig dominieren, doch man muss kein Prophet sein, um einen Wandel hin zu semantischen, LLM-kompatiblen Architekturen zu prognostizieren.
Relationale Datenbanken wie PostgreSQL und MySQL sind robust, performant und weit verbreitet. Damit sind sie ein Garant für Stabilität und Zuverlässigkeit. Ein Wandel wird nicht als Big Bang kommen. Wahrscheinlicher ist, dass die etablierten Komponenten zunehmend um weitere Architektur-Bausteine erweitert werden. Die zentrale Funktion als Speichermedium und Transaktionsbasis verbleibt im konventionellen Teil, während neue semantische Schichten ergänzt werden. Im Ergebnis entstehen hybride Ansätze, bei denen strukturierte Daten und Vektor-Embedding koexistieren – und diese ermöglichen KI-basierte Semantik, ohne das bisherige Datenbank-Rückgrat zu ersetzen. Versucht man, weiter in die Zukunft zu orakeln, ist auch ein vollständig in semantischen Netzen und Assistenzsystemen verwalteter Datenbestand denkbar.
Betrachtet man, wohin sich Open Source Software hinbewegt, findet man bereits in diese Richtung gehende Bestandteile und damit Indikatoren für genau diese Entwicklung: So gibt es beispielsweise mit Synmetrix einen semantischen Layer zwischen Datenquellen und Applikationsebene; mit PostgresML existiert eine Machine Learning Plattform, die auf der bewährten relationalen Datenbankschicht aufsetzt.
Mittelfristig werden relationale Datenbanken zentral bleiben – semantische Erweiterungen wie Embeddings und Vektor-Indexierung setzen darauf auf. Langfristig werden DAM-Systeme immer stärker semantisch durchdrungen, etwa durch Wissensgraphen / LLMs als zentrale Modelle zur Speicherung von gerichteten Informationen statt reiner Tabellen. Dies ist die Basis für die oben erwähnten Assistenten-Frontends, die klassische Suchmasken obsolet werden lassen.
Let’s call it DAM-GPT
Das Akronym DAM-GPT macht durchaus Sinn, um die Gattung zukünftiger Systeme exakter zu definieren. Digital Asset Management ist weiterhin die Methodik zur Verwaltung, Strukturierung und Distribution von Assets. Der Generative Pre-trained Transformer beschreibt die Interaktion und das Retrieval: Der User hat nicht mehr Suchmaske & Filter, sondern ein dialogbasiertes Assistenzsystem, das auch Vorschläge, Transformationen und semantische Interpretationen liefern kann.
Die Kennzeichen für ein DAM-GPT wären damit Funktionen wie:
- Automatische Verschlagwortung über die Bildanalyse
- Semantische Suche beispielsweise nach Stimmung, Kontext, Zweck – anstelle bisheriger Tag-Suchen
- Dialoginterface, also eine Asset-Suche und -Ausgabe im Stil eines Assistenten
- Wissensgraph & LLM, durch die kontextbezogenes Wissen wie Markenrichtlinien oder Urheberrechte im Dialog berücksichtigt werden kann
- Eventuell auch GenAI-basierte Transformation wie automatisches Formatieren, Cropping, Hintergrundentfernung & Bildmontagen, CI-Anpassungen
TL;DR
Technologische Entwicklungen rund um künstliche Intelligenz gepaart mit dem Verhalten, wie wir Content konsumieren, werden weitaus gravierendere Auswirkungen auf DAM-Systeme haben als neue KI-gestützte Funktionen. Die fundamentalen Bausteine eines DAM-Systems wie die Asset-Suche und -Speicherung werden sich verändern, um der User Experience eines KI-Assistenten nahe zu kommen, auch und insbesondere bei Verwendung mobiler Devices. Dadurch mutieren konventionelle DAM-Systeme mehr und mehr zu DAM-GPTs.